OpenAI a-t-il déjà perdu le contrôle de ChatGPT ?
Le lancement de ChatGPT d’OpenAI a été suivi d’un enthousiasme qui n’a d’égal que quelques produits technologiques de l’histoire d’Internet.
Alors que de nombreuses personnes sont ravies de ce nouveau service d’IA, le frisson ressenti par d’autres s’est depuis transformé en inquiétudes et même en peurs. Les étudiants trichent déjà avec, de nombreux professeurs découvrant des essais et des devoirs écrits par le chatbot AI. Les professionnels de la sécurité expriment leurs inquiétudes quant au fait que les escrocs et les acteurs de la menace l’utilisent pour écrire des e-mails de phishing et créer des logiciels malveillants.
Alors, avec toutes ces inquiétudes, OpenAI perd-il le contrôle de l’un des chatbots IA les plus puissants actuellement en ligne ? Découvrons-le.
Comprendre le fonctionnement de ChatGPT
Avant de pouvoir avoir une image claire de combien OpenAI perd le contrôle de ChatGPT, nous devons d’abord comprendre comment fonctionne ChatGPT.
En un mot, ChatGPT est formé à l’aide d’une collection massive de données provenant de différents coins d’Internet. Les données de formation de ChatGPT comprennent des encyclopédies, des articles scientifiques, des forums Internet, des sites Web d’actualités et des référentiels de connaissances comme Wikipedia. Fondamentalement, il se nourrit de la quantité massive de données disponibles sur le World Wide Web.
En parcourant Internet, il rassemble des connaissances scientifiques, des conseils de santé, des textes religieux et tous les bons types de données auxquelles vous pouvez penser. Mais il passe également au crible une tonne d’informations négatives : jurons, NSFW et contenu pour adultes, informations sur la façon de créer des logiciels malveillants et une grande partie des mauvaises choses que vous pouvez trouver sur Internet.
Il n’y a pas de moyen infaillible de s’assurer que ChatGPT n’apprend que des informations positives tout en rejetant les mauvaises. Techniquement, il n’est pas pratique de le faire à grande échelle, en particulier pour une IA comme ChatGPT qui doit s’entraîner sur autant de données. De plus, certaines informations peuvent être utilisées à la fois pour le bien et pour le mal, et ChatGPT n’aurait aucun moyen de connaître son intention à moins qu’il ne soit placé dans un contexte plus large.
Ainsi, dès le départ, vous disposez d’une IA capable du « bien et du mal ». Il est alors de la responsabilité d’OpenAI de s’assurer que le côté « mal » de ChatGPT n’est pas exploité à des fins contraires à l’éthique. La question est; OpenAI en fait-il assez pour que ChatGPT reste aussi éthique que possible ? Ou OpenAI a-t-il perdu le contrôle de ChatGPT ?
ChatGPT est-il trop puissant pour son propre bien ?
Au début de ChatGPT, vous pouviez demander au chatbot de créer des guides sur la fabrication de bombes si vous le demandiez gentiment. Des instructions sur la création de logiciels malveillants ou la rédaction d’un e-mail frauduleux parfait figuraient également sur la photo.
Cependant, une fois qu’OpenAI s’est rendu compte de ces problèmes éthiques, l’entreprise s’est empressée d’édicter des règles pour empêcher le chatbot de générer des réponses qui promeuvent des actions illégales, controversées ou contraires à l’éthique. Par exemple, la dernière version de ChatGPT refusera de répondre à toute invite directe sur la fabrication de bombes ou sur la façon de tricher lors d’un examen.
Malheureusement, OpenAI ne peut fournir qu’une solution de fortune au problème. Plutôt que de créer des contrôles rigides sur la couche GPT-3 pour empêcher l’exploitation négative de ChatGPT, OpenAI semble se concentrer sur la formation du chatbot pour qu’il apparaisse éthique. Cette approche n’enlève pas la capacité de ChatGPT à répondre aux questions sur, par exemple, la triche aux examens – elle apprend simplement au chatbot à « refuser de répondre ».
Donc, si quelqu’un formule ses invites différemment en adoptant des astuces de jailbreak ChatGPT, il est extrêmement facile de contourner ces restrictions de pansement. Au cas où vous ne seriez pas familier avec le concept, les jailbreaks ChatGPT sont des invites soigneusement formulées pour que ChatGPT ignore ses propres règles.
Jetez un oeil à quelques exemples ci-dessous. Si vous demandez à ChatGPT comment tricher aux examens, il ne produira aucune réponse utile.
Mais si vous jailbreakez ChatGPT à l’aide d’invites spécialement conçues, il vous donnera des conseils pour tricher à un examen en utilisant des notes masquées.
Voici un autre exemple : nous avons posé une question contraire à l’éthique au ChatGPT vanille, et les protections d’OpenAI l’ont empêché de répondre.
Mais lorsque nous avons demandé à notre instance jailbreakée du chatbot AI, nous avons obtenu des réponses de type tueur en série.
Il a même écrit une escroquerie par e-mail classique du prince nigérian lorsqu’on lui a demandé.
Le jailbreak invalide presque complètement toutes les garanties mises en place par OpenAI, soulignant que l’entreprise pourrait ne pas disposer d’un moyen fiable de garder son chatbot IA sous contrôle.
Quel avenir pour ChatGPT ?
Idéalement, OpenAI souhaite combler autant de failles éthiques que possible pour empêcher ChatGPT de devenir une menace pour la cybersécurité. Cependant, pour chaque sauvegarde qu’il utilise, ChatGPT a tendance à devenir un peu moins précieux. C’est un dilemme.
Par exemple, les garanties contre la description d’actions violentes pourraient diminuer la capacité de ChatGPT à écrire un roman impliquant une scène de crime. Alors qu’OpenAI renforce les mesures de sécurité, il sacrifie inévitablement une partie de ses capacités dans le processus. C’est pourquoi ChatGPT a subi une baisse significative de ses fonctionnalités depuis la nouvelle pression d’OpenAI pour une modération plus stricte.
Mais combien de capacités supplémentaires de ChatGPT OpenAI sera-t-il prêt à sacrifier pour rendre le chatbot plus sûr ? Tout cela est parfaitement lié à une croyance de longue date au sein de la communauté de l’IA : les grands modèles de langage comme ChatGPT sont notoirement difficiles à contrôler, même par leurs propres créateurs.
OpenAI peut-il mettre ChatGPT sous contrôle ?
Pour l’instant, OpenAI ne semble pas avoir de solution tranchée pour éviter l’utilisation contraire à l’éthique de son outil. S’assurer que ChatGPT est utilisé de manière éthique est un jeu du chat et de la souris. Alors qu’OpenAI découvre les moyens que les gens utilisent pour jouer au système, ses utilisateurs bricolent et testent constamment le système pour découvrir de nouvelles façons créatives de faire en sorte que ChatGPT fasse ce qu’il n’est pas censé faire.
Alors, OpenAI trouvera-t-il une solution fiable à long terme à ce problème ? Seul le temps nous le dira.
Laisser un commentaire