ChatGPT deviendra-t-il une menace pour la cybersécurité ? Voici ce qu’il faut surveiller
Qui n’a pas utilisé ChatGPT à ce stade ? C’est amusant, absolument fascinant si vous vous intéressez à l’intelligence artificielle, et gratuit (pour l’instant).
Bien qu’il soit généralement décrit comme un chatbot, ChatGPT est bien plus que cela. Il peut générer du texte, expliquer des sujets complexes, agir en tant que traducteur, proposer des blagues et écrire du code. Mais il peut aussi être militarisé par des acteurs menaçants.
Comment fonctionne ChatGPT et pourquoi il attire les cybercriminels
ChatGPT (Generative Pre-trained Transformer) a été développé par le laboratoire de recherche en intelligence artificielle OpenAI, et lancé en novembre 2022. Il s’agit d’un grand modèle de langage qui utilise une combinaison de techniques d’apprentissage automatique supervisé et par renforcement.
Peut-être plus important encore, ChatGPT est constamment affiné et formé par les utilisateurs, qui peuvent voter pour ou contre ses réponses, ce qui le rend d’autant plus précis et puissant qu’il collecte des données par lui-même.
C’est ce qui distingue ChatGPT des autres chatbots. Et si vous l’avez déjà utilisé, vous savez que la différence est immédiatement perceptible : contrairement à d’autres produits similaires, il est capable de participer activement à une conversation et d’accomplir des tâches complexes avec une précision étonnante, tout en fournissant des réponses cohérentes et humaines.
Si on vous montrait un court essai écrit par un humain et un écrit par ChatGPT, vous auriez probablement du mal à déterminer lequel est lequel. À titre d’exemple, voici une partie du texte généré par ChatGPT lorsqu’on lui a demandé d’écrire un court essai sur The Catcher in the Rye.
Cela ne veut pas dire que ChatGPT n’a pas ses limites, c’est certainement le cas. Plus vous l’utiliserez, plus vous remarquerez que c’est le cas. Aussi puissant soit-il, il peut encore lutter avec la logique élémentaire, faire des erreurs, partager des informations fausses et trompeuses, mal interpréter les instructions de manière comique et être manipulé pour tirer la mauvaise conclusion.
Mais la puissance de ChatGPT ne réside pas dans sa capacité à converser. Il réside plutôt dans sa capacité quasi illimitée à accomplir des tâches en masse, plus efficacement et beaucoup plus rapidement qu’un humain ne le pourrait. Avec les bonnes entrées et commandes, et quelques solutions de contournement créatives, ChatGPT peut être transformé en un outil d’automatisation d’une puissance inquiétante.
Dans cet esprit, il n’est pas difficile d’imaginer comment un cybercriminel pourrait armer ChatGPT. Il s’agit de trouver la bonne méthode, de la mettre à l’échelle et de faire en sorte que l’IA effectue autant de tâches que possible à la fois, avec plusieurs comptes et sur plusieurs appareils si nécessaire.
5 choses que les auteurs de menaces pourraient faire avec ChatGPT
Il existe déjà quelques exemples concrets d’utilisation de ChatGPT par des acteurs malveillants, mais il est plus que probable qu’il soit militarisé de différentes manières, ou qu’il le soit à un moment donné dans le futur. Voici cinq choses que les pirates peuvent faire (et font probablement) avec ChatGPT.
1. Écrivez des logiciels malveillants
Si ChatGPT peut écrire du code, il peut écrire des logiciels malveillants. Pas de surprise là-bas. Mais ce n’est pas qu’une simple possibilité théorique. En janvier 2023, la société de cybersécurité Check Point Research a découvert que les cybercriminels utilisaient déjà ChatGPT pour écrire des logiciels malveillants et s’en vantaient sur des forums clandestins.
L’acteur menaçant Check Point Research a découvert qu’il utilisait le chatbot avancé de manière plutôt créative, pour recréer des logiciels malveillants basés sur Python décrits dans certaines publications de recherche. Lorsque les chercheurs ont testé le programme malveillant, le cybercriminel disait la vérité : son logiciel malveillant généré par ChatGPT faisait exactement ce pour quoi il avait été conçu.
2. Générer des e-mails de phishing
Aussi puissants que soient devenus les filtres anti-spam, les e-mails de phishing dangereux passent toujours entre les mailles du filet, et il n’y a pas grand-chose qu’une personne moyenne puisse faire si ce n’est signaler l’expéditeur à son fournisseur. Mais il y a beaucoup de choses qu’un pirate capable pourrait faire avec une liste de diffusion et un accès à ChatGPT.
Avec les bonnes commandes et suggestions, ChatGPT peut générer des e-mails de phishing convaincants, automatisant potentiellement le processus pour l’acteur de la menace et lui permettant d’étendre ses opérations.
3. Créer des sites Web frauduleux
Si vous venez de rechercher sur Google le terme « créer un site Web avec ChatGPT », vous trouverez un tas de tutoriels expliquant en détail comment faire exactement cela. Bien que ce soit une bonne nouvelle pour quiconque souhaite créer un site Web à partir de zéro, c’est également une excellente nouvelle pour les cybercriminels. Qu’est-ce qui les empêche d’utiliser ChatGPT pour créer un tas de sites frauduleux ou des pages de destination de phishing ?
Les possibilités sont presque infinies. Un acteur malveillant pourrait cloner un site Web existant avec ChatGPT, puis le modifier, créer de faux sites Web de commerce électronique, exécuter un site avec des escroqueries par scareware, etc.
4. Créer du contenu de spam
Pour créer un faux site Web, gérer une page frauduleuse sur les réseaux sociaux ou créer un site imitateur, vous avez besoin de contenu, en grande quantité. Et il doit avoir l’air aussi légitime que possible pour que l’arnaque fonctionne. Pourquoi un pirate embaucherait-il des rédacteurs de contenu ou rédigerait-il lui-même des articles de blog, alors qu’il peut simplement demander à ChatGPT de le faire pour lui ?
Certes, un site Web avec du contenu généré par l’IA serait probablement pénalisé assez rapidement par Google et n’apparaîtrait pas dans les résultats de recherche, mais il existe de nombreuses façons différentes pour un pirate informatique de promouvoir un site Web, d’y envoyer du trafic et d’arnaquer les gens. leur argent ou voler leurs informations personnelles.
5. Diffuser la désinformation et les fausses nouvelles
La désinformation en ligne est devenue un problème majeur ces dernières années. Les fausses nouvelles se répandent comme une traînée de poudre sur les réseaux sociaux, et les personnes qui ne s’y connaissent pas tombent souvent dans le piège d’histoires trompeuses, et parfois littéralement inventées. Cela peut avoir des conséquences désastreuses dans la vie réelle, et il semble que personne ne sache comment arrêter la diffusion de fausses nouvelles sans violer les lois sur la liberté d’expression.
Des outils comme ChatGPT pourraient aggraver ce problème. Les acteurs de la menace ayant accès à un logiciel capable de générer chaque jour des milliers de fausses nouvelles et de publications sur les réseaux sociaux semblent être une recette pour un désastre.
Ne nous croyez pas sur parole
Si vous n’êtes pas convaincu, nous avons demandé à ChatGPT comment un cybercriminel l’utiliserait. Il semble être d’accord avec l’essentiel de cet article.
Entre de mauvaises mains, ChatGPT devient dangereux
On ne peut qu’imaginer de quoi l’intelligence artificielle sera capable dans cinq ou dix ans. Pour le moment, il est préférable d’ignorer le battage médiatique et la panique, et d’évaluer ChatGPT de manière rationnelle.
Comme toutes les technologies, ChatGPT n’est ni utile ni nuisible en soi. Malgré quelques défauts, c’est de loin le chatbot le plus performant jamais rendu public.
Laisser un commentaire