Microsoft et OpenAI affirment que les pirates utilisent l’IA générative pour améliorer les cyberattaques

Microsoft et OpenAI affirment que les pirates utilisent l’IA générative pour améliorer les cyberattaques

Ce n’est pas vraiment un choc d’apprendre que les cybercriminels organisés commencent à utiliser des outils et services d’IA générative pour de nouveaux types d’attaques. Aujourd’hui, nous avons obtenu beaucoup plus d’informations sur la manière dont ces pirates informatiques parrainés par l’État utilisent de grands modèles de langage.

Dans un article de blog , Microsoft, en partenariat avec OpenAI, a annoncé une nouvelle recherche sur la manière dont les pirates informatiques utilisent les LLM. Elle comprend des informations sur des groupes spécifiques qui ont été identifiés comme utilisant des outils d’IA générative.

Les groupes sont basés dans des pays comme la Russie, la Corée du Nord, l’Iran et la Chine. L’un d’eux s’appelle Forest Blizzard et est lié à l’unité russe GRU 26165. Microsoft affirme que le groupe a été actif dans le ciblage des organisations liées à l’invasion en cours de l’Ukraine.

Microsoft affirme que Forest Blizzard utilise les LLM « pour comprendre les protocoles de communication par satellite, les technologies d’imagerie radar et les paramètres techniques spécifiques ». Ses recherches ajoutent que ce groupe a également essayé d’automatiser des tâches telles que la sélection et la manipulation de fichiers avec les LLM.

Un autre groupe de cybercriminels qui, selon Microsoft, utilise l’IA a été qualifié de Salmon Typhoon. Le groupe basé en Chine a l’habitude de cibler le gouvernement et les sous-traitants américains de la défense. Selon Microsoft, Salmon Typhoon a utilisé les LLM de diverses manières. Ils incluent la recherche d’erreurs de codage et la traduction de documents informatiques techniques.

Microsoft affirme qu’il continuera à s’associer à OpenAI pour étudier l’utilisation de l’IA par les cybercriminels.

Dans le cadre de cet engagement, nous avons pris des mesures pour perturber les actifs et les comptes associés aux acteurs de la menace, améliorer la protection de la technologie OpenAI LLM et des utilisateurs contre les attaques ou les abus, et façonner les garde-fous et les mécanismes de sécurité autour de nos modèles.

La société a ajouté qu’elle utiliserait son propre service Copilot for Security pour lutter contre ces cybermenaces basées sur LLM.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *