Microsoft, Google, OpenAI, Meta, Amazon, X et bien d’autres s’engagent à lutter contre les deepfakes électoraux liés à l’IA

Microsoft, Google, OpenAI, Meta, Amazon, X et bien d’autres s’engagent à lutter contre les deepfakes électoraux liés à l’IA

L’utilisation d’applications et de services d’IA générative pour créer de fausses images et informations suscite de plus en plus d’attention. Cela a certainement atteint son paroxysme il y a quelques semaines lorsque des images créées par l’ IA de la chanteuse pop Taylor Swift ont inondé le réseau social X. Certains rapports affirment que les images ont été créées par le générateur d’images AI Designer de Microsoft .

Comme 2024 est également une année électorale pour le poste de président américain, on craint encore plus que de fausses images d’IA puissent être utilisées pour influencer négativement les votes lors de cette élection ainsi que d’autres. Aujourd’hui, un grand nombre d’entreprises technologiques ont annoncé qu’elles respecteraient un nouvel accord selon lequel elles utiliseraient leurs ressources pour lutter contre l’utilisation de l’IA dans des campagnes électorales trompeuses.

L’accord, qui a été annoncé lors de la conférence sur la sécurité de Munich, s’appelle l’ accord électoral d’AI . Les entreprises qui adhèrent actuellement à cet accord sont :

  • Adobe
  • Amazone
  • Anthropique
  • Bras
  • OnzeLabs
  • Google
  • IBM
  • IA d’inflexion
  • LinkedIn
  • McAfee
  • Méta
  • Microsoft
  • Utiliser
  • OpenAI
  • Snap Inc.
  • IA de stabilité
  • TIC Tac
  • Tendance Micro
  • Truepic
  • X

Le communiqué de presse (au format PDF) annonçant l’accord indique que les sociétés ci-dessus ont accepté de respecter ces engagements pour lutter contre les efforts électoraux deepfake :

  • Développer et mettre en œuvre une technologie pour atténuer les risques liés au contenu Deceptive AI Election, y compris des outils open source, le cas échéant.
  • Évaluer les modèles dans le cadre de cet accord pour comprendre les risques qu’ils peuvent présenter en ce qui concerne le contenu électoral trompeur de l’IA
  • Cherchant à détecter la diffusion de ces contenus sur leurs plateformes
  • Cherchant à traiter de manière appropriée ce contenu détecté sur leurs plateformes
  • Favoriser la résilience intersectorielle face au contenu électoral trompeur de l’IA
  • Assurer la transparence envers le public sur la manière dont l’entreprise y répond
  • Continuer à collaborer avec un ensemble diversifié d’organisations mondiales de la société civile, d’universitaires
  • Soutenir les efforts visant à favoriser la sensibilisation du public, l’éducation aux médias et la résilience de l’ensemble de la société

Le président de Microsoft, Brad Smith, faisait partie des dirigeants de l’entreprise cités dans le communiqué de presse. Il a déclaré:

Alors que la société profite des avantages de l’IA, nous avons la responsabilité de veiller à ce que ces outils ne deviennent pas des armes lors des élections. L’IA n’a pas créé la tromperie électorale, mais nous devons veiller à ce qu’elle ne favorise pas la tromperie.

Un exemple de deepfake électoral s’est produit il y a quelques semaines, lorsque des appels automatisés avec une voix générée par l’IA du président américain Joe Biden ont exhorté les appelants à ne pas voter aux primaires du New Hampshire. Il s’est avéré plus tard que les appels avaient été créés par une société basée au Texas .

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *