Brad Smith, président de Microsoft, appelle à une nouvelle législation sur la fraude Deepfake au Congrès américain

Brad Smith, président de Microsoft, appelle à une nouvelle législation sur la fraude Deepfake au Congrès américain

L’émergence de l’IA générative a entraîné une augmentation inquiétante du contenu numérique « deepfake », produit de manière malveillante par des acteurs souhaitant diffuser de fausses informations sur des individus et des sujets en ligne. Cette tendance suscite de vives inquiétudes, notamment à l’approche de l’élection présidentielle américaine de 2024.

Dans ce contexte, le Microsoft Threat Analysis Center (MTAC) observe de près la manière dont les acteurs malveillants parrainés par des États de Russie, d’Iran et de Chine créent des sites Web, des publications sur les réseaux sociaux et des vidéos trompeurs pour tenter d’influencer l’élection de 2024. Récemment, la société a publié un rapport indiquant que des acteurs basés en Russie ont généré des vidéos visant à diffuser de la désinformation sur la candidate démocrate à la présidence des États-Unis Kamala Harris et le candidat à la vice-présidence Tim Walz.

Aujourd’hui, Microsoft a partagé sur son blog le témoignage écrit du président de l’entreprise, Brad Smith , à la suite de son audition devant la commission du renseignement du Sénat américain à Washington DC. L’audition s’est concentrée sur les menaces étrangères contre les élections américaines et sur les obligations des entreprises technologiques américaines, telles que Microsoft, pour lutter contre ces menaces.

Dans sa déclaration écrite, Smith a décrit les efforts continus des groupes parrainés par l’État pour exploiter l’IA et la technologie deepfake pour influencer les élections de 2024. Il a également appelé le comité et le Congrès américain à prendre des mesures proactives.

Dans son témoignage, Smith a déclaré :

Le Congrès devrait tout d’abord adopter une nouvelle loi fédérale sur la fraude par deepfake. Nous devons fournir aux responsables de l’application de la loi, y compris aux procureurs généraux des États, un cadre juridique autonome pour poursuivre les fraudes et les escroqueries générées par l’IA à mesure qu’elles se multiplient en rapidité et en complexité.

Smith a également souligné que le Congrès devrait exiger que tout fournisseur de systèmes d’IA étiquete le contenu généré par l’IA avec « des outils de provenance de pointe ». En outre, il a plaidé pour l’adoption du Protect Elections from Deceptive AI Act, qui a déjà été présenté par un groupe bipartisan de législateurs américains. Entre autres dispositions, ce projet de loi interdirait l’utilisation de l’IA pour générer du contenu politique pour les législateurs fédéraux, avec des exceptions pour le contenu satirique ou l’utilisation dans les salles de presse.

Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *