Microsoft, OpenAI, Google et d’autres promettent une IA responsable à la Maison Blanche

Microsoft, OpenAI, Google et d’autres promettent une IA responsable à la Maison Blanche

Des représentants de sept géants de la technologie – Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI – ont rencontré l’administration Biden-Harris pour discuter du développement responsable de l’intelligence artificielle. Les entreprises technologiques ont cherché à rassurer l’administration sur le fait qu’elles prennent au sérieux les considérations éthiques alors qu’elles se précipitent pour progresser dans l’IA.

La réunion de la Maison Blanche intervient alors que l’on craint de plus en plus que les progrès de l’IA ne soient potentiellement utilisés à mauvais escient ou n’aient des conséquences négatives imprévues.

De puissants systèmes d’IA sont désormais capables de générer du texte, des images, de l’audio, de la vidéo et du code de manière très convaincante. Bien que cette technologie promette de nombreux avantages, certains craignent qu’elle ne permette également la diffusion de fausses informations et ne soit utilisée pour manipuler les gens .

À la suite de la réunion, Microsoft a souligné l’importance de créer une IA sûre, sécurisée et bénéfique pour la société. Il vise à garantir que ses systèmes d’IA sont équitables, fiables, dignes de confiance, inclusifs, transparents et responsables. Pour y parvenir, l’entreprise a établi des principes et des lignes directrices pour le développement de l’IA .

Dans son blog, Microsoft a déclaré :

En agissant rapidement, les engagements de la Maison Blanche créent une base pour aider à garantir que la promesse de l’IA reste en avance sur ses risques. Nous saluons le leadership du président pour rassembler l’industrie technologique afin de définir des mesures concrètes qui contribueront à rendre l’IA plus sûre, plus sécurisée et plus bénéfique pour le public.

Google a également récemment publié une proposition concernant la conception de l’inclusion dans les systèmes d’IA pour éviter les biais injustes. L’entreprise croit en l’adoption d’une approche audacieuse mais réfléchie de l’innovation en IA.

OpenAI a mis l’accent sur une approche prudente de la diffusion de sa technologie et de la réflexion sur les dangers potentiels. Malgré cela, certains experts de la FTC ont exhorté OpenAI à être plus transparent sur ses garanties .

Ces sept grandes entreprises d’IA s’engagent à :

  • Tests de sécurité internes et externes de leurs systèmes d’IA avant leur sortie.
  • Partager des informations à travers l’industrie et avec les gouvernements, la société civile et les universités sur la gestion des risques liés à l’IA.
  • Investir dans la cybersécurité et les protections contre les menaces internes pour protéger les poids des modèles propriétaires et inédits.
  • Faciliter la découverte et le signalement par des tiers des vulnérabilités dans les systèmes d’IA.
  • Développer des mécanismes techniques robustes pour s’assurer que les utilisateurs savent quand le contenu est généré par l’IA.
  • Signaler publiquement les capacités, les limites et les domaines d’utilisation appropriée et inappropriée de leurs systèmes d’IA.
  • Donner la priorité à la recherche sur les risques sociétaux que les systèmes d’IA peuvent poser
  • Développez et déployez des systèmes d’IA avancés pour aider à relever les plus grands défis de la société.

Pendant ce temps, Meta et Microsoft ont collaboré sur la prochaine génération de Llama . Dans son article de blog, Microsoft a déclaré que « Llama 2 est conçu pour permettre aux développeurs et aux organisations de créer des outils et des expériences génératifs alimentés par l’IA ».

La Maison Blanche a clairement indiqué qu’elle souhaitait travailler en étroite collaboration avec les entreprises technologiques pour promouvoir une innovation responsable en IA. Il a appelé à l’intégration de garde-corps dans les systèmes d’IA pour protéger la vie privée, les droits civils et la sécurité nationale .

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *