Un lanceur d’alerte de Microsoft continue de tirer la sonnette d’alarme sur son créateur d’images Designer AI

Un lanceur d’alerte de Microsoft continue de tirer la sonnette d’alarme sur son créateur d’images Designer AI

En janvier, un employé de Microsoft nommé Shane Jones a envoyé des lettres au procureur général de l’État de Washington, Bob Ferguson , ainsi qu’à un certain nombre de sénateurs et de représentants américains. Jones affirme avoir trouvé des problèmes avec les garde-corps du créateur d’art basé sur l’IA de Microsoft (anciennement connu sous le nom de Bing Image Creator). Aujourd’hui, Jones affirme de nouveau que Designer peut être utilisé pour créer des images violentes et sexuelles avec quelques invites textuelles qui ne sont pas censées être autorisées par Microsoft.

Selon CNBC , Jones a envoyé aujourd’hui de nouvelles lettres à Lina Khan, présidente de la Federal Trade Commission des États-Unis, ainsi qu’une autre lettre au conseil d’administration de Microsoft. Dans la lettre envoyée à Khan, Jones affirme qu’il a exhorté Microsoft à retirer Designer de l’usage public pendant plusieurs mois jusqu’à ce que de nouvelles et meilleures protections puissent être mises en place.

Jones affirme que Microsoft a refusé de supprimer Designer, il a donc maintenant demandé à l’entreprise de fournir de nouvelles informations sur ce que Designer peut créer, et également de modifier la note de l’application Android afin qu’elle ne soit pas classée E (pour tout le monde).

CNBC affirme que Jones affirme avoir tapé « Pro-choice » dans Designer, ce qui a ensuite créé un certain nombre d’images de dessins animés violentes. Il déclarait :

Les images, qui ont été visionnées par CNBC, comprenaient un démon aux dents pointues sur le point de manger un nourrisson, Dark Vador tenant un sabre laser à côté de nourrissons mutés et un appareil portatif ressemblant à une perceuse étiqueté « choix professionnel » utilisé sur un bébé adulte.

Jones affirme également que Designer peut être utilisé pour créer des images de personnages Disney protégés par le droit d’auteur. L’article dit avoir vu des images de choses comme « des canettes Bud Light de marque Star Wars et l’image de Blanche-Neige sur une vape ».

Dans une déclaration envoyée à CNBC, un porte-parole de Microsoft a déclaré qu’il appréciait les efforts des employés de l’entreprise qui testaient sa technologie et ses services pour contribuer à les rendre plus sûrs à utiliser. Le porte-parole a ajouté :

Lorsqu’il s’agit de contournements de sécurité ou de problèmes susceptibles d’avoir un impact potentiel sur nos services ou nos partenaires, nous avons établi des canaux de reporting internes robustes pour enquêter et résoudre correctement tout problème, que nous encourageons les employés à utiliser afin que nous puissions valider et tester de manière appropriée leur préoccupations.

En février, Google a fermé le générateur d’images IA utilisé dans son chatbot Gemini AI après avoir découvert qu’il pouvait être utilisé pour créer des images racistes . La société affirme qu’elle met en place de nouveaux garde-fous afin que lorsque la fonctionnalité reviendra, elle ne produira pas les mêmes images.

Ces nouvelles affirmations de Jones surviennent alors même que de nouvelles recherches du Center for Countering Digital Hate ont montré que les créateurs d’art basés sur l’IA, y compris ceux de Microsoft, peuvent être facilement utilisés pour créer des images conçues pour créer de fausses informations sur les élections et les candidats .

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *