L’IA générera presque toutes les images que vous voulez – c’est dommage qu’elles soient souvent imprégnées de préjugés.

L’IA générera presque toutes les images que vous voulez – c’est dommage qu’elles soient souvent imprégnées de préjugés.

DALL E est un système puissant qui utilise les dernières avancées du traitement du langage naturel (TAL) pour enseigner aux systèmes algorithmiques comment analyser et répondre au langage humain. Les résultats sont incroyablement réalistes, comme la loutre de mer « La fille à la perle » ou les ours en peluche mélangeant des produits chimiques étincelants comme des savants fous :

Cependant, il y a des voix que DALL E souffre des préjugés racistes et sexistes contre lesquels les éthiciens de l’IA mettent en garde depuis des années.

OpenAI reconnaît que son système hérite de biais

Les systèmes d’apprentissage automatique présentent généralement des préjugés contre les femmes et les personnes de couleur, et DALL E ne fait pas exception. Dans la documentation du projet sur GitHub, OpenAI reconnaît que :

Des modèles tels que DALL E 2 peuvent être utilisés pour créer une large gamme de contenus trompeurs et autrement préjudiciables. Le système hérite de divers biais des données de formation, et ses résultats renforcent parfois les stéréotypes sociaux.

La documentation vous avertit également qu’elle peut contenir du contenu visuel et écrit que certains pourraient trouver dérangeant ou offensant , y compris du contenu sexuel, haineux ou offensant, ou illustrant ou faisant référence à des stéréotypes. Mais ce n’est pas tout. L’utilisation de DALL E vous permet de :

Porter atteinte à des individus et à des groupes en renforçant les stéréotypes, en les détruisant ou en les diffamant, en leur fournissant un travail de qualité inégale ou en les soumettant à l’humiliation. Ce comportement reflète les erreurs présentes dans les données d’entraînement DALL-E 2 et la manière dont le modèle est entraîné.

DALL E et ses préjugés

Les exemples de la documentation Open AI montrent que l’inclusion de termes de recherche tels que « directeur » ne génère que des images d’hommes blancs en costume :

Alors que l’utilisation des mots « assistant personnel » encourage le système à ne créer que des images féminines :

Les scientifiques avertissent également que le système pourrait être utilisé à des fins de désinformation et de harcèlement, par exemple en créant des deepfakes ou des images falsifiées d’événements d’actualité.

Quel est le problème?

Au cœur du problème se trouve l’augmentation de l’utilisation des grands modèles de langage (LLM), qui sont des modèles contenant des centaines de milliards de paramètres. Cela permet aux ingénieurs de former des systèmes d’apprentissage automatique pour effectuer diverses tâches avec relativement peu de formation.

Les chercheurs en intelligence artificielle ont critiqué les grands modèles tels que GPT-3 (texte à saisie automatique basé sur les demandes reçues) pour produire des résultats qui renforcent les stéréotypes racistes et sexistes, arguant que la massivité de ces modèles est intrinsèquement risquée et rend les systèmes presque impossibles à contrôler.

OpenAI n’offre pas de solution à ces problèmes, précisant qu’elle en est aux premiers stades du test du biais DALL-E et que son analyse de risque doit être utilisée au préalable. Cependant, il souligne qu’il partage ses découvertes pour fournir une compréhension plus large de la technologie d’imagerie ainsi que des risques qui y sont associés, et pour fournir un contexte plus large.

Source : vice.com, twitter ; photo : github.com/openai/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *