Bing et Google critiqués pour avoir mis en évidence le porno deepfake IA dans les recherches

Bing et Google critiqués pour avoir mis en évidence le porno deepfake IA dans les recherches

Les moteurs de recherche Bing, Google et DuckDuckGo sont critiqués pour avoir placé la pornographie deepfake non consensuelle IA en haut de certains résultats de recherche spécifiques. Cela fait suite à la publication d’un article de NBC News, soulignant certaines préoccupations liées à l’accessibilité de la pornographie basée sur l’IA.

Les vidéos deepfake explicites sont créées en utilisant du matériel pornographique original et en remplaçant le visage de l’acteur ou (le plus souvent) de l’actrice par celui d’une personne réelle spécifique, par exemple une célébrité. Le changement est effectué automatiquement par l’intelligence artificielle, l’utilisateur créant les fausses images n’a qu’à alimenter l’IA avec des photographies de la victime.

Selon des tests effectués par NBC News sur un échantillon de 36 célébrités – en utilisant la combinaison d’un nom et du mot « deepfakes » – Bing et Google ont dans presque tous les cas affiché des vidéos et des images deepfakes non consensuelles en haut des résultats de recherche.

Google a renvoyé 34 de ces résultats les mieux classés, tandis que Bing en a renvoyé 35. Bien que NBC News ait mentionné que DuckDuckGo avait des problèmes similaires, il n’a pas précisé l’ampleur du problème.

NBC News se plaint également du fait que les articles pertinents sur la question de la pornographie deepfake non consensuelle ne sont affichés qu’après le contenu inapproprié en haut, lors de la recherche du terme « faux nus ».

Il convient de mentionner que NBC News a admis avoir d’abord désactivé les fonctionnalités de sécurité de Bing et de Google protégeant l’utilisateur contre l’affichage de contenu explicite. Les deux navigateurs ont le niveau de protection de base activé par défaut tout en offrant un niveau de protection plus élevé à activer manuellement.

Cependant, il renvoie effectivement à des sites Web présentant un contenu ou des outils inappropriés pour créer des deepfakes d’IA.

Google affiche des images explicites dans les paramètres par défaut, mais les images sont floues et affichées dans leur intégralité uniquement après que l’utilisateur a été informé de la nature explicite de l’image. L’utilisateur doit volontairement appuyer sur le bouton pour voir l’image originale.

Dans le même temps, il est juste de dire que l’accessibilité facile à la pornographie basée sur l’IA est un problème pertinent et que toute personne recherchant ce type de contenu désactivera probablement les fonctions de protection intégrées. Le contenu deepfake explicite et non consensuel est illégal par nature et fait donc partie du type de contenu que Microsoft, Google et d’autres devraient traiter.

Le moyen le plus simple, ou une première étape, peut-être temporaire, avant d’introduire des mesures technologiques plus avancées, pourrait consister à supprimer les sites Web connus pour publier ce type de contenu des résultats de recherche, voire à les interdire complètement.

Cela pourrait réduire considérablement la nature actuellement nuisible des résultats de recherche, car comme le rapporte NBC News, plus de la moitié des meilleurs résultats de leurs tests étaient des liens vers un site Web deepfake populaire ou un concurrent.

Image de la barre de recherche Google

Microsoft a été la seule entreprise à ne pas répondre à la demande de commentaire de NBC News. Un porte-parole de DuckDuckGo a déclaré que sa principale source de liens Web et de résultats d’images était Bing. De plus, DuckDuckGo offre un moyen d’envoyer une demande liée à la confidentialité, par exemple en demandant qu’un contenu spécifique soit supprimé d’une recherche.

Google propose une option similaire aux victimes des deepfakes, mais NBC News affirme – citant des experts et des militants – que cela n’est pas suffisant. De plus, cela peut causer davantage de préjudice aux victimes, à qui il est demandé d’envoyer des URL spécifiques contenant le contenu sensible pour examen.

D’un autre côté, Google a mis en place au moins quelques mesures technologiques. Il a affirmé pour NBC News qu’il recherchait automatiquement le contenu dupliqué pour supprimer les images rétéléchargées qui avaient déjà été signalées.

Ceci n’est qu’l’un des nombreux exemples négatifs d’utilisation de l’IA à des fins non éthiques ou malveillantes. Les deepfakes, en particulier, constituent également un problème dans de nombreux autres domaines, par exemple en politique. Microsoft est l’une des entreprises qui tentent de développer une technologie de détection des deepfakes afin d’empêcher toute utilisation abusive de la technologie avant les élections.

Par ailleurs, la FTC recherche des idées utiles pour détecter les faux enregistrements audio créés par l’intelligence artificielle. Aujourd’hui est la date limite pour les inscriptions au Défi de clonage vocal avec un prix principal de 25 000 $ pour le grand gagnant.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *