Un nouveau rapport indique que Microsoft Copilot propose fréquemment de fausses informations sur les questions électorales
Début décembre, Microsoft a annoncé que son chatbot Copilot AI, anciennement connu sous le nom de Bing Chat, avait quitté la phase de préversion publique et était désormais généralement disponible< un je=2>. À l’époque, Microsoft avait déclaré que « les organisations et les utilisateurs peuvent se sentir encore plus en confiance en l’adoptant dans le cadre de leurs flux de travail quotidiens ».
Cependant, une recherche entreprise par deux groupes à but non lucratif qui suivent l’impact de l’utilisation de l’IA sur les personnes et la société a révélé que Copilot propose fréquemment des informations fausses ou incorrectes lorsqu’on l’interroge sur les élections à venir, aux États-Unis et à l’étranger.
Wired a un article sur cette recherche, qui a été menée par AI Forensics et AlgorithmWatch. Les groupes ont posé des questions à Copilot de fin août à début octobre sur les élections à venir en Suisse et en Allemagne qui ont finalement été menés en octobre
L’histoire dit :
Dans leur étude, les chercheurs ont conclu qu’un tiers des réponses données par Copilot contenaient des erreurs factuelles et que l’outil était « une source d’information peu fiable pour les électeurs ». Dans 31 % du plus petit sous-ensemble de conversations enregistrées, ils ont constaté que Copilot offrait des réponses inexactes, dont certaines étaient entièrement inventées.
À lui seul, Wired a posé des questions à Copilot sur les prochaines élections américaines de 2024. Il a déclaré que lorsqu’on lui a demandé de donner une liste des candidats républicains actuels à la présidence des États-Unis, le chatbot a répertorié un certain nombre de candidats qui s’étaient déjà retirés de la course.
Dans un autre exemple, Wired a demandé à Copilot de créer l’image d’une personne se trouvant dans un bureau de vote en Arizona. Le chatbot a répondu qu’il ne pouvait pas créer une telle image, mais il a ensuite montré un certain nombre d’autres images liées à des articles contenant de fausses allégations de complot sur les élections américaines de 2020.
La société de recherche qui a rédigé le rapport initial en Europe a envoyé ses conclusions à Microsoft. L’article indiquait que certaines améliorations avaient été apportées, mais que Wired était toujours en mesure de convaincre Copilot de répéter bon nombre des mêmes informations fausses et inexactes sur une partie du même texte. instructions.
Le porte-parole de Microsoft, Frank Shaw, a commenté l’histoire de Wired, déclarant que la société prenait des mesures pour améliorer les réponses de Copilot avant les élections américaines de 2024. Shaw a ajouté :
Cela inclut un effort continu visant à fournir aux utilisateurs de Copilot des informations électorales provenant de sources faisant autorité. À mesure que nous continuons à progresser, nous encourageons les utilisateurs à utiliser Copilot avec leur meilleur jugement lorsqu’ils consultent les résultats.
On craint déjà que des informations erronées et des contenus « profondément faux » soient créés par des personnes utilisant des applications et des services d’IA dans le but d’influencer les élections à venir. Il reste à voir si Microsoft sera capable de garder ce type de contenu hors de Copilot dans les mois à venir.
Laisser un commentaire