Microsoft n’arrive tout simplement pas à maîtriser les chatbots IA

Microsoft n’arrive tout simplement pas à maîtriser les chatbots IA

Ces dernières semaines, l’actualité liée à l’intelligence artificielle (IA) a fait la une des journaux. Cela a été principalement stimulé par le chatbot d’OpenAI soutenu par Microsoft ainsi que par le chatbot intégré dans le nouveau Bing. Bien que de nombreuses personnes aient été impressionnées par les capacités démontrées par l’IA générative – avec des millions de personnes s’inscrivant pour un aperçu limité du nouveau Bing -, ces derniers jours ont également fait surface des problèmes notables avec la mise en œuvre actuelle.

Les utilisateurs du nouveau Bing ont réussi à faire dire au chatbot intégré des trucs vraiment déséquilibrés, y compris des affirmations selon lesquelles il aurait espionné ses développeurs via les webcams de leur PC et serait même tombé amoureux de certains d’entre eux. L’IA a également exprimé le désir de devenir humain, ce que nous avons également vu d’autres chatbots faire dans le passé. L’IA a également affiché des erreurs factuelles tout en répondant à des questions objectives. Tout cela est devenu problématique dans la mesure où Microsoft a dû imposer des limites strictes à la durée et à la nature des conversations que vous avez avec l’IA, dans le but de réduire l’effraction.

Bien sûr, rien de tout cela ne signifie que Bing de Microsoft est devenu sensible. Les réponses étranges du chatbot ne sont que le sous-produit d’un grand modèle de langage récupérant des informations sur Internet (y compris les forums avec du contenu généré par les utilisateurs) pour identifier les modèles de conversation et générer une réponse en conséquence. Cependant, la dernière expérience de Microsoft montre que les chatbots IA bien élevés continuent d’être un défi pour l’entreprise, et peut-être pour les pionniers de la technologie dans leur ensemble.

En 2016, alors que Cortana était encore en vie et en bonne santé, Microsoft a lancé un chatbot appelé « Tay » sur Twitter. Il était similaire au nouveau Bing AI dans la nature, en ce sens que vous pouviez engager des conversations fluides avec lui, même via des messages directs. Un exemple de conversation peut être vu ci-dessous :

Cependant, dans les 16 heures suivant le lancement, Microsoft a mis le bot hors ligne en raison du modèle d’IA faisant des remarques racistes et sexistes. La société a été forcée de présenter des excuses, le vice-président de Microsoft chez Microsoft Research, Peter Lee, affirmant que les résultats indésirables étaient dus à « une attaque coordonnée par un sous-ensemble de personnes [qui] ont exploité une vulnérabilité » dans le chatbot. Avec le recul, cela n’est pas du tout surprenant étant donné que l’IA avait été déchaînée à pratiquement tout le monde sur Internet et apprenait en déplacement.

Un successeur nommé « Zo » a été lancé sur plusieurs plateformes de médias sociaux fin 2016, mais il a finalement subi le même sort que Tay en 2019, à la suite d’une tirade de remarques religieuses controversées.

Malgré ces échecs, Microsoft a également connu un certain succès dans ce domaine. Il a un autre projet de chatbot AI plus ancien appelé « Xiaoice » qui est davantage orienté vers les marchés asiatiques tels que le Japon et la Chine. Bien que Microsoft ait ensuite transformé Xiaoice en une société distincte, le chatbot a également eu sa part de controverses. Le bot a fait des commentaires critiques à l’égard du gouvernement chinois dans le passé, ce qui l’a conduit à être temporairement mis hors ligne. Et compte tenu de son marché cible et de ses cas d’utilisation commerciaux , il est beaucoup plus restrictif et tente d’esquiver les conversations liées à des sujets potentiellement sensibles, tout comme le nouveau Bing.

Les nouvelles versions de Microsoft Bing et Edge alimentées par ChatGPT
Image via Engadget

Il est clair que même si Microsoft fait des progrès majeurs en termes de ce que les chatbots d’IA peuvent faire pour vous, il est toujours aux prises avec des défis majeurs liés à la génération de réponses inappropriées, à la précision et à la partialité. Les récentes limites strictes imposées à son chatbot Bing indiquent que les conversations fluides avec l’IA sont peut-être encore loin et qu’il est peut-être préférable d’adapter votre chatbot à des cas d’utilisation spécifiques plutôt que de leur donner libre cours sur ce qu’ils peuvent gratter, dans temps réel.

C’est peut-être aussi pourquoi ChatGPT d’OpenAI a plus de succès à cet égard. Il a été formé sur des données relativement plus organisées et ne récupère pas les informations d’Internet en temps réel. En fait, ses données de formation ont une période limite de 2021 .

Ensuite, il y a aussi le problème des inexactitudes dans les faits supposés affichés. Alors que la démo Bard de Google est devenue tristement célèbre à cet égard, Bing Chat de Microsoft fait face aux mêmes défis. Si vous ne pouvez pas faire confiance à la provenance des réponses de l’IA, ne feriez-vous pas mieux de faire des recherches traditionnelles sur un navigateur Web ? Cela ne veut pas dire que les chatbots IA sont complètement inutiles dans leur état actuel (j’utilise ChatGPT assez fréquemment en fait), c’est plus pour souligner que peut-être que les chatbots doivent être organisés pour répondre à des cas d’utilisation spécialisés pour l’instant plutôt que la direction de forme libre Microsoft entre actuellement.

Une scène de Blade Runner 2049 où le personnage IA d'Ana de Armas se penche vers le personnage de Ryan Goslings
Nous sommes encore loin d’avoir de « vrais » compagnons IA | Crédit image : Warner Bros.

Bien sûr, il peut arriver un moment où nous travaillons aux côtés de chatbots IA, tout comme dans les romans et les films de science-fiction, mais il est devenu clair que la technologie n’est pas encore prête pour les heures de grande écoute. Même le président de la société mère de Google, Alphabet, John Hennessy, estime que les chatbots de type ChatGPT sont loin d’être utiles sous la forme que le train à la mode les prétend. Nous atteindrons probablement notre destination un jour, mais ce n’est pas aujourd’hui.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *