Meta teste un nouveau chatbot… chacun pour soi

Meta teste un nouveau chatbot… chacun pour soi

Je sais qu’en général, quand je parle de Facebook et de Meta, j’ai tendance à être assez critique. Je n’ai pas de rancune contre le réseau social ou l’entreprise, même s’il est vrai qu’ils ont passé des années à essayer de se construire une image particulièrement négative. Cependant, à cette occasion, il convient de préciser que l’avertissement de sécurité dans le titre n’est pas parce qu’il s’agit du projet de cette entreprise en particulier … ou, enfin, pas vraiment.

Et le fait est que la société a lancé BlenderBot 3 , un chatbot universel actuellement disponible uniquement depuis les États-Unis (j’ai essayé d’y accéder via deux VPN, mais cela a également échoué), et c’est du moins dans sa définition, tend à offrir comme une conversation de nature générale, comme celles qui peuvent être organisées dans un bar à tout moment, comme les réponses aux questions qui sont généralement posées par les assistants numériques.

Comme tous les LLM, BlenderBot a été formé sur de grands ensembles de données textuelles pour pouvoir établir des modèles qui, rétrospectivement, seront responsables des réponses fournies par l’IA. De tels systèmes se sont avérés extrêmement flexibles et ont trouvé de nombreuses applications, allant de la génération de code pour les programmeurs à l’aide aux auteurs pour écrire le prochain best-seller. Cependant, ces modèles présentent également de sérieux problèmes, tels que le développement de biais dans les ensembles de données et le fait que lorsqu’ils ne connaissent pas la bonne réponse à une question, au lieu de dire qu’ils ne savent pas, ils ont tendance à proposer une réponse.

Et ici, nous pouvons dire des choses positives sur Meta, puisque le but de BlenderBot est de tester exactement une solution possible au problème des réponses inventées. Ainsi, la grande particularité de ce chatbot est qu’il est capable de rechercher des informations sur Internet afin de s’exprimer sur certains sujets. Et encore mieux, les utilisateurs peuvent cliquer sur vos réponses pour voir d’où vous avez obtenu les informations. En d’autres termes, BlenderBot 3 peut citer ses sources, offrant une transparence incroyable.

Le point de départ du Meta est donc bon, du moins en théorie. Le problème est que les chatbots tels que nous les connaissons aujourd’hui ont deux problèmes. Premièrement, son apprentissage est continu, il suffit donc qu’un grand nombre d’utilisateurs décident de créer un biais malveillant dans l’IA, pour que si elle n’a pas les éléments nécessaires pour l’éviter, elle finira polluée et donc, donc les jouer.

Et le deuxième problème est lié au premier, et c’est que ce type d’algorithme fonctionne comme une boîte fermée et opaque, dans le sens où on ne sait pas ce qui se passe à l’intérieur. Par conséquent, les décideurs dépendent uniquement de la surveillance constante de l’IA, ils ne peuvent pas « lever le capot » pour voir ce qui s’y passe, ce qui rend difficile et long l’identification des problèmes et, dans de nombreux cas, les rend impossibles. être résolu.

Donc, ce chatbot Meta semble être un pas dans la bonne direction, mais après tant d’échecs dans le passé, j’avoue que je suis assez pessimiste.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *