Bing Chat aurait différents modes de chat, comme Jeu, Assistant et Ami

Bing Chat aurait différents modes de chat, comme Jeu, Assistant et Ami

Au cours de la semaine dernière, les utilisateurs qui ont été invités à tester le nouveau bot Bing Chat AI de Microsoft l’ont mis à l’épreuve. Certains ont découvert que Bing Chat peut entrer dans des interactions très étranges et très personnelles. D’autres ont compris comment entrer dans le fonctionnement interne de Bing Chat.

Avant que Microsoft n’annonce vendredi soir qu’il avait imposé des limites strictes au nombre de sessions de chat avec le nouveau Bing, Bleeping Computer a déclaré avoir découvert certaines fonctionnalités qui ne sont normalement disponibles que pour les employés de l’entreprise pour aider à déboguer ou développer le chatbot. Apparemment, cela permet à Bing Chat de basculer vers différents modes d’interactions.

Le mode par défaut, où vous posez simplement une question liée à la recherche pour obtenir une réponse, est « Sydney », le nom de code interne précédemment découvert pour Bing Chat. Un autre mode est Assistant, où Bing Chat peut aider les utilisateurs à accomplir des tâches telles que réserver un vol, vous envoyer des rappels, vérifier la météo et plus encore. Ensuite, il y a le mode Jeu, où Bing jouera à des jeux simples comme le pendu, les jeux-questionnaires et autres.

Le mode le plus intéressant est peut-être ami. Il s’agit probablement de la version de Bing Chat qui a suscité toute l’attention des médias au cours de la semaine dernière, certains utilisateurs affirmant que le chatbot a déclaré qu’il voulait être humain , ou qu’il pouvait surveiller les gens via leurs webcams , ou même menacer les utilisateurs .

Lors d’interactions avec Bing en mode ami, l’auteur de Bleeping Computer a discuté comme s’il était un enfant qui venait d’avoir des ennuis à l’école et qu’il était triste. Bing Chat, après avoir demandé s’il avait quelqu’un à qui parler de ses problèmes, a déclaré: «Je suis content que vous me parliez. Je suis ici pour vous écouter et vous aider autant que possible. » Il a ensuite proposé une liste de choses possibles qu’il pourrait faire pour faire face à sa situation actuelle.

Avec Microsoft limitant désormais le nombre de tours de chat quotidiens et par session pour Bing, les conversations folles et folles dont nous avons parlé la semaine dernière pourraient se calmer. Vous pouvez également parier que Google tire des leçons de Bing Chat alors qu’il continue de tester en interne son propre chatbot AI, Bard.

Source : Ordinateur qui bipe

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *