L’intelligence artificielle intelligente LaMDA de Google ? Plus comme un « appât à clic pur », selon un expert en IA

L’intelligence artificielle intelligente LaMDA de Google ? Plus comme un « appât à clic pur », selon un expert en IA

En juin de cette année, Internet bourdonnait de discussions sur le fait que l’IA devenait sensible et l’arrivée imminente de SkyNet dans un avenir pas trop lointain. Cela est venu après que l’ingénieur Google Blake Lemoine a déclaré que le modèle de langage de l’entreprise pour les applications conversationnelles (LaMDA) était devenu conscient de lui-même et avait atteint la sensibilité. Cependant, Google n’avait rien de tout cela, et après cela, Lemoine a d’abord été mis en congé payé, puis finalement licencié.

Pour les personnes à la recherche d’un point de vue extérieur sur la situation qui n’implique pas Google ou son ancien employé Lemoine, le codirecteur de l’intelligence artificielle centrée sur l’homme (HAI) de l’Université de Stanford, John Etchemendy, est intervenu. Et comme Google, Etchemendi n’est pas impressionné par les affirmations de Lemoine, et il a qualifié les histoires d’intelligence artificielle de Google de « pur appât à clics ».

Il a dit:

La sensibilité est la capacité de ressentir le monde, d’éprouver des sentiments et des émotions et d’agir en réponse à ces sensations, sentiments et émotions.

LaMDA n’est pas intelligent pour la simple raison qu’il n’a pas de physiologie pour les sensations et les sentiments. Il s’agit d’un programme conçu pour générer des phrases en réponse à des invites de phrases.

Quand j’ai vu l’article dans le Washington Post, j’ai été déçu par le Washington Post même pour le fait qu’il ait été publié.

Ils l’ont publié parce qu’ils pourraient actuellement écrire ce titre sur « l’ingénieur Google » qui a fait cette affirmation absurde, et parce que la plupart de leurs lecteurs ne sont pas assez sophistiqués pour comprendre de quoi il s’agit. Appât à clic pur.

Richard Fikes, professeur émérite d’informatique à Stanford, convient que LaMDA essayait simplement de réagir comme un humain, pas de le devenir. Il a dit:

Vous pouvez considérer LaMDa comme un acteur ; il prendra la forme de tout ce que vous lui demanderez. [Lemoine] a été entraîné dans le rôle de LaMda, jouant un être sensible.

Par conséquent, beaucoup, y compris Fikes, pensent que Blake Lemoine a succombé à l’effet ELISA, qui est simplement la tendance à supposer inconsciemment que les ordinateurs se comportent comme des humains.

Source : Quotidien de Stanford.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *