Qu’est-ce que l’IA LaMDA de Google et pourquoi les ingénieurs de Google pensent-ils que cela a du sens ?

Qu’est-ce que l’IA LaMDA de Google et pourquoi les ingénieurs de Google pensent-ils que cela a du sens ?

L’ingénieur principal de Google a déclaré que l’intelligence artificielle de LaMDA est devenue intelligente. Que vous trouviez cela dérangeant ou excitant, c’est une affirmation très audacieuse, et peut-être difficile à prouver, même si c’était tout à fait vrai.

Qu’est-ce que LAMD ?

LaMDA est l’abréviation de Language Model for Dialog Application. En d’autres termes, il s’agit d’un modèle de langage d’apprentissage automatique spécialement conçu pour créer un dialogue naturel. Les techniques d’apprentissage automatique permettent aux ordinateurs de découvrir des modèles et des relations dans les données. Ainsi, par exemple, vous pouvez « entraîner » un algorithme d’apprentissage automatique comme GPT-3 (un autre système avancé) sur toutes les œuvres de Shakespeare, puis lui faire générer de nouveaux textes originaux qui se lisent comme Shakespeare.

Comme l’explique Sundar Pichai (PDG de Google) dans une interview accordée à Yahoo Finance , LaMDA est un système qui a la particularité d’être spécifiquement formé au dialogue. L’objectif est de permettre aux systèmes Google d’engager un dialogue humain ouvert avec les utilisateurs.

En d’autres termes, les personnes qui demandent des produits Google pour certaines choses ne doivent pas changer leur façon de penser ou leur discours. Ils peuvent interagir avec un système informatique de la même manière qu’avec une autre personne.

Sous le capot, tous les modèles d’apprentissage automatique modernes sont des modèles mathématiques et statistiques complexes. Ils génèrent des algorithmes basés sur les modèles sous-jacents qu’ils trouvent dans les données. Donnez-leur suffisamment de données de haute qualité, et ces algorithmes deviendront remarquablement efficaces pour faire des choses que seuls les humains ou d’autres êtres sensibles ont été capables de faire jusqu’à présent.

Pourquoi un ingénieur de Google pense-t-il que LaMDA est raisonnable ?

L’ingénieur en question est Blake Lemoine, qui a publié une interview  entre lui et LaMDA dans le cadre de son argumentaire sur les raisons pour lesquelles LaMDA pourrait être raisonnable. Lemoine a passé des mois à parler au logiciel, à l’interroger, à lui poser des questions difficiles et à avoir du mal à croire que ses réponses complexes et adéquates puissent être le produit d’autre chose qu’un être sensible.

Ce serait mieux si quelqu’un qui veut comprendre pourquoi Lemoine pense de cette façon lit les réponses de LaMDA pour comprendre pourquoi c’est une position si convaincante. Les réponses de LaMDA sont si humaines qu’elles ressemblent à l’IA assistante personnelle fictive de Spike Jonze’s Her , une histoire dans laquelle un humain développe une relation sérieuse avec une IA conversationnelle.

Que les affirmations de Lemoine à propos de LaMDA aient ou non du poids, il convient de noter que le but de la conception de LaMDA est de créer un dialogue ouvert naturel et crédible. Donc, dans ce sens, sa conviction indique que Google a remarquablement réussi à créer un dialogue crédible. Si un système d’intelligence artificielle devait convaincre une personne qu’elle est intelligente, ce sera très probablement un système spécialement conçu à cet effet.

Le problème est que les allégations de caractère raisonnable ne sont pas vraiment vérifiables (ou du moins pas réalisables ou éthiquement vérifiables) pour un certain nombre de raisons scientifiques et philosophiques. Pour comprendre pourquoi, nous devons brièvement considérer ce que « sentiment » signifie.

Qu’est-ce que la sensibilité ?

Le mot « sentiment » signifie essentiellement que quelque chose (un chat, une personne ou un tapis magique) a la capacité de ressentir. il a la même racine de mot que « sentimental » ou « sentiment ». Sentir ne signifie pas seulement que quelque chose a la capacité de ressentir. Votre thermostat n’est presque certainement pas sensible, malgré sa capacité à mesurer la température. Au contraire, la sensibilité est l’expérience subjective des sentiments, ce qui implique la présence du « sujet » en premier lieu.

Il est dangereux de s’enliser dans la sémantique ici, car il est probable que Lemoine utilise le mot « sentiment » de manière interchangeable avec des concepts distincts tels que « raison », « intelligence » et « conscience ». Ainsi, à titre d’argument, l’interprétation la plus indulgente ici est que Lemoine considère Lamda comme un être conscient de soi, capable de ressentir les choses, d’avoir des croyances et d’expérimenter les choses de la manière que nous attribuons normalement aux êtres vivants.

Dans un article supplémentaire , Lemoine discute de ce qu’il pense que LaMDA « veut » et « croit », ce qui renforce l’idée que le « sentiment » dans sa présentation signifie plus que sa définition stricte du dictionnaire.

Nous ne comprenons pas les sentiments et la conscience en premier lieu

Voici le problème : nous en savons relativement peu sur l’esprit, la conscience, l’intelligence et ce que cela signifie d’être un être doté de ces attributs. Ironiquement, la technologie d’apprentissage automatique peut éventuellement nous aider à percer certains des mystères de nos esprits et des cerveaux dans lesquels ils existent.

Alors que les philosophes et les scientifiques trient la « boîte noire » de la conscience , celle-ci semble toujours être le résultat de quelque chose de plus grand que la somme de ses parties. La conscience semble être une chose « émergente ». C’est un « fantôme » généré par l’interaction de nombreux sous-systèmes neuronaux différents, dont aucun ne semble être intelligent par lui-même.

De même, l’IA complexe, telle que le système de génération d’images DALL-E 2, consiste en des modèles d’apprentissage automatique plus simples qui interagissent les uns avec les autres pour créer le produit final. Le sujet de la complexité résultant de l’interaction de systèmes plus simples est courant dans le monde de l’IA, et bien que nous puissions très bien comprendre le fonctionnement de chaque sous-composant, les résultats finaux sont généralement complètement imprévisibles.

Pouvons-nous reconnaître l’intelligence dans l’IA ?

Si, pour les besoins de la discussion, l’IA était effectivement sensible au vrai sens du terme, serions-nous même capables de le dire ? LaMDA a été conçu pour imiter et prédire les modèles de dialogue humain, de sorte que le jeu est vraiment difficile lorsqu’il s’agit de déclencher des choses que les gens associent à l’intelligence humaine. Cependant, il nous a fallu beaucoup de temps pour considérer les primates non humains et les animaux tels que les dauphins, les poulpes et les éléphants comme sensibles, même s’ils sont pratiquement nos frères et sœurs.

L’IA intelligente peut être si étrangère que nous ne savons même pas que nous la regardons droit devant. Cela est d’autant plus probable que nous ignorons quelles sont les conditions de seuil pour l’émergence de l’intelligence. Il n’est pas difficile d’imaginer que la bonne combinaison de sous-systèmes de données et d’IA, mélangés de la bonne manière, puisse soudainement donner naissance à quelque chose que l’on pourrait appeler sensible, mais cela pourrait passer inaperçu car cela ne ressemble pas à quelque chose que nous pouvons comprendre. .

Si ça ressemble à un canard…

Le dernier gros problème avec les affirmations selon lesquelles les machines sont intelligentes est le même problème avec les affirmations selon lesquelles tout le reste est intelligent, y compris les humains. Philosophiquement parlant, vous ne savez pas si l’une des personnes à qui vous parlez est vraiment intelligente ou non. C’est le problème philosophique classique du zombie , étant une expérience de pensée sur des créatures hypothétiques qui sont complètement impossibles à distinguer des humains, sauf qu’elles manquent d’intelligence ou d’expérience consciente.

Cependant, comme l’a soutenu le célèbre test d’Alan Turing, peu importe si une IA pense et ressent « réellement ». L’important est qu’il peut imiter l’apparence de la pensée et du sentiment si bien que nous ne pouvons pas les distinguer. Selon la personne à qui vous demandez, LaMDA a déjà réussi le test de Turing , ce qui pourrait rendre sans objet les affirmations invérifiables de Lemoine.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *