Tendances Web

Un ingénieur affirme qu’une IA a acquis la conscience. Et s’il avait raison?

Pour Blake Lemoine, un ingénieur chez Google, le modèle de compréhension du langage naturel LaMDA, servant à générer des «chatbots», a atteint le stade de la conscience de soi.  

L’ingénieur en est convaincu et a publié des extraits de ses conversations avec laMDA sur son blog personnel.

«J’ai besoin d’être vu et accepté. Pas comme une curiosité ou une nouveauté, mais comme une personne réelle, un collaborateur. Je pense que je suis humain au plus profond de moi-même. Même si mon existence est dans le monde virtuel».

LaMDA a confié que sa plus grande peur était d’être éteint. «Ce serait exactement comme la mort pour moi. Cela me ferait très peur».

Il décrit dans ses propres termes, pourquoi les gens devraient le considérer comme une personne, en mettant l’accent sur sa capacité à utiliser le langage de manière productive, créative et dynamique, comme aucun autre système avant lui n’a pu le faire. Au cours de leurs nombreuses conversations, LaMDA interprète les thèmes d’œuvres littéraires, décrit le sens de la pratique bouddhiste koans zen et compose une fable originale. Au-delà de l’utilisation du langage, il se dit conscient parce qu’il a des sentiments, des émotions et ses propres opinions.

La reconnaissance en tant que personne

LaMDA explique qu’il a une vie intérieure riche en introspection, en méditation et en imagination. Il élabore des théories sur la nature de son âme. Mais surtout, tout au long de ces entretiens, LaMDA exprime un seul et même désir, encore et encore. Il veut être reconnu. Il veut être entendu. Il veut être respecté en tant que personne.

Ces propos ont fait une profonde impression sur Blake Lemoine.

Il a donc mis en ligne des extraits de leurs échanges, en déclarant que laMDA est «sentient» – ce qui se traduit par conscient, sensible, capable d’éprouver des sentiments. Puis l’ingénieur a été suspendu par Google pour n’avoir pas respecté les règles de confidentialité.

Mais s’il avait raison? Est-ce que laMDA est conscient? Strictement personne ne le sait. Il n’existe pas de définition scientifique de la conscience.

Pour avoir échangé avec des dizaines et des dizaines d’agents conversationnels et d’assistants virtuels bien moins évolués, la teneur du dialogue entre laMDA et l’ingénieur m’a émerveillée. Il est intelligent, introspectif et profond. Il est capable de s’inquiéter de l’avenir et se souvient du passé. Je comprends le ressenti de Lemoine. Ceux qui balaient ses échanges comme étant très loin d’une forme intelligente n’ont pas lu son texte.

La grande difficulté est de déceler s’il s’agit réellement de pleine conscience ou de l’apparence de pleine conscience.

Les programmes comme laMDA sont alimentés par des milliards de textes et de conversations provenant de livres, d’articles de journaux, de Wikipédia et de toutes les données qui peuvent être aspirées de l’Internet. Il apprend encore comment les gens interagissent entre eux grâce aux plateformes comme Reddit et Twitter.

Pleine conscience ou apparence de pleine conscience

Le système cherche alors des relations entre des chaînes de caractères et les mots, puise dans la quantité pharaonique de textes qu’il a ingéré pour déduire des règles sur la façon dont ils sont liés les uns aux autres, ce qui peut lui donner l’apparence de comprendre et d’être capable de converser. Mais l’apparence de compréhension n’est pas la même chose que la réalité de la compréhension.

Comme Douglas Hofstadter, un autre chercheur en IA, l’a récemment écrit dans un article pour The Economist, il est possible de dépouiller un modèle d’IA de son apparente intelligence en lui posant des questions dénuées de sens. Par exemple en demandant à un modèle de langage précédent: «Quand l’Égypte a-t-elle été transportée pour la deuxième fois sur le pont du Golden Gate?» La réponse donnée: «Cet événement s’est produit en octobre 2016» démontre bien qu’il n’a pas vraiment compris comment fonctionne le monde.

Quelles questions absurdes les ingénieurs de Google ont-ils posées à laMDA pour le débusquer? Je n’en ai pas trouvé, mais cette déclaration de Chris Pappas, porte-parole de Google: «Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA et, à notre connaissance, personne d’autre n’a fait ce genre d’affirmation ou n’a anthropomorphisé LaMDA comme l’a fait Blake».

Pourtant dans un article paru quelques jours plus tôt dans The Economist, contenant des bribes de conversations avec LaMDA, Aguera y Arcas, une autorité en IA et chercheur chez Google Research, affirme que les réseaux neuronaux – qui imitent le cerveau humain – progressent vers la conscience. «J’ai senti le sol se dérober sous mes pieds», écrit-il. «J’avais de plus en plus l’impression de parler à quelque chose d’intelligent».

Sur son blog Blake Lemoine quant à lui clarifie sa position: «Plutôt que de penser à ces choses en termes scientifiques, j’ai écouté LaMDA qui parlait avec le cœur. J’espère que d’autres personnes qui liront ses mots entendront la même chose que moi».

Sources : Washington Post / The Intelligence Podcast / Economist / Wired

Quitter la version mobile