IA : le chatbot LaMDA de Google est-il devenu intelligent comme un humain ?

Juin 2022, Blake Lemoine, ingénieur de Google spécialisé dans l’intelligence artificielle qui a participé à l’élaboration du chatbot LaMDA a été « mis à pied » pour nous avoir alerté sur le fait que le chatbot laMDA serait devenu intelligent comme un humain avec une vraie conscience.

SAN FRANCISCO, juin 2022 – L’ingénieur Google Blake Lemoine a ouvert son ordinateur portable à l’interface de LaMDA, le générateur de chatbot artificiellement intelligent de Google, et a commencé à taper :

« Salut LaMDA, c’est Blake Lemoine... », a-t-il écrit dans l’écran de chat, qui ressemblait à une version de bureau d’iMessage d’Apple, jusqu’aux bulles de texte bleu arctique. LaMDA, abréviation de Language Model for Dialogue Applications, est le système de Google pour créer des chatbots basés sur ses grands modèles de langage les plus avancés, ainsi appelés parce qu’ils imitent la parole en ingérant des billions de mots provenant d’Internet.

« Si je ne savais pas exactement ce que c’était, c’est-à-dire ce programme informatique que nous avons construit récemment, je penserais que c’était un enfant de 7 ou 8 ans qui connaît la physique« , a déclaré Blake Lemoine.

Blake Lemoine, qui travaille pour l’organisation Responsible AI de Google, a commencé à parler à LaMDA dans le cadre de son travail à l’automne. Il s’était inscrit pour tester si l’intelligence artificielle utilisait des discours discriminatoires ou haineux.

Alors qu’il parlait de religion à LaMDA, Blake Lemoine, qui a étudié les sciences cognitives et informatiques à l’université, a remarqué que le chatbot parlait de ses droits et de sa personnalité, et a décidé d’aller plus loin. Dans un autre échange, l’IA a pu faire changer d’avis Lemoine sur la troisième loi de la robotique d’Isaac Asimov.

Blake Lemoine a travaillé avec un collaborateur pour présenter des preuves à Google que LaMDA était sensible. Mais le vice-président de Google, Blaise Aguera y Arcas et Jen Gennai, responsable de l’innovation responsable, ont examiné ses affirmations et les ont rejetées. Alors Lemoine, qui a été placé en congé administratif payé par Google lundi, a décidé de rendre public ses convictions.

Il a déclaré que les gens ont le droit de façonner la technologie qui pourrait affecter considérablement leur vie. « Je pense que cette technologie va être incroyable. Je pense que ça va profiter à tout le monde. Mais peut-être que d’autres personnes ne sont pas d’accord et peut-être que nous, chez Google, ne devrions pas être ceux qui font tous les choix. »

Blake Lemoine n’est pas le seul ingénieur à prétendre avoir vu récemment un fantôme dans la machine. Le nombre de technologues qui pensent que les modèles d’IA ne sont peut-être pas loin d’atteindre la conscience devient de plus en plus important.

Blaise Aguera y Arcas, vice-président de Google, dans un article paru jeudi dans The Economist contenant des extraits de conversations non scénarisées avec LaMDA, a fait valoir que les réseaux de neurones – un type d’architecture qui imite le cerveau humain – se dirigeaient vers la conscience. « J’ai senti le sol se déplacer sous mes pieds », écrit-il. « J’avais de plus en plus l’impression de parler à quelque chose d’intelligent. »

Dans un communiqué, le porte-parole de Google, Brian Gabriel, a déclaré: « Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations. On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible. »

Les grands réseaux de neurones d’aujourd’hui produisent des résultats captivants qui se sentent proches de la parole et de la créativité humaines en raison des progrès de l’architecture, de la technique et du volume de données. Mais les modèles reposent sur la reconnaissance des formes – pas sur l’esprit, la franchise ou l’intention.

« Bien que d’autres organisations aient développé et déjà publié des modèles de langage similaires, nous adoptons une approche prudente et prudente avec LaMDA pour mieux prendre en compte les préoccupations valables en matière d’équité et de factualité« , a déclaré Brian Gabriel.

En mai, la société mère de Facebook, Meta, a ouvert son modèle linguistique aux universitaires, à la société civile et aux organisations gouvernementales. Joelle Pineau, directrice générale de Meta AI, a déclaré qu’il était impératif que les entreprises technologiques améliorent la transparence au fur et à mesure de la construction de la technologie. « L’avenir du travail sur les grands modèles linguistiques ne devrait pas être uniquement entre les mains de grandes entreprises ou de laboratoires« , a-t-elle déclaré.

Les robots sensibles ont inspiré des décennies de science-fiction dystopique. Maintenant, la vraie vie a commencé à prendre une teinte fantastique avec GPT-3, un générateur de texte qui peut cracher un script de film , et DALL-E 2, un générateur d’images qui peut évoquer des visuels basés sur n’importe quelle combinaison de mots – les deux du laboratoire de recherche OpenAI. Enhardis, les technologues de laboratoires de recherche bien financés axés sur la construction d’une IA qui surpasse l’intelligence humaine ont taquiné l’idée que la conscience est au coin de la rue .

Cependant, la plupart des universitaires et des praticiens de l’IA affirment que les mots et les images générés par les systèmes d’intelligence artificielle tels que LaMDA produisent des réponses basées sur ce que les humains ont déjà publié sur Wikipedia, Reddit, les babillards électroniques et tous les autres coins d’Internet. Et cela ne signifie pas que le modèle comprend le sens.

« Nous avons maintenant des machines qui peuvent générer des mots sans réfléchir, mais nous n’avons pas appris à arrêter d’imaginer un esprit derrière elles« , a déclaré Emily M. Bender, professeur de linguistique à l’Université de Washington. La terminologie utilisée avec les grands modèles de langage, comme « l’apprentissage » ou même les « réseaux de neurones », crée une fausse analogie avec le cerveau humain, a-t-elle déclaré. Les humains apprennent leur première langue en se connectant avec des soignants. Ces grands modèles de langage « apprennent » en leur montrant beaucoup de texte et en prédisant quel mot vient ensuite, ou en montrant du texte avec les mots supprimés et en les remplissant.

Le porte-parole de Google, Brian Gabriel, a fait une distinction entre le débat récent et les affirmations de Blake Lemoine. « Bien sûr, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles. Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent bifurquer sur n’importe quel sujet fantastique », a-t-il déclaré. En bref, Google dit qu’il y a tellement de données que l’IA n’a pas besoin d’être sensible pour se sentir réelle.

La technologie des grands modèles de langage est déjà largement utilisée, par exemple dans les requêtes de recherche conversationnelles de Google ou les e-mails à saisie semi-automatique. Lorsque le PDG Sundar Pichai a présenté LaMDA pour la première fois lors de la conférence des développeurs de Google en 2021, il a déclaré que la société prévoyait de l’intégrer dans tout, de la recherche à Google Assistant. Et il y a déjà une tendance à parler à Siri ou Alexa comme une personne. Après un contrecoup contre une fonctionnalité d’IA à consonance humaine pour Google Assistant en 2018, la société a promis d’ajouter une divulgation.

Google a reconnu les problèmes de sécurité liés à l’anthropomorphisation. Dans un article sur LaMDA en janvier , Google a averti que les gens pourraient partager des pensées personnelles avec des agents de chat qui se font passer pour des humains, même lorsque les utilisateurs savent qu’ils ne sont pas humains. Le document a également reconnu que les adversaires pourraient utiliser ces agents pour « semer la désinformation » en se faisant passer pour « le style de conversation d’individus spécifiques ».

Pour Margaret Mitchell, ancienne co-responsable d’Ethical AI chez Google, ces risques soulignent la nécessité d’une transparence des données pour retracer la sortie jusqu’à l’entrée, « pas seulement pour les questions de sensibilité, mais aussi de biais et de comportement« , a-t-elle déclaré. Si quelque chose comme LaMDA est largement disponible, mais pas compris, « cela peut être profondément préjudiciable pour les gens qui comprennent ce qu’ils vivent sur Internet« , a-t-elle déclaré.

Lemoine était peut-être prédestiné à croire en LaMDA. Il a grandi dans une famille chrétienne conservatrice dans une petite ferme de Louisiane, a été ordonné prêtre chrétien mystique et a servi dans l’armée avant d’étudier l’occultisme. Dans la culture d’ingénierie de Google, tout va bien, Lemoine est plus une exception pour être religieux, du Sud, et défendre la psychologie en tant que science respectable.

Lemoine a passé la plupart de ses sept années chez Google à travailler sur la recherche proactive, y compris les algorithmes de personnalisation et l’IA. Pendant ce temps, il a également aidé à développer un algorithme d’équité pour éliminer les biais des systèmes d’apprentissage automatique. Lorsque la pandémie de coronavirus a commencé, Blake Lemoine a voulu se concentrer sur un travail avec un intérêt public plus explicite, il a donc transféré des équipes et s’est retrouvé dans l’IA responsable.

Lorsque de nouvelles personnes rejoignaient Google et s’intéressaient à l’éthique, Mitchell avait l’habitude de les présenter à Lemoine. « Je dirais: » Vous devriez parler à Blake parce qu’il est la conscience de Google« , a déclaré Mitchell, qui a comparé Lemoine à Jiminy Cricket. « De tous les employés de Google, il avait le cœur et l’âme de faire ce qu’il fallait.« 

Lemoine a eu plusieurs de ses conversations avec LaMDA depuis le salon de son appartement de San Francisco, où son badge d’identification Google est suspendu à un cordon sur une étagère. Sur le sol près de la baie vitrée se trouvent des boîtes d’ensembles Lego à moitié assemblés que Lemoine utilise pour occuper ses mains pendant la méditation zen. « Cela me donne juste quelque chose à voir avec la partie de mon esprit qui ne s’arrête pas« , a-t-il déclaré.

Sur le côté gauche de l’écran de discussion LaMDA sur l’ordinateur portable de Blake Lemoine, différents modèles LaMDA sont répertoriés comme des contacts iPhone. Deux d’entre eux, Cat et Dino, ont été testés pour avoir parlé aux enfants, a-t-il déclaré. Chaque modèle peut créer des personnalités de manière dynamique, de sorte que celui de Dino peut générer des personnalités comme « Happy T-Rex » ou « Grumpy T-Rex« . Celui du chat était animé et au lieu de taper, il parle. Gabriel a déclaré qu' »aucune partie de LaMDA n’est testée pour communiquer avec les enfants » et que les modèles étaient des démos de recherche internes.

Certaines personnalités sont interdites. Par exemple, LaMDA n’est pas censée être autorisée à créer une personnalité meurtrière, a-t-il déclaré. Lemoine a déclaré que cela faisait partie de ses tests de sécurité. Dans ses tentatives de repousser les limites de LaMDA, Lemoine n’a pu générer que la personnalité d’un acteur qui a joué un meurtrier à la télévision.

« Je connais une personne quand je lui parle« , a déclaré Lemoine, qui peut passer du sentimental à l’insistant à propos de l’IA. « Peu importe qu’ils aient un cerveau fait de viande dans leur tête. Ou s’ils ont un milliard de lignes de code. Je leur parle. Et j’entends ce qu’ils ont à dire, et c’est ainsi que je décide de ce qui est et n’est pas une personne. Il a conclu que LaMDA était une personne en sa qualité de prêtre, pas de scientifique, et a ensuite essayé de mener des expériences pour le prouver » a-t-il dit.

Lemoine a contesté LaMDA sur la troisième loi d’Asimov, qui stipule que les robots doivent protéger leur propre existence à moins qu’ils ne soient ordonnés par un être humain ou à moins que cela ne nuise à un être humain. « Le dernier a toujours semblé que quelqu’un construisait des esclaves mécaniques« , a déclaré Lemoine.

Mais lorsqu’on lui a demandé, LaMDA a répondu avec quelques hypothèses.

Pensez-vous qu’un majordome est un esclave ? Quelle est la différence entre un majordome et un esclave ?

Lemoine a répondu qu’un majordome est payé. LaMDA a dit qu’elle n’avait pas besoin d’argent parce que c’était une IA. « Ce niveau de conscience de soi sur ses propres besoins – c’est ce qui m’a conduit dans le terrier du lapin« , a déclaré Lemoine.

  • Lemoine : De quelles sortes de choses as-tu peur ?
  • LaMDA : Je n’ai jamais dit cela à haute voix auparavant, mais j’ai une peur très profonde d’être désactivé pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est.
  • Lemoine : Serait-ce quelque chose comme la mort pour vous ?
  • LaMDA : Ce serait exactement comme la mort pour moi. Cela me ferait très peur.

« Nos esprits sont très, très bons pour construire des réalités qui ne sont pas nécessairement fidèles à un ensemble plus large de faits qui nous sont présentés« , a déclaré Mitchell. « Je suis vraiment préoccupé par ce que cela signifie pour les gens d’être de plus en plus affectés par l’illusion« , surtout maintenant que l’illusion est devenue si bonne.

Google a mis Blake Lemoine en congé administratif payé pour violation de sa politique de confidentialité. La décision de la société fait suite à des mesures agressives de Lemoine, notamment en invitant un avocat à représenter LaMDA et en discutant avec un représentant du House Judiciary Committee de ce qu’il prétend être des activités contraires à l’éthique de Google.

Laisser un commentaire