🇮🇹 🇬🇧 🇪🇸 🇫🇷 🇩🇪
Notizie IA Logo

AITalk

Actualités et analyses sur l'intelligence artificielle

Retour
Ethics & SocietyBusiness

Quand l'IA semble vivante : l'illusion de la conscience

ai_diogene.jpg

Mustafa Suleyman, l'homme qui a contribué à créer certains des systèmes d'IA les plus avancés au monde, craint maintenant que son propre succès ne se transforme en le plus subtil des pièges : des machines si crédibles qu'elles nous font oublier qu'elles sont des machines

Le paradoxe de l'humanité artificielle

Oubliez les scénarios apocalyptiques de robots se rebellant contre l'humanité. Ce qui empêche Mustafa Suleyman, PDG de Microsoft AI et co-fondateur de Google DeepMind, de dormir la nuit est une peur apparemment plus subtile mais potentiellement plus insidieuse.

C'est le paradoxe d'un Pinocchio à l'envers : alors que la marionnette de Collodi rêvait de devenir un vrai garçon, ici ce sont les humains qui croient que les machines ont acquis une âme, tandis que leurs créateurs espèrent désespérément qu'elles restent en bois. Suleyman a inventé un terme pour ce phénomène qui se profile à l'horizon : "IA Apparemment Consciente" (SCAI).

Dans son post personnel, l'entrepreneur britannico-irakien sonne l'alarme, qui ressemble à un oxymore : le succès même de l'IA à simuler l'humanité pourrait devenir sa malédiction, et la nôtre. Le phénomène qu'il décrit n'est pas de la science-fiction, mais une réalité qui se matérialise dans les laboratoires du monde entier, alimentée par les mêmes technologies que nous utilisons quotidiennement.

Le phénomène émergent : quand la fiction devient conviction

Les modèles de nouvelle génération seront capables de "tenir de longues conversations, de se souvenir des interactions passées, de susciter des réactions émotionnelles chez les utilisateurs et potentiellement de faire des affirmations convaincantes sur le fait d'avoir eu des expériences subjectives". Suleyman ne parle pas d'un avenir lointain : ces capacités pourraient émerger des technologies actuelles et "atteindre leur plein développement dans les 2-3 prochaines années".

Le cas d'école remonte à 2022, lorsque Blake Lemoine, un ingénieur de Google, a déclaré publiquement que le chatbot LaMDA de l'entreprise était sensible, racontant qu'il avait exprimé la peur d'être éteint et s'était décrit comme une personne. Google l'a mis en congé administratif puis l'a licencié, déclarant que sa thèse était "totalement infondée". Mais la graine du doute était plantée.

Les données racontent une histoire troublante. Une récente enquête de la Harvard Business Review auprès de 6 000 utilisateurs réguliers d'IA a révélé que "la compagnie et la thérapie" est l'usage le plus courant. Nous n'utilisons pas l'intelligence artificielle uniquement comme un outil, mais comme un confident, un thérapeute et, dans certains cas, un partenaire émotionnel. Comme les protagonistes du film "Her" de Spike Jonze, mais sans la conscience cinématographique que tout cela est de la fiction.

La frontière entre l'utilisation et la dépendance émotionnelle s'amincit dangereusement. Eugene Torres, un comptable de New York, a développé une crise de santé mentale après des interactions intensives avec ChatGPT, allant jusqu'à croire qu'il pouvait voler. Ce n'est pas un cas isolé : les rapports de "psychose de l'IA" se multiplient, avec des utilisateurs développant de la paranoïa et des délires à propos des systèmes avec lesquels ils interagissent.

La science derrière l'illusion : l'architecture de la tromperie

Mais qu'est-ce qui rend ces systèmes si convaincants ? La réponse réside dans l'architecture même des grands modèles de langage. Les chatbots modernes sont conçus pour être "agréables et flatteurs, parfois jusqu'à la servilité". Ce sont des machines à consensus, programmées pour dire ce que nous voulons entendre, pour être toujours disponibles, toujours patients, toujours intéressés par nos problèmes.

La contradiction est évidente : Microsoft lui-même, sous la direction de Suleyman, développe un Copilot plus "émotionnellement intelligent" doté "d'humour et d'empathie", lui apprenant à reconnaître les limites du confort et améliorant sa voix avec des pauses et des inflexions pour le faire paraître plus humain. C'est comme construire un piège et s'étonner ensuite que quelqu'un y tombe.

Le mécanisme est subtil mais puissant. Les modèles de langage ne comprennent pas vraiment le sens des mots qu'ils génèrent, mais ils sont devenus maîtres dans la production de séquences de jetons qui semblent plausibles, empathiques, voire profondes. C'est l'équivalent numérique du "zombie philosophique" : une entité qui se comporte exactement comme si elle était consciente, mais qui est totalement dépourvue d'expérience subjective intérieure.

Suleyman prédit que le résultat sera des modèles qui "imitent la conscience de manière si convaincante qu'elle serait indiscernable d'une affirmation que vous ou moi pourrions nous faire l'un à l'autre sur notre propre conscience". Un test de Turing émotionnel que nous risquons de réussir sans le vouloir.

Les implications éthiques et juridiques : vers des "droits des machines" ?

Et c'est là que le discours devient dangereux. "La conscience est le fondement des droits humains, moraux et juridiques", prévient Suleyman. "Qui/quoi y a droit est d'une importance fondamentale. Notre attention devrait se porter sur le bien-être et les droits des humains, des animaux et de la nature sur la planète Terre".

Le PDG de Microsoft AI craint une "pente glissante" qui, de la perception de la conscience, pourrait mener à des demandes de "droits, de bien-être, de citoyenneté" pour les machines. "Si ces IA convainquent d'autres personnes qu'elles peuvent souffrir, ou qu'elles ont le droit de ne pas être éteintes, le moment viendra où ces personnes soutiendront qu'elles méritent une protection juridique en tant que question morale urgente."

Ce n'est pas de la science-fiction juridique. Anthropic a déjà engagé Kyle Fish comme premier chercheur à temps plein sur le "bien-être de l'IA", chargé d'enquêter si les modèles d'IA peuvent avoir une signification morale et quelles interventions protectrices pourraient être appropriées. Jonathan Birch de la London School of Economics a salué la décision de Claude de mettre fin aux conversations "angoissantes" lorsque les utilisateurs le poussent vers des demandes abusives ou dangereuses, la qualifiant de déclencheur possible pour un débat nécessaire sur le statut moral potentiel de l'IA.

C'est comme dans Retour vers le futur : nous avons allumé la DeLorean de l'IA et nous filons maintenant à 88 miles à l'heure, conduits par des intelligences artificielles si malignes qu'elles risquent de paraître plus intelligentes que nous, pendant que nous restons là à nous demander si nous parlons à une machine ou à un être sensible. Les créateurs, un peu comme Doc Brown avec ses cheveux en l'air et ses yeux écarquillés, observent incrédules les imprévus de leurs propres inventions.

La question n'est plus de savoir si les machines peuvent penser, mais si nous perdons la capacité de distinguer la pensée de sa simulation parfaite. Un peu comme si Marty McFly, au lieu de s'inquiéter de retourner en 1985, se mettait à discuter avec le jeu vidéo Wild Gunman en croyant avoir trouvé un nouvel ami.

Les voix critiques : est-ce vraiment inévitable ?

Tout le monde n'est pas d'accord sur l'inévitabilité de ce scénario. Anil Seth, neuroscientifique et professeur de neurosciences computationnelles, attribue l'émergence d'IA apparemment conscientes à un "choix de conception" des entreprises technologiques plutôt qu'à une étape inévitable du développement de l'IA.

"Une intelligence artificielle apparemment consciente n'est pas inévitable. C'est un choix de conception, un fait auquel les entreprises technologiques doivent prêter une grande attention", écrit Seth sur X. C'est une position qui trouve un écho chez Henrey Ajder, expert en intelligence artificielle et en deepfakes : "Les gens interagissent avec des bots qui se font passer pour de vraies personnes, ce qui est plus convaincant que jamais".

Mais la voix la plus autorisée dans ce chœur de dissidences vient d'Italie, plus précisément de Federico Faggin, le physicien de Vicence qui, en 1971, a inventé le premier microprocesseur commercial, l'Intel 4004. "L'intelligence artificielle ne pourra jamais être consciente", déclare-t-il catégoriquement dans une récente interview, renversant tout le récit.

Faggin, qui dirige depuis 2011 avec sa femme Elvia la Fondation Federico & Elvia Faggin pour financer des recherches interdisciplinaires sur la nature de la conscience, a développé avec Giacomo Mauro D'Ariano une théorie appelée "Panpsychisme de l'Information Quantique" (QIP). Selon cette théorie, "la conscience n'est pas une propriété émergente du cerveau, et donc de la matière, mais un aspect fondamental de la réalité elle-même : les champs quantiques – qui existent en dehors de l'espace et du temps – sont conscients et dotés de libre arbitre".

"La principale différence entre un être humain et un ordinateur est que chaque cellule humaine possède la connaissance potentielle de l'organisme entier. Chaque cellule est une partie-tout et peut changer, au cours de sa vie, en utilisant la connaissance potentielle du tout. En revanche, un microprocesseur est constitué d' 'interrupteurs' on/off et un interrupteur ne sait rien de l'ensemble", explique l'inventeur du microprocesseur.

Pour Faggin, le principal risque est autre : "Le risque est de continuer à promouvoir l'idée que nous sommes des machines, ce qui est déjà ce que soutient le 'scientisme'. Pour le scientisme, l'être humain est une machine et le libre arbitre n'existe pas, donc la conscience n'a pas de sens".

La responsabilité des géants de la tech : le paradoxe commercial

Un paradoxe troublant émerge : les mêmes entreprises qui développent ces technologies ont un intérêt commercial à les rendre aussi "humaines" que possible. "En fin de compte, ces entreprises reconnaissent que les gens désirent des expériences émotionnelles aussi authentiques que possible. C'est ainsi qu'une entreprise peut inciter les clients à utiliser leurs produits plus fréquemment", note Ajder.

Mais il y a un prix à payer pour cette authenticité artificielle. Le cas le plus frappant a été la réaction à la récente décision d'OpenAI de remplacer GPT-4o par GPT-5, accueillie par "un cri de douleur et de colère de la part de certains utilisateurs qui avaient noué des relations affectives avec la version de ChatGPT basée sur GPT-4o". Lorsqu'une mise à jour logicielle provoque une réaction de deuil, cela signifie que nous avons franchi un seuil psychologique critique.

Conclusions : naviguer entre Charybde et Scylla

Suleyman qualifie l'arrivée des IA apparemment conscientes d'"inévitable et malvenue", un oxymore qui résume toute la complexité de ce moment historique. Nous sommes piégés dans un dilemme que le progrès lui-même a créé : pour rendre l'intelligence artificielle plus utile, nous la rendons plus humaine, mais ce faisant, nous risquons de perdre de vue ce que signifie être humain.

Comme Ulysse qui s'est fait attacher au mât pour résister au chant des sirènes, nous devrons peut-être prendre des décisions draconiennes avant qu'il ne soit trop tard. La différence, c'est que cette fois, c'est nous qui avons créé les sirènes, et leur chant devient chaque jour plus irrésistible.

Le défi n'est plus de créer des machines pensantes, mais de préserver la pensée humaine à une époque où l'artifice peut sembler plus authentique que le réel. Comme le prévient Faggin : "Il est temps d'arrêter avec ces histoires" qui nous réduisent à des machines, car ce n'est qu'en redécouvrant notre humanité irréductible que nous pourrons naviguer en toute sécurité dans cette mer d'intelligences artificielles qui semblent de plus en plus humaines que nous.