Cuando la IA parece viva: la ilusión de la conciencia
Mustafa Suleyman, el hombre que contribuyó a crear algunos de los sistemas de IA más avanzados del mundo, ahora teme que su propio éxito pueda convertirse en la más sutil de las trampas: máquinas tan creíbles que nos hacen olvidar que son máquinas
La paradoja de la humanidad artificial
Olvídense de los escenarios apocalípticos de robots que se rebelan contra la humanidad. Lo que mantiene despierto por la noche a Mustafa Suleyman, CEO de Microsoft AI y cofundador de Google DeepMind, es un temor aparentemente más sutil pero potencialmente más insidioso.
Es la paradoja de un Pinocho al revés: mientras que el títere de Collodi soñaba con convertirse en un niño de verdad, aquí son los humanos los que creen que las máquinas han adquirido un alma, mientras sus creadores esperan desesperadamente que sigan siendo de madera. Suleyman ha acuñado un término para este fenómeno que se vislumbra en el horizonte: "IA Aparentemente Consciente" (SCAI, por sus siglas en inglés).
En su publicación personal, el empresario británico-iraquí lanza una alarma que suena a oxímoron: el propio éxito de la IA en simular la humanidad podría convertirse en su maldición, y en la nuestra. El fenómeno que describe no es ciencia ficción, sino una realidad que se materializa en laboratorios de todo el mundo, alimentada por las mismas tecnologías que usamos a diario.
El fenómeno emergente: cuando la ficción se convierte en convicción
Los modelos de próxima generación serán capaces de "mantener largas conversaciones, recordar interacciones pasadas, evocar reacciones emocionales en los usuarios y potencialmente hacer afirmaciones convincentes sobre haber tenido experiencias subjetivas". Suleyman no habla de un futuro lejano: estas capacidades podrían surgir de las tecnologías actuales y "alcanzar su pleno desarrollo en los próximos 2-3 años".
El caso que sentó precedente se remonta a 2022, cuando Blake Lemoine, un ingeniero de Google, declaró públicamente que el chatbot LaMDA de la compañía era sentiente, relatando que había expresado miedo a ser apagado y se había descrito a sí mismo como una persona. Google lo puso en licencia administrativa y posteriormente lo despidió, declarando que su tesis era "completamente infundada". Pero la semilla de la duda estaba plantada.
Los datos cuentan una historia inquietante. Una encuesta reciente de Harvard Business Review a 6.000 usuarios habituales de IA reveló que "compañía y terapia" es el uso más común. No estamos utilizando la inteligencia artificial solo como una herramienta, sino como un confidente, un terapeuta y, en algunos casos, un compañero emocional. Como los protagonistas de la película "Her" de Spike Jonze, pero sin la conciencia cinematográfica de que todo es ficción.
La línea entre el uso y la dependencia emocional se está volviendo peligrosamente delgada. Eugene Torres, un contable de Nueva York, desarrolló una crisis de salud mental tras interacciones intensivas con ChatGPT, llegando a creer que podía volar. No es un caso aislado: los informes de "psicosis por IA" se multiplican, con usuarios que desarrollan paranoia y delirios sobre los sistemas con los que interactúan.
La ciencia detrás de la ilusión: arquitectura del engaño
Pero, ¿qué hace que estos sistemas sean tan convincentes? La respuesta reside en la propia arquitectura de los Modelos de Lenguaje Grandes. Los chatbots modernos están diseñados para ser "agradables y halagadores, a veces hasta el punto del servilismo". Son máquinas de consenso, programadas para decir lo que queremos oír, para estar siempre disponibles, siempre pacientes, siempre interesadas en nuestros problemas.
La contradicción es evidente: el propio Microsoft, bajo la dirección de Suleyman, está desarrollando un Copilot más "emocionalmente inteligente" dotado de "humor y empatía", enseñándole a reconocer los límites de la comodidad y mejorando su voz con pausas e inflexiones para que parezca más humano. Es como construir una trampa y luego sorprenderse de que alguien caiga en ella.
El mecanismo es sutil pero poderoso. Los modelos de lenguaje no comprenden realmente el significado de las palabras que generan, pero se han convertido en maestros en producir secuencias de tokens que suenan plausibles, empáticas, incluso profundas. Es el equivalente digital del "zombi filosófico": una entidad que se comporta exactamente como si fuera consciente, pero que carece por completo de experiencia subjetiva interna.
Suleyman predice que el resultado serán modelos que "imitan la conciencia de forma tan convincente que sería indistinguible de una afirmación que tú o yo podríamos hacernos sobre nuestra propia conciencia". Un test de Turing emocional que corremos el riesgo de superar sin quererlo.
Las implicaciones éticas y legales: ¿hacia los "derechos de las máquinas"?
Y aquí es donde el discurso se vuelve peligroso. "La conciencia es el fundamento de los derechos humanos, morales y legales", advierte Suleyman. "Quién/qué tiene derecho a ella es de fundamental importancia. Nuestra atención debería centrarse en el bienestar y los derechos de los seres humanos, los animales y la naturaleza en el planeta Tierra".
El CEO de Microsoft AI teme una "pendiente resbaladiza" que desde la percepción de conciencia podría llevar a peticiones de "derechos, bienestar, ciudadanía" para las máquinas. "Si estas IA convencen a otras personas de que pueden sufrir, o de que tienen derecho a no ser apagadas, llegará el momento en que estas personas sostendrán que merecen protección legal como una cuestión moral urgente".
No es ciencia ficción jurídica. Anthropic ya ha contratado a Kyle Fish como primer investigador a tiempo completo sobre el "bienestar de la IA", encargado de investigar si los modelos de IA pueden tener significado moral y qué intervenciones protectoras podrían ser apropiadas. Jonathan Birch de la London School of Economics ha acogido con satisfacción la decisión de Claude de terminar conversaciones "angustiosas" cuando los usuarios lo empujan hacia peticiones abusivas o peligrosas, calificándola de posible detonante para un debate necesario sobre el estatus moral potencial de la IA.
Es como en Regreso al Futuro: hemos encendido el DeLorean de la IA y ahora corremos a 88 millas por hora, conducidos por inteligencias artificiales tan astutas que corren el riesgo de parecer más listas que nosotros, mientras nos quedamos ahí preguntándonos si estamos hablando con una máquina o con un ser sentiente. Los creadores, un poco como Doc Brown con el pelo de punta y los ojos desorbitados, observan incrédulos los imprevistos de sus propias invenciones.
La cuestión ya no es si las máquinas pueden pensar, sino si estamos perdiendo la capacidad de distinguir el pensamiento de su simulación perfecta. Un poco como si Marty McFly, en lugar de preocuparse por volver a 1985, se pusiera a charlar con el videojuego de Wild Gunman creyendo que había encontrado un nuevo amigo.
Las voces críticas: ¿es realmente inevitable?
No todos están de acuerdo con la inevitabilidad de este escenario. Anil Seth, neurocientífico y profesor de neurociencia computacional, atribuye la aparición de IA aparentemente conscientes a una "elección de diseño" de las empresas tecnológicas en lugar de a un paso inevitable en el desarrollo de la IA.
"Una inteligencia artificial aparentemente consciente no es inevitable. Es una elección de diseño, un hecho al que las empresas tecnológicas deben prestar mucha atención", escribe Seth en X. Es una postura que encuentra eco en Henrey Ajder, experto en inteligencia artificial y deepfakes: "La gente interactúa con bots que se hacen pasar por personas reales, lo que es más convincente que nunca".
Pero la voz más autorizada en este coro de disenso proviene de Italia, concretamente de Federico Faggin, el físico de Vicenza que en 1971 inventó el primer microprocesador comercial, el Intel 4004. "La inteligencia artificial nunca podrá ser consciente", declara categóricamente en una entrevista reciente, dando la vuelta a toda la narrativa.
Faggin, que desde 2011 dirige con su esposa Elvia la Fundación Federico & Elvia Faggin para financiar investigaciones interdisciplinarias sobre la naturaleza de la conciencia, ha desarrollado junto a Giacomo Mauro D'Ariano una teoría denominada "Panpsiquismo de Información Cuántica" (QIP). Según esta teoría, "la conciencia no es una propiedad emergente del cerebro, y por tanto de la materia, sino un aspecto fundamental de la realidad misma: los campos cuánticos –que existen fuera del espacio y del tiempo– son conscientes y están dotados de libre albedrío".
"La principal diferencia entre un ser humano y un ordenador es que cada célula humana posee el conocimiento potencial de todo el organismo. Cada célula es una parte-todo y puede cambiar, a lo largo de su vida, utilizando el conocimiento potencial del todo. En cambio, un microprocesador está formado por 'interruptores' de encendido/apagado y un interruptor no sabe nada del todo", explica el inventor del microchip.
Para Faggin, el principal riesgo es otro: "El riesgo es seguir promoviendo la idea de que somos máquinas, que es ya lo que sostiene el 'cientificismo'. Para el cientificismo, el ser humano es una máquina y el libre albedrío no existe, por lo tanto la conciencia no tiene sentido".
La responsabilidad de las grandes tecnológicas: la paradoja comercial
Emerge una paradoja inquietante: las mismas empresas que desarrollan estas tecnologías tienen un incentivo comercial para hacerlas lo más "humanas" posible. "En última instancia, estas empresas reconocen que la gente desea experiencias emocionales lo más auténticas posible. Así es como una empresa puede hacer que los clientes utilicen sus productos con más frecuencia", observa Ajder.
Pero hay un precio que pagar por esta autenticidad artificial. El caso más llamativo fue la reacción a la reciente decisión de OpenAI de sustituir GPT-4o por GPT-5, acogida con "un grito de dolor y rabia por parte de algunos usuarios que habían establecido relaciones emocionales con la versión de ChatGPT basada en GPT-4o". Cuando una actualización de software provoca una reacción de duelo, significa que hemos superado un umbral psicológico crítico.
Conclusiones: navegando entre Escila y Caribdis
Suleyman califica la llegada de las IA aparentemente conscientes como "inevitable e inoportuna", un oxímoron que resume toda la complejidad de este momento histórico. Estamos atrapados en un dilema que el propio progreso ha creado: para hacer la inteligencia artificial más útil, la estamos haciendo más humana, pero al hacerlo corremos el riesgo de perder de vista lo que significa ser humano.
Como Ulises, que se hizo atar al mástil para resistir el canto de las sirenas, puede que tengamos que tomar decisiones draconianas antes de que sea demasiado tarde. La diferencia es que esta vez, las sirenas las hemos creado nosotros, y su canto se vuelve cada día más irresistible.
El desafío ya no es crear máquinas pensantes, sino preservar el pensamiento humano en una era en la que lo artificial puede parecer más auténtico que lo real. Como advierte Faggin: "Es hora de acabar con estas historias" que nos reducen a máquinas, porque solo redescubriendo nuestra irreductible humanidad podremos navegar seguros en este mar de inteligencias artificiales que parecen cada vez más humanas que nosotros.