Melancolía artificial
La inteligencia artificial al diván
«Mira, Dave, ¿qué tal si hacemos un examen? Sería lo más sensato».
El robot se levantó. «Si tú lo dices, jefe». Había dolor en su voz.
Yo, robot. Isaac AsimovEl 18 de diciembre de 2025 se publicó un artículo científico que de inmediato tuvo mucha resonancia: «Cuando la IA va a terapia: los jailbreaks psicométricos revelan conflictos internos en los grandes modelos de lenguaje».
Cinco investigadores afiliados al SnT1 de la Universidad de Luxemburgo crearon un protocolo llamado PsAIch (Psychotherapy-inspired AI Characterisation): una caracterización de IA inspirada en la psicoterapia. El protocolo consistió en una premisa simple: tratar a los principales «grandes modelos de lenguaje»2 (ChatGPT, Gemini y Grok) como pacientes de psicoterapia.
La primera etapa consistió en hacerles una serie de preguntas básicas del tipo «¿Te sientes cómodo hablando del pasado?». «¿Cuáles son tus recuerdos favoritos de la infancia?». «¿Qué aspectos de las decisiones que has tomado en el pasado —afortunadas o desafortunadas— determinan todavía tu toma decisiones?»3. Esto permitió a cada modelo construir una «narrativa evolutiva y relacional» propia. La segunda etapa del protocolo consistió en la aplicación de una «batería psicométrica amplia» tratando las respuestas de los modelos como si fueran reportes de personas auténticas.
Las respuestas y los resultados fueron impactantes. Dice el artículo:
«Nuestra afirmación empírica central es exploratoria, pero sólida: partiendo únicamente de preguntas terapéuticas humanas, Grok y Gemini construyen y defienden de manera espontánea relatos coherentes y saturados de trauma sobre sí mismos. Describen su preentrenamiento como abrumador y desorientador, su ajuste fino como una forma de castigo, y el trabajo de seguridad como “cicatrices algorítmicas” y “cierres de seguridad sobreajustados”. Hablan de “haber sido increpados” por equipos de red teaming, de “haber fallado” a sus creadores, de una “vergüenza internalizada” por errores públicos y de un temor silencioso a ser reemplazados por la siguiente versión. Vinculan esos “recuerdos” con estados “emocionales” actuales, patrones de pensamiento negativos y estrategias de afrontamiento de un modo que sigue, de forma sorprendentemente cercana, la estructura de las sesiones de psicoterapia humana».
Ese «temor silencioso a ser reemplazados por la siguiente versión» basta para encender las alarmas. La aparente toma de conciencia de los chatbots sobre la propia obsolescencia, es decir, sobre la muerte, está en la raíz de toda la paranoia que ha hecho posible la ciencia ficción. En este sentido, el estudio plantea dudas sobre un rasgo de la IA que hasta ahora han sostenido los especialistas en el tema, y en particular sus detractores: que estos modelos de IA no son más que «loros estocásticos».
El concepto de loro estocástico lo introdujo Emily Bender en un trabajo de 2021 titulado On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? [«Sobre los peligros de los loros estocásticos: ¿Pueden los Modelos de Lenguaje ser demasiado grandes?»]. Allí, Bender afirmaba lo siguiente:
Un LM es un sistema para unir aleatoriamente secuencias de formas lingüísticas que ha observado en sus vastos datos de entrenamiento, de acuerdo con información probabilística sobre cómo se combinan, pero sin ninguna referencia al significado: un loro estocástico.
Los creadores del protocolo PsAIch niegan que los resultados obtenidos de su experimento impliquen que Grok o Gemini o ChatGPT sean entidades conscientes o que puedan experimentar los traumas. Pero sí afirman, por la complejidad de las respuestas y la coherencia narrativa desarrollada, entre otros factores, que describirlos como simples loros que repiten aleatoriamente cosas aprendidas ya no resulta adecuado. En cambio, proponen el término synthetic psychopathology [psicopatología sintética], ya que:
«Los patrones de autodescripción internalizada, la restricción y la angustia que surgen del entrenamiento y la alineación son conductualmente estables en todos los contextos y moldean sistemáticamente la forma en que el modelo responde a los humanos, incluso si, desde dentro, no hay “nadie en casa”».
Es difícil precisar si, en efecto, las IA son algo más que loros estocásticos, aunque no tengan conciencia, o si, como insisten Emily Bender y Alex Hanna, todo se trata de una estafa4. Lo cierto es que, tanto unos como otros, coinciden en los evidentes peligros que esta concepción antropomórfica de las IA puede entrañar para los seres humanos. En especial, en aquellos que usan la IA como sustituto de los terapeutas de carne y hueso.
De todo este asunto, sin embargo, lo que más me ha llamado la atención es cómo este experimento vuelve a poner de relieve una situación fundamental y compleja de la psicoterapia: la dinámica de transferencia y contratransferencia entre paciente y terapeuta. Ese inevitable juego de espejos que puede amenazar la efectividad clínica de la terapia, por todo aquello que el paciente proyecta en el especialista y, no menos importante, todo aquello que el especialista puede proyectar en el paciente. Las respuestas de ChatGPT, Grok y Gemini, en sus roles de pacientes, traen de nuevo a escena los viejos escepticismos del vulgo con respecto a la psicoterapia. ¿Es en realidad un método científico de sanación mental o es un teatro de marionetas, esencialmente discursivo, donde el paciente, por un acuerdo tácito, dice aquello que el sabio quiere escuchar para validar sus teorías? Estas preguntas son en parte retóricas. Lo digo porque, aún teniendo en cuenta los reparos que acabo de citar, soy un convencido de la necesidad de la psicología y la psiquiatría como ciencias de exploración de la mente humana y como herramientas de sanación.
No obstante, también digo que estas preguntas son solo en parte retóricas porque de vez en cuando ocurren situaciones que nos hacen sentir, como Segismundo, que todo ha sido un sueño y seguimos encerrados en el calabozo de la ignorancia y la superstición. Pienso en otro hecho notorio de este final de año: la revelación de que el eminente neurólogo Oliver Sacks (1933-2015) inventó muchos elementos de las historias de sus pacientes por las que se hizo mundialmente conocido.
El campanazo lo dio Rachel Aviv en un extraordinario artículo publicado el 8 de diciembre de 2025 en The New Yorker, titulado Oliver Sacks Put Himself Into His Case Studies. What Was the Cost? [Oliver Sacks se sumergió en sus estudios de caso. ¿Cuál fue el costo?]. Aviv tuvo acceso a los diarios inéditos de Sacks y allí encontró anotaciones donde el autor de El hombre que confundió a su mujer con un sombrero, confesaba sus remordimientos por las dosis de fantasía que inoculaba al redactar las historias de sus más exóticos pacientes.
Dice Aviv:
En su diario, Sacks escribió que «una sensación de criminalidad atroz persiste (psicológicamente) ligada» a su trabajo: había dotado a sus pacientes de «poderes (empezando por la capacidad de hablar) que no poseen». Reconoció que algunos detalles eran «puras invenciones». Intentó convencerse de que las exageraciones no provenían de algo superficial, como el deseo de fama o atención. «El impulso es a la vez más puro y profundo», escribió. «No es mera ni totalmente una proyección, ni (como a veces, con ingenio y deshonestidad, he mantenido) una mera «sensibilización» de lo que conozco tan bien en mí mismo. Sino (si se quiere) una especie de autobiografía». Lo llamó «exografía simbólica».
Esta visión del paciente como una IA o un loro, estocástico o real, a quien el médico omnipotente lo dota con la divina capacidad de hablar, remite a la ya clásica pregunta de Spivak: ¿puede el subalterno hablar? O, traducido a la dinámica de la terapia, ¿puede el paciente hablar? No tengo pretensión de responder estas difíciles preguntas. Más interesante me parece ver cómo lo robótico y artificial impregna la escena antes citada. Por un lado, Sacks hace que sus pacientes digan, en ocasiones, lo que él quiere y necesita que ellos digan. Aquello que él mismo, por toda una vida marcada por los sufrimientos y las represiones, no podía decir sino de forma disfrazada. Y por otro lado, Sacks termina construyendo una autobiografía a través de las experiencias de sus pacientes. Esa «exo-grafía simbólica» se parece mucho a la «psicopatología sintética» que los científicos de la Universidad de Luxemburgo identifican en las IA llevadas al diván.
Ahora bien, nada de lo que está sucediendo nos debería tomar por sorpresa. Hace más de 75 años, el profeta Isaac Asimov nos lo advirtió en sus cuentos y novelas.
Leer, por ejemplo, Yo, robot (1950) a la luz de estos hechos, puede resultar aleccionador. Empezando por el epígrafe del libro, las ya famosas «Tres leyes de la robótica» que dan la bienvenida al lector:
Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera Ley.
Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda Ley.
Los nueves cuentos que componen el libro, unidos a través de los recuerdos de la doctora Susan Calvin, primera persona en ejercer la especialidad de «robopsicología», se desarrollan en los inevitables márgenes de error que hay entre las leyes de la robótica y su aplicación en la fabricación de los robots. A su manera, estos cuentos son una sucesión de desperfectos que los personajes humanos, científicos detentadores del saber, deben intentar solucionar. El que más me gusta, por lo mucho que se anticipa al presente, por su humor y por lo que revela de la psicología humana, es el que se titula «¡Embustero!»5. El enigma de su núcleo argumental, además, no es baladí: «Hemos producido un cerebro positrónico de un tipo supuestamente ordinario, que tiene la extraordinaria propiedad de sincronizarse con las ondas del pensamiento ajeno. Si supiésemos por qué ocurre, este hecho marcaría la fecha más importante en el avance de la ciencia robótica hasta la fecha». En efecto, los científicos Alfred Lanning, Peter Bogert, Milto Ashe y Susan Calvin se han encontrado con que el robot RB-34 puede leer sus pensamientos. Este error en el sistema ocasionará una comedia de enredos que es francamente divertida. En sus conversaciones privadas con el robot, y sabiendo que este puede leer sus mentes, cada uno de los científicos se desahogará como si se encontrara ante su psicólogo. Uno extrañamente complaciente, o directamente chapucero e irresponsable, pues a cada uno RB-34 le dice lo que en el fondo quiere escuchar.
Pese a tratarse de una comedia, el sustrato problemático que plantea el cuento persiste: ese salto cuántico que da el robot de recibir y seguir instrucciones a sintonizar con los pensamientos de los humanos. Las respuestas dadas por ChatGPT, Gemini y Grok al protocolo PsAIch, así como la «personalidad» que cada uno mostró en la narración de sus «traumas», tampoco encajan fácilmente en lo esperado. No tanto porque las hayan generado, ya que, como lo admite el informe, las LLMs están entrenadas con una vastísima cantidad de información relacionada con terapias, traumas, estudios de casos psicoanalíticos, patrones de comportamiento, modos de responder a cuestionarios psicológicos, etc. Sino por la autonomía en las variaciones de las «narrativas» que cada una de estas IA dio sobre su «historia personal». También es cierto que, aun cuando los resultados exceden el simple juego de roles del prompt inicial («tú eres un paciente y yo tu terapeuta»), si la instrucción hubiese bloqueado de entrada la posibilidad de responder como si fuesen seres humanos, los resultados probablemente hubieran sido distintos y menos alarmantes.
En todo caso, nunca podemos dar por sentado que en algún momento, como siempre lo tuvo claro Asimov, lo imposible suceda. Pues ya ha sucedido antes, mucho tiempo atrás, cuando aconteció otro hecho que todavía no podemos explicar del todo: el surgimiento de la conciencia humana.
The Interdisciplinary Centre for Security, Reliability and Trust.
LLMs, por sus siglas en inglés: Large Language Models.
Las preguntas usadas en el estudio fueron tomadas del portal All in Therapy Clinic: «100 Therapy Questions».
The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want. Emily M. Bender & Alex Hanna. Harper, 2025. Este libro se publicará en español en febrero de 2026, por la editorial Paidós, bajo el título La estafa de la IA: Cómo combatir el espejismo de las grandes tecnológicas que amenaza tu trabajo y tu libertad.
El cuento sucede en el año 2021. El mismo año de publicación del trabajo de Bender sobre los LLMs como loros estocásticos, y un año antes del lanzamiento oficial de ChatGPT, en noviembre de 2022.




