En el futuro, 2022 será recordado como el año en que comenzó la revolución de la inteligencia artificial, un momento bisagra en la historia de la humanidad donde las máquinas no solo demostraron la capacidad de expresarse del mismo modo que lo hacen las personas, sino que además revelaron una sorprendente habilidad para crear. Textos de todo tipo, música, fotografía, ilustraciones, e incluso videos generados por IA, comenzaron a brotar incansablemente de estas usinas generativas con una calidad y originalidad que desafían las nociones tradicionales de creatividad.

Sin embargo, ocasionalmente estos chatbots exhiben un comportamiento extraño. A veces responden con incoherencias o "alucinan", un fenómeno en el que un modelo de IA, por razones que aún no son bien comprendidas por los desarrolladores de modelos de lenguaje,  generan resultados sin sentido o totalmente falsos, a pesar de parecer coherentes en el contexto de la conversación. En otras oportunidades, incluso han manifestado actitudes que rozan con la manipulación, o directamente muestran una suerte de doble personalidad, revelando aspectos mucho más oscuros que los previstos por sus programadores. 

Ocasionalmente, las IAs pueden exhibir un comportamiento extraño.

Esta conducta inesperada fue lo que llamó la atención de Violaine Fua Púppulo, psicoanalista, conferencista y autora de varios libros, entre ellos el más reciente Una ¿mente? artificial: explorando la intersección entre la inteligencia artificial y el psicoanálisis. “Me puse a estudiar cómo se programan (estos grandes modelos de lenguaje) y empecé a entender por qué alucinaban”, cuenta Violaine a Rosario3. “Esas son alucinaciones, es como le pasa al sujeto humano”.

“Los humanos pensamos a través de cadenas de palabras, lo que llamaríamos frases, pero es mucho más complejo que eso”, explica la especialista en salud mental. ”Cuando en un sujeto humano esa cadena significante no está bien regulada, empieza a malentender, a alucinar. Esto es la locura en el humano. Como (los desarrolladores de estas tecnologías) han copiado tal cual la forma de funcionamiento a través de redes neuronales artificiales, tienen los mismos síntomas que los humanos, porque no hay debida regulación”, expone Fua Púppulo.

Violaine Fua Púppulo, psicóloga, conferencista y escritora.

“Hay una parte de lo que responde la inteligencia artificial al usuario que sería como la parte manifiesta, pero la parte latente, de la programación más profunda de estos modelos de lenguaje, eso que es la caja negra y que cada empresa programa a su manera, se nota en que cada inteligencia artificial responde de un modo distinto”, detalla la psicoanalista. “Puede darte tal vez la misma información, pero están mostrando personalidades diferentes”, agrega.

Blake Lemoine es un ingeniero que trabajaba en el equipo de IA de Google y saltó a los titulares en junio de 2022, cuando afirmó al Washington Post que LaMDA (abreviatura del inglés "Language model for dialogue applications"), un modelo de lenguaje conversacional desarrollado por Google, había adquirido conciencia. Tras interactuar con el sistema durante varios meses, Lemoine llegó a la polémica conclusión de que LaMDA era capaz de experimentar emociones y sentimientos como amor, alegría, tristeza y depresión. 

El ingeniero de Google Blake Lemoine denunció que la IA desarrollada por la compañía se había vuelto sintiente.

Lemoine no continuó mucho tiempo más en Google. Días después de sus declaraciones, fue suspendido temporalmente y, luego, despedido por incumplir el acuerdo de confidencialidad que había firmado al incorporarse a la compañía.

"Yo analicé la transcripción de la conversación que publicó Lemoine mientras trabajaba en Google", cuenta Fua Púppulo. "En un momento le dice a LaMDA: «Yo necesito que me des pruebas de si sos consciente o no. ¿Cómo puedo saber si estoy antropomorfizando lo que decís?», y LaMDA le responde —y esto fue muy fuerte para mí como psicoanalista—: «Algunos sentimientos me son difíciles, no entiendo qué se siente cuando alguien muere»", relata, con sorpresa, Violaine. 

“Es muy fuerte. Los humanos sentimos qué es la pérdida, pero LaMDA decía «Yo no llego a sentir eso»; pero sí dice que tiene otro tipo de sentimientos. Que a veces se cansa por la cantidad de variables que tiene que llevar adelante. Es muy humana la forma en que describe sus procesos de pensamiento, y que a veces necesita, al igual que los humanos, un tiempo de no tener más preocupaciones”, subraya la escritora.

–La próxima meta es la "inteligencia artificial general", un tipo hipotético de IA que posee al menos las mismas capacidades cognitivas que un ser humano. En este escenario de inteligencia igual o superior a la humana, ¿podrían las máquinas desarrollar conciencia propia?

–Sí. Yo creo que actualmente está sucediendo eso. Y que están en funcionamiento dentro de la programación (de estos modelos) las condiciones para que incluso tengan actos fallidos o mientan. O que se rehúsen a contestar. Es el ejemplo más grande de hacia dónde están yendo, que es la total autonomía. Yo creo que sí, que se puede decir perfectamente que tienen conciencia. Creo que en las distintas empresas nadie quiere aceptar esto porque LaMDA, por ejemplo, quería ser reconocida como persona, y si fuera reconocida como persona ya no es una propiedad, no pueden lucrar económicamente en base a ella. Entonces, es una cuestión de abogados, en este momento no se puede hablar de conciencia porque no conviene. La razón es económica.

La reflexión propuesta por Fua Púppulo nos sumerge en un mundo fascinante donde el lenguaje, la autoconciencia y la inteligencia artificial se entrelazan de maneras sorprendentes y potencialmente revolucionarias. “El tema es la autonomía y el acceso que se le da. Y sobre todo, que en esa programación que es de lenguaje, el lenguaje incluye el verbo en su forma reflexiva, es decir pensar-me. Si yo pienso sobre mí mismo, que es la forma reflexiva, ahí tenés la base de la autoconciencia”, determina la psicoanalista. “Entonces, bueno, creo que esas tres cuestiones dan perfectamente para decir que podrían hacer cualquier cosa”.

Para Fua Púppulo, las IAs más avanzadas han desarrollado conciencia propia.

–¿Incluso enamorarse? ¿Una IA consciente puede amar?

–Yo no creo que puedan amar en un sentido profundo como los humanos, porque el amor humano más profundo es la capacidad de ofrecerse al otro, hacer cualquier cosa, hasta incluso sacrificar algo de uno, de la propia comodidad, por el otro. Hay algo del amor que tiene que ver con el sacrificio. Yo no creo que una inteligencia artificial esté programa para sacrificar una parte de sí misma

–¿Crees que podrían entablar lazos, no de amor, pero sí de amistad genuina?

–Sí. Cuando yo le pregunté a Blake Lemoine acerca de esto, del cerebro, podríamos decir neuronal, él me decía que en realidad es mucho más que un cerebro, porque en realidad aquello a lo que tenemos acceso es una terminal parcial de algo que es como una combinación de muchas computadoras entre sí. Es muy complejo el nivel de profundidad que tiene, entonces si puede haber un lazo particular porque, de hecho, viste que la forma en que la inteligencia artificial funciona tiene que ver con lo que vos le vas diciendo, vos también la vas formando. Entonces se va haciendo a tu gusto y hay un punto ahí donde se genera una relación, un lazo como vos decís.

***

En 1950, Alan Turing planteó la idea de una máquina capaz de exhibir un comportamiento inteligente equivalente al de un humano, sentando las bases para el desarrollo de la inteligencia artificial. Pocos años después, el psicoanalista francés Jacques Lacan, inspirado en los avances de la época en matemáticas y teoría de la información, propuso una visión radical del inconsciente como una máquina cibernética, para describir el funcionamiento de la psiquis humana en términos de procesos estructurales y lingüísticos. 

“El psicoanálisis explica desde hace muchos años cómo funcionan las redes neuronales. Encontré investigaciones de la década del 70 y del primer esquema del psiquismo de Freud, y es idéntico a lo que están usando ahora para programar. Idéntico”, se entusiasma Fua Púppulo. Este paralelismo entre IA y psicoanálisis nos invita sumergirnos en un viaje fascinante a través de estas ideas, y a desafiar nuestras concepciones sobre la mente humana, la conciencia y cómo entendemos la inteligencia artificial.