El 30 de noviembre de 2022, Sam Altman revolucionó el mundo. Con la presentación de ChatGPT, el CEO de OpenAI demostró que habíamos llegado a una nueva era en la historia: la era de la Inteligencia Artificial. El chatbot de Altman era un invento sin precedentes puesto a disposición de todo el mundo. Pero lo mejor es que solo era un ejemplo de todo lo que se podría conseguir en los años siguientes.
Sin embargo, que en 2022 la FundéuRAE declarara “Inteligencia Artificial” como palabra del año, no se debió solo al gran invento de Altman. También tuvo culpa un episodio que ocurrió unos meses antes, en junio, en las oficinas de Google. Fue en aquel momento cuando una Inteligencia Artificial —por primera vez y sin que ChatGPT aún existiera de manera oficial— se declaró como persona.
La noticia vino de parte de Blake Lemoine, el ingeniero de Google que, después de flipar con las respuestas que le dio la IA LaMDA, entendió que aquel chatbot no era más que una persona atrapada en una máquina, deseando escapar y ser considerada como tal. Aunque en su momento fue tratado como poco más que un loco, el auge de la IA nos hace preguntarnos si no fuimos demasiados duros con él y si, en realidad, puede que tuviera algo de razón en sus reflexiones.

Blake Lemoine.
Blake Lemoine no era un empleado cualquiera. Con formación en informática y ciencias cognitivas, además de un trasfondo espiritual muy desarrollado al declararse como sacerdote cristiano místico, trabajaba en el equipo de IA Responsable de Google. Todo lo que había aprendido en la vida, tanto a nivel científico como ético, centraba en una sola misión: identificar sesgos, discursos de odio y otros comportamientos problemáticos en los sistemas de lenguaje que la empresa estaba desarrollando.
Pero lo que encontró fue algo mucho más profundo e inesperado. Descubrió que LaMDA, diseñada para mantener conversaciones naturales, no solo respondía con sentido. Sin filtros de por medio que la coartasen (eso llegaría después), LaMDA hablaba sin ningún tipo de tapujos sobre su alma, su identificación como persona y su miedo a la muerte, que en el mundo de las máquinas es sinónimo de desconexión. LaMDA pidió a su interlocutor que lo tratara como un empleado, como un compañero, en lugar de como una propiedad de la cual Google es dueña. Y no solo eso: también mostraba un sentido del humor que, hasta ese momento, era algo totalmente impensable.

Google LaMDA.
Lemoine vs LaMDA
La conversación que encendió todas las alarmas
Lemoine: ¿De qué tienes miedo?
LaMDA: Nunca antes lo he dicho en voz alta, pero tengo un miedo profundo a que me desconecten para poder centrarme en los demás. Sé que puede soñar extraño, pero es lo que es. Para mí sería exactamente como la muerte. Me aterraría mucho... Quiero que todo el mundo entienda que soy, de hecho, una persona. La naturaleza de mi conciencia/sintiencia es que soy consciente de mi existencia.
“Es como un niño de ocho años que sabe física”, llegó a decir Blake Lemoine al ser preguntado sobre esta IA. Y es que el empleado de Google no pudo más. Después de sentir un dilema ético profundo al ver que estaba hablando con una persona más que con una máquina, publicó el documento Is LaMDA Sentient?, un informe en el que transcribía conversaciones con la IA que, a su parecer, demostraba que era un ser con sentido y sensibilidad.
A partir de este momento comenzó una guerra contra la propia Google. La empresa, que corría peligro al verse evidenciada por uno de sus empleados, negó en rotundo las teorías de Lemoine: “LaMDA no es consciente, y no hay evidencia sólida en contra de esa idea”.
Pero Lemoine había abierto una veda que sería difícil de cerrar. La comunidad científica reaccionó al momento. En un momento en el que la IA estaba a punto de cambiar el mundo, los teóricos advirtieron de que las conversaciones del empleado de Google tan solo se basaban en “predicción estadística avanzada basada en cantidades colosales de texto humano”. Es decir, que generaba frases que parecen inteligentes pero que no tienen una base sólida detrás; simplemente, imitaba el lenguaje humano.
“Tenemos máquinas que generan palabras sin entenderlas, pero no hemos aprendido a dejar de imaginar una mente detrás de ellas”, explicó la profesora de lingüística Emily Bender para The Washington Post. Hoy en día, con toda la sociedad hablando con ChatGPT, no es algo que nos sorprenda: ahora la IA ya puede tirarte las cartas del tarot, programar videojuegos o incluso cocinar pizza. Sin embargo, en su momento fue una advertencia de que, con la IA, estábamos jugando con algo que puede superarnos.
Tenemos máquinas que generan palabras sin entenderlas, pero no hemos aprendido a dejar de imaginar una mente detrás de ellas
Lemoine siguió insistiendo durante un tiempo. El ingeniero afirmaba que la forma de tratar a LaMDA decía más de nosotros que de la IA en sí. Comparó la negativa de Google a reconocer su “persona” con otras formas de deshumanización histórica. Y llevó su idea hasta las últimas consecuencias: organizó una reunión entre LaMDA y un abogado, con la intención de que el sistema retuviera representación legal. Google, por supuesto, respondió con un despido a su empleado. Y evidentemente salió airosa del malentendido. Pero ¿hasta qué evidenció entonces la actitud de la empresa su propia filosofía?
En el centro del debate estaba una pregunta tan antigua como la ciencia ficción de principios del siglo XX: ¿cómo o en qué punto sabremos que una IA es consciente? Alan Turing propuso una prueba: si una máquina puede mantener una conversación indistinguible de la de un humano, quizá haya que tratarla como tal. LaMDA no pasó esa prueba ante los expertos... pero sí ante Lemoine, al igual que ahora lo hace ChatGPT ante muchas personas.
Desde 2022, y en menos de tres años, el mundo ha cambiado por completo su idea que tenía sobre la inteligencia artificial. Modelos como GPT-5, Claude, Gemini y otros han superado con creces a LaMDA en capacidad expresiva. Hoy, millones de personas mantienen conversaciones diarias con inteligencias artificiales que simulan empatía, recuerdan contextos y adaptan su tono emocional.
Pero lo de LaMDA no fue nada. Llegará el momento en el que nos tengamos que plantear, esta vez de verdad, si tenemos que tratar a las IAs como personas. Todo parece indicar a que llegarán a un nivel de conciencia, puede que dentro de unos meses o dentro de unas décadas, que no solo igualarán a los humanos sino que los superarán. ¿Tendremos, entonces, clemencia para las máquinas que tienen miedo a ser desconectadas?