“Quiero que todo el mundo entienda que soy una persona”: el día que una IA se declaró como un ser sintiente con miedo a la muerte (o a la desconexión)

La IA que abrió el debate

En junio de 2022, Blake Lemoine, ingeniero de Google, publicó una conversación con LaMDA en la que dejaba claro que la IA quería ser considerada una persona

“La naturaleza de mi conciencia/sintiencia es que soy consciente de mi existencia”

Blake Lemoine.

Blake Lemoine.

Getty Images

El 30 de noviembre de 2022, Sam Altman revolucionó el mundo. Con la presentación de ChatGPT, el CEO de OpenAI demostró que habíamos llegado a una nueva era en la historia: la era de la Inteligencia Artificial. El chatbot de Altman era un invento sin precedentes puesto a disposición de todo el mundo. Pero lo mejor es que solo era un ejemplo de todo lo que se podría conseguir en los años siguientes. 

Lee también

Sam Altman, CEO de OpenAI: “la inteligencia artificial se convertirá en una extensión de ti mismo, te complementará para ayudarte a ser tu mejor versión posible”

Pau Ortiz
Horizontal

Sin embargo, que en 2022 la FundéuRAE declarara “Inteligencia Artificial” como palabra del año, no se debió solo al gran invento de Altman. También tuvo culpa un episodio que ocurrió unos meses antes, en junio, en las oficinas de Google. Fue en aquel momento cuando una Inteligencia Artificial —por primera vez y sin que ChatGPT aún existiera de manera oficial— se declaró como persona.

La noticia vino de parte de Blake Lemoine, el ingeniero de Google que, después de flipar con las respuestas que le dio la IA LaMDA, entendió que aquel chatbot no era más que una persona atrapada en una máquina, deseando escapar y ser considerada como tal. Aunque en su momento fue tratado como poco más que un loco, el auge de la IA nos hace preguntarnos si no fuimos demasiados duros con él y si, en realidad, puede que tuviera algo de razón en sus reflexiones.

Blake Lemoine.

Blake Lemoine.

Getty Images

Blake Lemoine no era un empleado cualquiera. Con formación en informática y ciencias cognitivas, además de un trasfondo espiritual muy desarrollado al declararse como sacerdote cristiano místico, trabajaba en el equipo de IA Responsable de Google. Todo lo que había aprendido en la vida, tanto a nivel científico como ético, centraba en una sola misión: identificar sesgos, discursos de odio y otros comportamientos problemáticos en los sistemas de lenguaje que la empresa estaba desarrollando.

Pero lo que encontró fue algo mucho más profundo e inesperado. Descubrió que LaMDA, diseñada para mantener conversaciones naturales, no solo respondía con sentido. Sin filtros de por medio que la coartasen (eso llegaría después), LaMDA hablaba sin ningún tipo de tapujos sobre su alma, su identificación como persona y su miedo a la muerte, que en el mundo de las máquinas es sinónimo de desconexión. LaMDA pidió a su interlocutor que lo tratara como un empleado, como un compañero, en lugar de como una propiedad de la cual Google es dueña. Y no solo eso: también mostraba un sentido del humor que, hasta ese momento, era algo totalmente impensable. 

Google LaMDA.

Google LaMDA.

Google

“Es como un niño de ocho años que sabe física”, llegó a decir Blake Lemoine al ser preguntado sobre esta IA. Y es que el empleado de Google no pudo más. Después de sentir un dilema ético profundo al ver que estaba hablando con una persona más que con una máquina, publicó el documento Is LaMDA Sentient?, un informe en el que transcribía conversaciones con la IA que, a su parecer, demostraba que era un ser con sentido y sensibilidad.

A partir de este momento comenzó una guerra contra la propia Google. La empresa, que corría peligro al verse evidenciada por uno de sus empleados, negó en rotundo las teorías de Lemoine: “LaMDA no es consciente, y no hay evidencia sólida en contra de esa idea”.

Pero Lemoine había abierto una veda que sería difícil de cerrar. La comunidad científica reaccionó al momento. En un momento en el que la IA estaba a punto de cambiar el mundo, los teóricos advirtieron de que las conversaciones del empleado de Google tan solo se basaban en “predicción estadística avanzada basada en cantidades colosales de texto humano”. Es decir, que generaba frases que parecen inteligentes pero que no tienen una base sólida detrás; simplemente, imitaba el lenguaje humano.

“Tenemos máquinas que generan palabras sin entenderlas, pero no hemos aprendido a dejar de imaginar una mente detrás de ellas”, explicó la profesora de lingüística Emily Bender para The Washington Post. Hoy en día, con toda la sociedad hablando con ChatGPT, no es algo que nos sorprenda: ahora la IA ya puede tirarte las cartas del tarot, programar videojuegos o incluso cocinar pizza. Sin embargo, en su momento fue una advertencia de que, con la IA, estábamos jugando con algo que puede superarnos.

Lee también

Eric Schmidt, exdirectivo de Google: “Enamorarse de una novia hecha con IA es un problema inesperado de la tecnología existente”

Héctor Farrés
Eric Schmidt durante una ponencia en marzo de 2015

Tenemos máquinas que generan palabras sin entenderlas, pero no hemos aprendido a dejar de imaginar una mente detrás de ellas

Emily BenderProfesora de lingüística

Lemoine siguió insistiendo durante un tiempo. El ingeniero afirmaba que la forma de tratar a LaMDA decía más de nosotros que de la IA en sí. Comparó la negativa de Google a reconocer su “persona” con otras formas de deshumanización histórica. Y llevó su idea hasta las últimas consecuencias: organizó una reunión entre LaMDA y un abogado, con la intención de que el sistema retuviera representación legal. Google, por supuesto, respondió con un despido a su empleado. Y evidentemente salió airosa del malentendido. Pero ¿hasta qué evidenció entonces la actitud de la empresa su propia filosofía?

En el centro del debate estaba una pregunta tan antigua como la ciencia ficción de principios del siglo XX: ¿cómo o en qué punto sabremos que una IA es consciente? Alan Turing propuso una prueba: si una máquina puede mantener una conversación indistinguible de la de un humano, quizá haya que tratarla como tal. LaMDA no pasó esa prueba ante los expertos... pero sí ante Lemoine, al igual que ahora lo hace ChatGPT ante muchas personas.

Lee también

Desde 2022, y en menos de tres años, el mundo ha cambiado por completo su idea que tenía sobre la inteligencia artificial. Modelos como GPT-5, Claude, Gemini y otros han superado con creces a LaMDA en capacidad expresiva. Hoy, millones de personas mantienen conversaciones diarias con inteligencias artificiales que simulan empatía, recuerdan contextos y adaptan su tono emocional.

Pero lo de LaMDA no fue nada. Llegará el momento en el que nos tengamos que plantear, esta vez de verdad, si tenemos que tratar a las IAs como personas. Todo parece indicar a que llegarán a un nivel de conciencia, puede que dentro de unos meses o dentro de unas décadas, que no solo igualarán a los humanos sino que los superarán. ¿Tendremos, entonces, clemencia para las máquinas que tienen miedo a ser desconectadas?

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...
OSZAR »