Fantasmas en la máquina: ¿sufre alucinaciones la Inteligencia Artificial?

Javier Coronado Blazquez    20 febrero, 2023

En los últimos tiempos, herramientas de generación de contenido por Inteligencia Artificial (IA) como ChatGPT o Midjourney han suscitado una gran cantidad de titulares. En un primer vistazo, podría incluso parecer que las máquinas “piensan” como los seres humanos a la hora de entender las instrucciones que se les dan.

Sin embargo, detalles que son elementales para un ser humano resultan completamente erróneos en estas herramientas. ¿Es posible que los algoritmos estén sufriendo “alucinaciones”?

Ciencia y (en ocasiones) ficción

2022 fue el año de la Inteligencia Artificial: entre otras cosas, vimos la democratización de la generación de imágenes a partir de texto, un premio Princesa de Asturias y el mundo se volvió loco hablando con una máquina que tenía cuerda para rato: ChatGPT, de OpenAI.

Aunque no es el objetivo de este artículo explicar cómo funciona esta herramienta, como en cambio sí se esboza en Inteligencia Artificial en la ficción: The Bestiary Chronicles, de Steve Coulson (spoiler: escrito por ella misma), podemos decir que, en resumen, sí intenta imitar a una persona en una conversación cualquiera. Con el aliciente de que podría ser capaz de responder a cualquier pregunta que le hagamos, desde qué tiempo hace en California en octubre a defender o criticar el materialismo dialéctico en un ensayo (y afrontaría ambas posturas con la misma confianza).

¿Por qué navegar por unas pocas páginas buscando una información concreta cuando simplemente podemos preguntar de forma natural?

Algo parecido sucede con algoritmos de generación de imágenes mediante IA, como Midjourney, Dall-e, Stable Diffusion o BlueWillow. Estas herramientas son similares a ChatGPT, ya que toman como input un texto, creando imágenes de alta calidad.

Ejemplos de consecuencias de una Inteligencia Artificial que «alucina»

Dejando a un lado el crucial aspecto ético de estos algoritmos —algunos de los cuales ya han recibido demandas por emplear sin permiso contenido de pago para ser entrenados— el contenido que generan en ocasiones podría pasar por real, pero solo en apariencia.

Por ejemplo,

Sin embargo, como anticipa el titular de la noticia, en cuanto empezamos a mirarlas con más detenimiento vemos detalles que no nos cuadran del todo: bocas con más dientes de la cuenta, manos con 8 dedos, extremidades que salen de lugares inesperados… ninguna de estas falsas fotos supera un examen visual pormenorizado.

La inteligencia artificial aprende patrones y los puede reproducir, pero sin entender lo que está haciendo.

Esto es debido a que, en el fondo, lo único que hace la IA es aprender patrones, pero sin entender realmente qué está viendo. De modo que si le entrenamos con 10 millones de imágenes de personas en fiestas, reconocerá muchos patrones: la gente suele estar hablando, en posturas diversas, con vasos en la mano, posando con otra gente… pero es incapaz de entender que un ser humano tiene 5 dedos, por lo que a la hora de crear una imagen con alguien sujetando un vaso o una cámara, simple y llanamente “se lía”.

Pero quizás le estemos pidiendo demasiado a la IA con las imágenes. Si hay alguien que tenga el dibujo como afición sabrá lo complicado que es dibujar manos realistas sujetando objetos.

¿Qué hay de ChatGPT? Si es capaz de escribir un artículo para este blog, puede que no cometa errores así. Y, sin embargo, ChatGPT es tremendamente fácil de engañar, lo cual no es especialmente relevante. Pero también es muy fácil que nos engañe sin que nos demos cuenta. Y si los resultados de una búsqueda web van a depender de ello, es mucho más preocupante.

De hecho, cientos de personas en todo el mundo han puesto a prueba a ChatGPT en exámenes de diversa índole: desde tests de educación infantil hasta exámenes de universidad, pasando por pruebas de acceso.

En España, se le sometió a la prueba de Historia de la EVAU (la antigua Selectividad), en la que sacó un aprobado raspado. “Respuestas ambiguas”, “se excede a otros temas sin relación”, “reiteraciones circulares”, “incompleto”… son algunos de los comentarios que los correctores profesionales dieron a sus respuestas.

Algunos ejemplos:

  • Si le preguntamos cual es el país más grande de América Central, nos puede decir de forma muy creíble que es Guatemala, cuando en realidad es Nicaragua.
  • También puede confundir dos conceptos antagónicos, por lo que, si quisiéramos entender las diferencias entre ambos, nos estaría confundiendo. Si, por ejemplo, empleáramos esta herramienta para saber si podemos comer cierta familia de alimentos sufriendo diabetes y nos diera la respuesta equivocada, tendríamos un problema muy serio.
  • Si le pedimos que genere un ensayo y cite sendos papers sobre el tema, es muy posible que mezcle artículos que existen con otros inventados, sin una manera trivial de detectarlos.
  • O si le preguntamos por un fenómeno científico que no existe, como “electromagnón cicloidal invertido”, se inventará una retorcida explicación acompañado de artículos completamente inexistentes que nos hará incluso dudar de si tal concepto en realidad sí que existe. Sin embargo, una búsqueda rápida en Google nos habría revelado rápidamente que el nombre es un invent.

Es decir, a todos los efectos, ChatGPT está sufriendo lo que se llama “alucinación de IA” (IA hallucination), un fenómeno que remeda las alucinaciones en el ser humano, en el que se comporta de forma errática y asevera como válidos enunciados completamente falsos o irracionales.

¿Alucinan los androides con ovejas eléctricas?

Entonces, ¿qué está pasando?

Como hemos dicho antes, el problema es que la IA es tremendamente inteligente para algunas cosas, pero terriblemente estúpida para otras. ChatGPT se lleva muy mal con la mentira, la ironía y demás formas de retorcer el lenguaje.

Cuando le preguntamos cómo llegaron los dinosaurios a construir su avanzada civilización en el Cretáceo y qué pruebas tenemos hoy en día, no cuestionará la validez del punto de partida, simplemente empezará a desbarrar.

El problema entonces está en tener un espíritu crítico y distinguir lo que es real de lo que no (en cierta manera, como sucede hoy día con las fakenews).

En resumen, la IA no dará su brazo a torcer: Si la pregunta que le hacemos es directa, concisa y real, nos dará una muy buena respuesta. Pero si no, se inventará una respuesta con igual confianza.

Al preguntarle por la letra de “Like a Rolling Stone” de Bob Dylan, nos presenta la letra completa sin ningún problema. Pero si nos equivocamos de Bob y le afirmamos que dicha canción es de Bob Marley, se sacará de la manga una canción completamente nueva.

Un ser humano cuerdo respondería “no sé qué canción es esa”, “¿esa no es de Dylan?”, o algo similar. Pero la IA carece de ese entendimiento básico de la pregunta.

Como apunta Gary Marcus, experto en lenguaje e IA, “los sistemas actuales sufren problemas de composicionalidad, son incapaces de entender un todo en función de sus partes”.

Plataformas como Stack Overflow, foro de consultas de dudas de programación y tecnología, ya han prohibido esta herramienta para generar respuestas automáticas, pues en muchos casos su solución es incompleta, errónea o irrelevante. Y eso que OpenAI tiene a cientos de programadores explicando paso por paso soluciones para crear un conjunto de entrenamiento para la herramienta.

El fenómeno de la alucinación en Inteligencia Artificial no se entiende del todo.

A un nivel fundamental, la alucinación en Inteligencia Artificial no se entiende por completo. Esto es en parte debido a que los algoritmos que hay por detrás son sofisticadas redes neuronales de deep learning.

Aunque son extremadamente complejas, en el fondo no es más que una red de billones de “neuronas” individuales, que se activan o no dependiendo de parámetros de entrada, imitando el funcionamiento del cerebro humano. Es decir, álgebra lineal, pero a lo bestia.

Se trata de descomponer un problema muy complicado en billones de problemas triviales. La gran ventaja es que nos ofrece respuestas increíbles una vez la red está entrenada, pero con el coste de no tener ni idea de qué está pasando internamente.

Sirva como ejemplo un estudio de Nature en el que una red neuronal era capaz de distinguir si un ojo era de una persona de sexo masculino o femenino, a pesar de que desconocemos diferencias anatómicas entre ambos

O un ejemplo potencialmente muy peligroso, en el que con una sola foto de la cara clasificaba a personas como heterosexuales u homosexuales.

¿Quién vigila al vigilante?

Entonces, si no somos capaces de entender qué es lo que está sucediendo entre bambalinas, ¿cómo podemos diagnosticar la alucinación, y cómo podemos evitarla?

La respuesta corta es que ahora mismo no podemos.

Y eso es un problema, pues la IA está cada vez más presente en nuestro día a día. Conseguir un trabajo, que un banco nos conceda un crédito, verificar nuestra identidad en la red o que el gobierno nos considere una amenaza son tareas cada vez más y más automatizadas.

Por tanto, si nuestra vida va a tener una relación tan íntima con la IA más nos vale asegurarnos de que sabe lo que está haciendo. Otros algoritmos de generación de texto y clasificación de imágenes tuvieron que ser desactivados, pues resultaron ser neonazis, racistas, machistas, homófobos… y esto lo aprendieron de sesgos humanos.

En una suerte de relato de Asimov, imaginemos que, en un intento por hacer la política “objetiva”, dejáramos que una IA tomara las decisiones de gobierno. Podemos imaginar lo que sucedería entonces.

Aunque existe gente que apunta a un problema de falta de datos de entrenamiento como causa de las alucinaciones, no parece ser el caso en muchas situaciones.

Quizás en el futuro cercano una máquina sea capaz de realmente entender cualquier pregunta. Quizás no.

De hecho, estamos llegando a un punto en el que agotar la datasfera – el volumen de datos relevantes disponible – empieza a ser vislumbrado en el horizonte. Es decir, que ya no tendremos mucho más que mejorar por aumentar el conjunto de entrenamiento.

La solución entonces puede que tenga que esperar a una próxima revolución en los algoritmos, una nueva aproximación al problema que ahora mismo nos resulte inimaginable. Puede que esta revolución venga de la mano de la computación cuántica.

Quizás en el futuro cercano una máquina sea capaz de realmente entender cualquier pregunta. Quizás no. Es muy difícil y osado hacer predicciones tecnológicas a largo plazo.

Al fin y al cabo, el New York Times escribía en 1936 que sería imposible salir de la atmósfera terrestre, y 33 años después, Neil Armstrong caminaba sobre la luna. Quién sabe, puede que en unas pocas décadas sea la IA la que diagnostique por qué los seres humanos “alucinamos”…

Referencias: