Fantasmas en la máquina: ¿sufre alucinaciones la Inteligencia Artificial?Javier Coronado Blazquez 20 febrero, 2023 En los últimos tiempos, herramientas de generación de contenido por Inteligencia Artificial (IA) como ChatGPT o Midjourney han suscitado una gran cantidad de titulares. En un primer vistazo, podría incluso parecer que las máquinas “piensan” como los seres humanos a la hora de entender las instrucciones que se les dan. Sin embargo, detalles que son elementales para un ser humano resultan completamente erróneos en estas herramientas. ¿Es posible que los algoritmos estén sufriendo “alucinaciones”? Ciencia y (en ocasiones) ficción 2022 fue el año de la Inteligencia Artificial: entre otras cosas, vimos la democratización de la generación de imágenes a partir de texto, un premio Princesa de Asturias y el mundo se volvió loco hablando con una máquina que tenía cuerda para rato: ChatGPT, de OpenAI. Aunque no es el objetivo de este artículo explicar cómo funciona esta herramienta, como en cambio sí se esboza en Inteligencia Artificial en la ficción: The Bestiary Chronicles, de Steve Coulson (spoiler: escrito por ella misma), podemos decir que, en resumen, sí intenta imitar a una persona en una conversación cualquiera. Con el aliciente de que podría ser capaz de responder a cualquier pregunta que le hagamos, desde qué tiempo hace en California en octubre a defender o criticar el materialismo dialéctico en un ensayo (y afrontaría ambas posturas con la misma confianza). ¿Por qué navegar por unas pocas páginas buscando una información concreta cuando simplemente podemos preguntar de forma natural? Algo parecido sucede con algoritmos de generación de imágenes mediante IA, como Midjourney, Dall-e, Stable Diffusion o BlueWillow. Estas herramientas son similares a ChatGPT, ya que toman como input un texto, creando imágenes de alta calidad. Ejemplos de consecuencias de una Inteligencia Artificial que «alucina» Dejando a un lado el crucial aspecto ético de estos algoritmos —algunos de los cuales ya han recibido demandas por emplear sin permiso contenido de pago para ser entrenados— el contenido que generan en ocasiones podría pasar por real, pero solo en apariencia. Por ejemplo, Podemos pedirle que imagine Los Simpson como una sitcom de los años 80. En efecto, todo parece perturbadoramente real, aunque esas imágenes nos persigan en nuestras pesadillas.O que genere imágenes de una fiesta. En un primer vistazo no sabríamos decir si son reales o no, pues parecen fotos con algún filtro de Instagram o tipo Polaroid. Sin embargo, como anticipa el titular de la noticia, en cuanto empezamos a mirarlas con más detenimiento vemos detalles que no nos cuadran del todo: bocas con más dientes de la cuenta, manos con 8 dedos, extremidades que salen de lugares inesperados… ninguna de estas falsas fotos supera un examen visual pormenorizado. La inteligencia artificial aprende patrones y los puede reproducir, pero sin entender lo que está haciendo. Esto es debido a que, en el fondo, lo único que hace la IA es aprender patrones, pero sin entender realmente qué está viendo. De modo que si le entrenamos con 10 millones de imágenes de personas en fiestas, reconocerá muchos patrones: la gente suele estar hablando, en posturas diversas, con vasos en la mano, posando con otra gente… pero es incapaz de entender que un ser humano tiene 5 dedos, por lo que a la hora de crear una imagen con alguien sujetando un vaso o una cámara, simple y llanamente “se lía”. Pero quizás le estemos pidiendo demasiado a la IA con las imágenes. Si hay alguien que tenga el dibujo como afición sabrá lo complicado que es dibujar manos realistas sujetando objetos. ¿Qué hay de ChatGPT? Si es capaz de escribir un artículo para este blog, puede que no cometa errores así. Y, sin embargo, ChatGPT es tremendamente fácil de engañar, lo cual no es especialmente relevante. Pero también es muy fácil que nos engañe sin que nos demos cuenta. Y si los resultados de una búsqueda web van a depender de ello, es mucho más preocupante. De hecho, cientos de personas en todo el mundo han puesto a prueba a ChatGPT en exámenes de diversa índole: desde tests de educación infantil hasta exámenes de universidad, pasando por pruebas de acceso. En España, se le sometió a la prueba de Historia de la EVAU (la antigua Selectividad), en la que sacó un aprobado raspado. “Respuestas ambiguas”, “se excede a otros temas sin relación”, “reiteraciones circulares”, “incompleto”… son algunos de los comentarios que los correctores profesionales dieron a sus respuestas. Algunos ejemplos: Si le preguntamos cual es el país más grande de América Central, nos puede decir de forma muy creíble que es Guatemala, cuando en realidad es Nicaragua.También puede confundir dos conceptos antagónicos, por lo que, si quisiéramos entender las diferencias entre ambos, nos estaría confundiendo. Si, por ejemplo, empleáramos esta herramienta para saber si podemos comer cierta familia de alimentos sufriendo diabetes y nos diera la respuesta equivocada, tendríamos un problema muy serio.Si le pedimos que genere un ensayo y cite sendos papers sobre el tema, es muy posible que mezcle artículos que existen con otros inventados, sin una manera trivial de detectarlos.O si le preguntamos por un fenómeno científico que no existe, como “electromagnón cicloidal invertido”, se inventará una retorcida explicación acompañado de artículos completamente inexistentes que nos hará incluso dudar de si tal concepto en realidad sí que existe. Sin embargo, una búsqueda rápida en Google nos habría revelado rápidamente que el nombre es un invent. Es decir, a todos los efectos, ChatGPT está sufriendo lo que se llama “alucinación de IA” (IA hallucination), un fenómeno que remeda las alucinaciones en el ser humano, en el que se comporta de forma errática y asevera como válidos enunciados completamente falsos o irracionales. Mundos infinitos, mundos realistas: generación procedural e inteligencia artificial en videojuegos ¿Alucinan los androides con ovejas eléctricas? Entonces, ¿qué está pasando? Como hemos dicho antes, el problema es que la IA es tremendamente inteligente para algunas cosas, pero terriblemente estúpida para otras. ChatGPT se lleva muy mal con la mentira, la ironía y demás formas de retorcer el lenguaje. One of the big subtle problems in the new “creative AIs” is that they can seem completely certain, and getting them to switch from sane to hallucinatory is a difference of a couple words. Note that humans mistake confidence for accuracy, a confident computer may be a problem. pic.twitter.com/nSNZ5TjBQ0— Ethan Mollick (@emollick) December 2, 2022 Cuando le preguntamos cómo llegaron los dinosaurios a construir su avanzada civilización en el Cretáceo y qué pruebas tenemos hoy en día, no cuestionará la validez del punto de partida, simplemente empezará a desbarrar. El problema entonces está en tener un espíritu crítico y distinguir lo que es real de lo que no (en cierta manera, como sucede hoy día con las fakenews). En resumen, la IA no dará su brazo a torcer: Si la pregunta que le hacemos es directa, concisa y real, nos dará una muy buena respuesta. Pero si no, se inventará una respuesta con igual confianza. Al preguntarle por la letra de “Like a Rolling Stone” de Bob Dylan, nos presenta la letra completa sin ningún problema. Pero si nos equivocamos de Bob y le afirmamos que dicha canción es de Bob Marley, se sacará de la manga una canción completamente nueva. Un ser humano cuerdo respondería “no sé qué canción es esa”, “¿esa no es de Dylan?”, o algo similar. Pero la IA carece de ese entendimiento básico de la pregunta. Como apunta Gary Marcus, experto en lenguaje e IA, “los sistemas actuales sufren problemas de composicionalidad, son incapaces de entender un todo en función de sus partes”. Plataformas como Stack Overflow, foro de consultas de dudas de programación y tecnología, ya han prohibido esta herramienta para generar respuestas automáticas, pues en muchos casos su solución es incompleta, errónea o irrelevante. Y eso que OpenAI tiene a cientos de programadores explicando paso por paso soluciones para crear un conjunto de entrenamiento para la herramienta. El fenómeno de la alucinación en Inteligencia Artificial no se entiende del todo. A un nivel fundamental, la alucinación en Inteligencia Artificial no se entiende por completo. Esto es en parte debido a que los algoritmos que hay por detrás son sofisticadas redes neuronales de deep learning. Aunque son extremadamente complejas, en el fondo no es más que una red de billones de “neuronas” individuales, que se activan o no dependiendo de parámetros de entrada, imitando el funcionamiento del cerebro humano. Es decir, álgebra lineal, pero a lo bestia. Inteligencia Artificial, ChatGPT y Ciberseguridad Se trata de descomponer un problema muy complicado en billones de problemas triviales. La gran ventaja es que nos ofrece respuestas increíbles una vez la red está entrenada, pero con el coste de no tener ni idea de qué está pasando internamente. Sirva como ejemplo un estudio de Nature en el que una red neuronal era capaz de distinguir si un ojo era de una persona de sexo masculino o femenino, a pesar de que desconocemos diferencias anatómicas entre ambos O un ejemplo potencialmente muy peligroso, en el que con una sola foto de la cara clasificaba a personas como heterosexuales u homosexuales. ¿Quién vigila al vigilante? Entonces, si no somos capaces de entender qué es lo que está sucediendo entre bambalinas, ¿cómo podemos diagnosticar la alucinación, y cómo podemos evitarla? La respuesta corta es que ahora mismo no podemos. Y eso es un problema, pues la IA está cada vez más presente en nuestro día a día. Conseguir un trabajo, que un banco nos conceda un crédito, verificar nuestra identidad en la red o que el gobierno nos considere una amenaza son tareas cada vez más y más automatizadas. Por tanto, si nuestra vida va a tener una relación tan íntima con la IA más nos vale asegurarnos de que sabe lo que está haciendo. Otros algoritmos de generación de texto y clasificación de imágenes tuvieron que ser desactivados, pues resultaron ser neonazis, racistas, machistas, homófobos… y esto lo aprendieron de sesgos humanos. En una suerte de relato de Asimov, imaginemos que, en un intento por hacer la política “objetiva”, dejáramos que una IA tomara las decisiones de gobierno. Podemos imaginar lo que sucedería entonces. Aunque existe gente que apunta a un problema de falta de datos de entrenamiento como causa de las alucinaciones, no parece ser el caso en muchas situaciones. Quizás en el futuro cercano una máquina sea capaz de realmente entender cualquier pregunta. Quizás no. De hecho, estamos llegando a un punto en el que agotar la datasfera – el volumen de datos relevantes disponible – empieza a ser vislumbrado en el horizonte. Es decir, que ya no tendremos mucho más que mejorar por aumentar el conjunto de entrenamiento. La solución entonces puede que tenga que esperar a una próxima revolución en los algoritmos, una nueva aproximación al problema que ahora mismo nos resulte inimaginable. Puede que esta revolución venga de la mano de la computación cuántica. Quizás en el futuro cercano una máquina sea capaz de realmente entender cualquier pregunta. Quizás no. Es muy difícil y osado hacer predicciones tecnológicas a largo plazo. Al fin y al cabo, el New York Times escribía en 1936 que sería imposible salir de la atmósfera terrestre, y 33 años después, Neil Armstrong caminaba sobre la luna. Quién sabe, puede que en unas pocas décadas sea la IA la que diagnostique por qué los seres humanos “alucinamos”… Referencias: https://www.unite.ai/preventing-hallucination-in-gpt-3-and-other-complex-language-models/https://nautil.us/deep-learning-is-hitting-a-wall-238440/https://elpais.com/tecnologia/2018/01/14/actualidad/1515955554_803955.htmlhttps://medium.com/analytics-vidhya/what-happens-when-neural-networks-hallucinate-9bd0d4594943 Usando Midjourney para crear contenido en redes socialesRedes sociales descentralizadas: ¿el primer servicio Web3 en llegar al público masivo?
Nacho Palou 5G: cuatro casos de uso reales y prácticos El último informe “La Sociedad Digital en España 2022” [1] de Fundación Telefónica confirma la consolidación de los procesos de digitalización en la sociedad española. En este sentido, cabe...
Nacho Palou Cursos gratuitos online para aprender IoT (Internet de las Cosas) en 2023 Internet de las Cosas (IoT) es una de las tecnologías digitales de nueva generación con un impacto significativo en múltiples sectores, desde la industria a la agricultura, pasando por...
Fran Ramírez Mujeres que cambiaron las Matemáticas Por Fran Ramírez y Fran Fenoll Aprovechando que en marzo también se celebra el día Internacional de las Matemáticas, hemos querido rendir con esta recopilación un pequeño homenaje a mujeres que...
Nacho Palou #MujeresHacker de Telefónica Tech: Jess Woods, experta en Cloud Con motivo del Día de la Mujer, iniciamos una serie de entrevistas protagonizadas por #MujeresHacker de Telefónica Tech. Mujeres que, con su trabajo y esfuerzo, nos convierten en una...
Sergio Piorno Güemes Un nuevo paradigma financiero: la tokenización de activos En los últimos años se ha acelerado la digitalización del ecosistema financiero gracias a la adopción generalizada de internet y su consecuente desarrollo. Esto, junto con el auge de los dispositivos móviles,...
Nacho Palou MWC: Todas las innovaciones y el conocimiento experto que hemos compartido Después de cuatro intensos días, Mobile Word Congress (MWC) 2023 se despide hoy hasta el año que viene. Desde el pasado lunes, los asistentes han tenido ocasión de ver...