Conciencia, falacias e Inteligencia Artificial

Enrique Blanco    30 julio, 2019

¿Es posible que un robot o una Inteligencia Artificial (IA) adquiera conciencia de sí misma y sea capaz de tener emociones o sentimientos? En el caso de que no esté programada para tal efecto, la respuesta es categórica: no; no los podrá desarrollar jamás. A pesar de la complejidad y buen desempeño de las Inteligencias Artificiales actuales, una IA no deja de ser un código creado por un ser humano que sólo hace aquello para lo que está programado.

Los sentimientos humanos son derivados de las emociones, resultado de la actividad cerebral estructurada. El ser humano ha sido capaz de abstraer y refinar esas respuestas tras cientos de miles de años de evolución y supervivencia en un continuo proceso de prueba y error. Si recurrimos al símil habitual del Aprendizaje Reforzado (RL), un ser humano puede considerarse como un agente biológico (que además es replicable y auto reprogramable) que aprende a desenvolverse en el mundo y a dar una respuesta adecuada a todos los desafíos y amenazas que se le plantean.

Tomando como referencia los artículos de OpenAI que desde Ideas Locas hemos ido realizando durante los últimos meses, podemos continuar con el símil válido de un agente o IA que es capaz de maximizar su tiempo de “juego” en su “entorno” evitando perder su única vida de la mejor forma posible. En este entorno, sólo sobrevive y perdura la “versión de organismo” que presente una mejor capacidad de adaptación a su medio, maximizando las posibilidades de vivir más tiempo y con más calidad de vida.

Siempre hemos tendido a plasmar a los robots en la ficción como a un ente amenazador, que siempre termina desarrollando sentimientos hostiles hacia la humanidad; esto queda explicado por el miedo innato del hombre a ser reemplazado por las máquinas.

Figura 1. WALL•E como claro ejemplo de proyección de emociones en un objeto. Fuente

El caso presentado en la mayoría de las novelas y películas de ciencia ficción queda plasmada la tendencia que tenemos de proyectar muestras emociones en los objetos inanimados. La interpretación que el ser humano hace de la realidad, así como de los eventos que ocurren a nuestro alrededor, está sesgada por un filtro emocional del que hacemos uso para extraer algún sentido a lo observado. Parte de este sentimiento queda explicado a través de la conocida como falacia patética (la palabra “patética” aquí alude a la empatía y carece de tintes peyorativos) o falacia antropomórfica.

Casi todas las historias de ciencia ficción que versan sobre el levantamiento de las máquinas no sólo caen en esta falacia con facilidad, sino que también siguen un desarrollo similar en la evolución de la conciencia de la IA: por lo general la máquina primero toma conciencia de sí misma para posteriormente desarrollar sentimientos hostiles y rebelarse contra los humanos (como son los casos de SkyNet en Terminator, VIKI en Yo Robot, WOPR en WarGames o HAL 9000 con sus excepciones en 2001: una Odisea en el Espacio).

En otras series, como por ejemplo la renovada Westworld, se cae de lleno en la falacia, aunque se plantea la posibilidad de resolverla tomándose las licencias que, por supuesto, podemos permitir a las ficciones de este tipo. Aquí se cambia radicalmente el enfoque y usa la exploración de las emociones con las que los huéspedes han sido programados como una vía o medio a través del cual una IA puede llegar a tener una conciencia. El hecho de si esta conciencia es verdadera es un hecho discutible y muy difícil de probar, además de tratarse de algo que lleva debatiéndose desde hace mucho tiempo con el experimento mental de la Habitación China o el Test de Turing.

Google Duplex: cómo la IA está cada vez más cerca de pasar el Test de Turing.

Actualmente, sólo el ser humano tiene la capacidad de imaginar, simular eventos, formularse preguntas y plantearse diferentes futuros en función de su experiencia actual. La capacidad de imaginar y la curiosidad es lo que mueve nuestro mundo, y esa capacidad imaginativa se ha ido refinando como resultado de un proceso de acierto, error. Sin embargo, moviéndonos siempre dentro de un escenario ficticio y, partiendo de la base de que el ser humano algún día será capaz de crear una IA holística, podría llegar el momento en el que los desarrolladores otorguen a las máquinas las herramientas necesarias para que sean imaginativos y de que las respuestas que tomen estén, por primera vez, fuera de nuestro control. En definitiva, una herramienta que les permita asomarse al libre albedrío y, quien sabe, a obtener algún día hacia un tipo de conciencia.

Haciendo un símil con el estado del arte actual del Deep Learning, uno de los primeros pasos a realizar sería permitir a un determinado modelo modificar su código y dirigir su acción más allá de los criterios hardcodeados por los programadores que les han diseñado, de la misma forma que las conexiones neuronales de un ser humano cambian sus conexiones neuronales conforme transcurre su aprendizaje (plasticidad neuronal o sináptica) dentro de unos límites fijados (o no). Google ya ha realizado alguna investigación al respecto, donde hacen uso de algoritmos evolutivos y aprendizaje reforzado para la autoexploración de arquitecturas de Redes Neuronales.

Esperamos que este distendido artículo haya resultado entretenido tanto para los que disfrutáis de unas merecidas vacaciones durante estas fechas estivales como para aquellos que todavía no las han comenzado o que ya han vuelto a la rutina.

Para mantenerte al día con LUCA, visita nuestra página web,  suscríbete a LUCA Data Speaks o síguenos en TwitterLinkedIn YouTube.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *