Ciencia Ficción vs Inteligencia Artificial: HAL 9000 “Doctor, no entiendo a los humanos”

Fran Ramírez    27 junio, 2017


Escrito por Fran Ramírez, Investigador en Eleven Paths y escritor del libro “Microhistorias: anecdotas y curiosidades de la historia de la informática”. 

Cada vez que un vehículo autónomo sale a la carretera está recibiendo una gran cantidad de información procedente del mundo exterior a través de sus múltiples sensores (cámaras, proximidad, etc). Esta información es procesada en fracciones de segundo y con ella, debe de tomar todo tipo de decisiones. Pero ¿qué ocurre si es necesario tomar una decisión que implique un dilema moral? Por ejemplo, si de repente un peatón aparece en mitad de la carretera y la maniobra para esquivarlo (o no hacerlo) puede acabar en la muerte del peatón, del conductor, de otros viandantes o incluso en la destrucción del propio vehículo ¿cuál es la decisión acertada?

Estas situaciones de contradicción moral, la forma de afrontarlas y sus posibles consecuencias se trataron de forma magistral en un clásico de la Ciencia Ficción: “2001: Una Odisea del Espacio” (1968), avanzándonos estas situaciones y dilemas de un futuro que ahora parece cada vez más cerca.
En la película, la IA, llamada HAL9000, está a cargo de todos los controles a bordo de la nave espacial Discovery en su viaje de la
Tierra hasta Júpiter. Antes del comienzo de la misión, HAL recibió una serie de órdenes importantes que tendría que ejecutar.
Entre ellas, había una muy especial, secreta y de máxima prioridad. Esta orden
impedía a HAL contar a la tripulación la verdadera naturaleza de la
misión (estudiar el monolito en la órbita de Júpiter). En definitiva, se le
ordenó mentir. Dicho de otra forma, HAL entró en un estado desconocido y
paranoico al no saber cómo afrontar esta situación de indecisión y contradicción. “¿Qué hago si me preguntan los humanos por el verdadero objetivo de la misión?, ¿Cuáles son las prioridades, las misión o la vida de los tripulantes? Estas son sólo algunas de las preguntas que HAL tuvo que procesar en su cerebro lógico algorítmico heurísticamente programado (significado de las siglas HAL). Finalmente, esta serie de ordenes acabaron en un mal funcionamiento de HAL que termina de forma catastrófica aniquilando a prácticamente toda la tripulación de la nave espacial Discovery.

En la secuela “2010: Odisea Dos“, una nave espacia soviético-americana llamada Leonov, llega a Júpiter para intentar averiguar qué le ocurrió a la nave espacial Discovery y encontrar el motivo del mal funcionamiento de HAL 9000. Entre los tripulantes que viajaban en la Leonov, se encontraba el Dr. Chandra, posiblemente el personaje más interesante de la película que además es el padre en la ficción de la serie de ordenadores HAL 9000.
Antes del viaje a Júpiter, el Dr. Chandra intenta averiguar en la
Tierra el motivo del mal funcionamiento de HAL utilizando su gemelo SAL
(mismo modelo, pero en versión femenina). En una de las escenas más emotivas
para todos los fans de la Ciencia Ficción, Chandra le explica a SAL
si está dispuesta a ayudarle en averiguar qué le ocurrió a HAL. SAL acepta sin problemas, a pesar del aviso de Chandra
sobre las posibles consecuencias negativas de la desconexión de sus circuitos lógicos. Este aviso es muy importante, ya que Chandra
opta por no ocultarle información a SAL y prefiere advertirle del riesgo
de la operación.

En definitiva, no le miente como pasó con HAL. Posteriormente, ocurriría algo similar al final de la película
con HAL
donde Chandra le advierte que es muy probable que la nave Discovery
se destruya si finalmente ejecuta la orden que acababa de darle (podéis ver el video al final del post).

Según los libros de Arthur C. Clark, Dr.
Chandra
es un científico, pero no he visto ninguna referencia que
especifique a qué disciplina de la ciencia se dedicaba. Puede parecer obvio que
fuera físico o informático, pero yo prefiero pensar en el Dr. Chandra más en un
psicólogo que en un ingeniero (o posiblemente ambos). Durante las dos
películas,  Chandra no utiliza la
programación para intentar saber qué ha ocurrido con HAL (aunque se hace un
guiño al programa SHRDLU del MIT en algunas secuencias).
Simplemente se dedica a hablar de forma coloquial a ambas IA
utilizando palabras y los gestos (HAL Y SAL tienen cámaras para
el reconocimiento del entorno) como cualquier iteración entre un psicólogo y
sus pacientes. 

Esto que nos parece Ciencia Ficción, posiblemente será la forma de
interactuar con las
IA dentro de unos años, tanto para los usuarios que la utilizan
día a día para tareas rutinarias (esto ya está ocurriendo con sistemas como
Siri
por ejemplo) como para los técnicos especializados en repararlas o encontrar
fallos en su programación. Pasaremos de programar máquinas utilizando
matemáticas a programarlas hablando con ellas directamente intentando hacerlas
razonar para que ellas mismas se reprogramen internamente. 


Hoy día estamos desarrollando inteligencias artificiales a las cuales
estamos enseñando a tomar decisiones cada vez más complejas que tienen incluso
un impacto directo en nuestra sociedad. El objetivo final de esta nueva ciencia
es dejar que la
IA decida y aprenda por sí misma a la hora de tomar alguna de
estas decisiones. Pero esto nos conduce hacia un terreno desconocido, ya que
realmente corremos el peligro de llegar a un punto donde no sepamos con total seguridad qué está ocurriendo dentro de este cerebro artificial. Aunque los seres humanos seamos los creadores de estas
máquinas, una vez se marcan las pautas de aprendizaje (técnicas de
MachineLearning por ejemplo), es la misma IA la que evoluciona y desarrolla
sus propios “razonamientos” y “pensamientos” matemáticos dentro de su red de neuronas
artificiales. 


Figura 2: Superordenador creado por Google específicamente para tareas de Inteligencia Artificial. Fuente.
¿Qué ocurrirá cuando una IA cometa un error que pueda incluso
acarrear vidas humanas? Sólo el  personal muy especializado en comprender los complejos
modelos matemáticos que se ejecutan dentro de esa “caja negra” 
serán capaces de encontrar alguna pista sobre su mal
funcionamiento. Pero incluso estos perfiles altamente especializados lo tendrán
cada vez más difícil a medida que la complejidad de las
IA vaya creciendo a la vez que la velocidad de proceso de los ordenadores (y lo
hace muy deprisa, esto sin mencionar los ordenadores cuánticos). Cuando un ser
humano comete un acto incomprensible para el resto de la sociedad, no abrimos
su cerebro para analizar sus neuronas y ver qué ha podido llevarle a realizar
dichos actos. Por eso, la imagen del
Dr. Chandra hablando (o
más bien reprogramando) a
HAL será la imagen habitual de un
técnico de
IA intentando buscar el problema de funcionamiento en uno de
estos sistemas inteligentes. 



El anhelo del ser humano siempre ha sido llegar a crear una IA que funcione de la forma más parecida a nuestro cerebro. De hecho, es posible que lo estemos haciendo muy bien. Tan bien que, al igual que no sabemos exactamente cómo funciona internamente el cerebro humano, parece que lo mismo nos podría ocurrir con estos nuevos cerebros artificiales.


Así que la próxima vez que le des una orden contradictoria a Siri,
Google
Home
Amazon Echo o al flamante nuevo Apple HomePod, acuérdate antes de lo que le pasó a la tripulación
de la
Discovery 😉

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *