Ciencia Ficción vs Inteligencia Artificial: HAL 9000 «Doctor, no entiendo a los humanos»

Fran Ramírez    27 junio, 2017

Cada vez que un vehículo autónomo sale a la carretera está recibiendo una gran cantidad de información procedente del mundo exterior a través de sus múltiples sensores (cámaras, proximidad, etc). Esta información es procesada en fracciones de segundo y con ella, debe de tomar todo tipo de decisiones.

Pero, ¿qué ocurre si es necesario tomar una decisión que implique un dilema moral? Por ejemplo, si de repente un peatón aparece en mitad de la carretera y la maniobra para esquivarlo (o no hacerlo) puede acabar en la muerte del peatón, del conductor, de otros viandantes o incluso en la destrucción del propio vehículo ¿cuál es la decisión acertada?

Estas situaciones de contradicción moral, la forma de afrontarlas y sus posibles consecuencias se trataron de forma magistral en un clásico de la Ciencia Ficción: “2001: Una Odisea del Espacio” (1968), avanzándonos estas situaciones y dilemas de un futuro que ahora parece cada vez más cerca.

En la película, la IA, llamada HAL9000, está a cargo de todos los controles a bordo de la nave espacial Discovery en su viaje de la Tierra hasta Júpiter. Antes del comienzo de la misión, HAL recibió una serie de órdenes importantes que tendría que ejecutar. Entre ellas, había una muy especial, secreta y de máxima prioridad.

Esta orden impedía a HAL contar a la tripulación la verdadera naturaleza de la misión (estudiar el monolito en la órbita de Júpiter). En definitiva, se le ordenó mentir. Dicho de otra forma, HAL entró en un estado desconocido y paranoico al no saber cómo afrontar esta situación de indecisión y contradicción. “¿Qué hago si me preguntan los humanos por el verdadero objetivo de la misión?, ¿Cuáles son las prioridades, las misión o la vida de los tripulantes? Estas son sólo algunas de las preguntas que HAL tuvo que procesar en su cerebro lógico algorítmico heurísticamente programado (significado de las siglas HAL). Finalmente, esta serie de ordenes acabaron en un mal funcionamiento de HAL que termina de forma catastrófica aniquilando a prácticamente toda la tripulación de la nave espacial Discovery.

En la secuela “2010: Odisea Dos“, una nave espacia soviético-americana llamada Leonov, llega a Júpiter para intentar averiguar qué le ocurrió a la nave espacial Discovery y encontrar el motivo del mal funcionamiento de HAL 9000. Entre los tripulantes que viajaban en la Leonov, se encontraba el Dr. Chandra, posiblemente el personaje más interesante de la película que además es el padre en la ficción de la serie de ordenadores HAL 9000.

Antes del viaje a Júpiter, el Dr. Chandra intenta averiguar en la Tierra el motivo del mal funcionamiento de HAL utilizando su gemelo SAL (mismo modelo, pero en versión femenina). En una de las escenas más emotivas para todos los fans de la Ciencia Ficción, Chandra le explica a SAL si está dispuesta a ayudarle en averiguar qué le ocurrió a HALSAL acepta sin problemas, a pesar del aviso sobre las posibles consecuencias negativas de la desconexión de sus circuitos lógicos. Este aviso es muy importante, ya que Chandra opta por no ocultarle información a SAL y prefiere advertirle del riesgo de la operación.

En definitiva, no le miente como pasó con HAL. Posteriormente, ocurriría algo similar al final de la película con HAL donde Chandra le advierte que es muy probable que la nave Discovery se destruya si finalmente ejecuta la orden que acababa de darle (podéis ver el video al final del post).

Según los libros de Arthur C. ClarkDr.Chandra es un científico, pero no he visto ninguna referencia que especifique a qué disciplina de la ciencia se dedicaba. Puede parecer obvio fuera físico o informático, pero yo prefiero pensar en el Dr. Chandra más un psicólogo que en un ingeniero (o posiblemente ambos). Durante las dos películas, Chandra no utiliza la programación para intentar saber qué ha ocurrido con HAL (aunque se hace un guiño al programa  SHRDLU del MIT en algunas secuencias). Simplemente se dedica a hablar de forma coloquial a ambas IA utilizando palabras y los gestos (HAL Y SAL tienen cámaras para el reconocimiento del entorno) como cualquier iteración entre un psicólogo y sus pacientes. 

Esto que nos parece Ciencia Ficción, posiblemente será la forma de interactuar con las IA dentro de unos años, tanto para los usuarios que la utilizan día a día para tareas rutinarias (esto ya está ocurriendo con sistemas como Siri por ejemplo) como para los técnicos especializados en repararlas o encontrar fallos en su programación. Pasaremos de programar máquinas utilizando matemáticas a programarlas hablando con ellas directamente intentando hacerlas razonar para que ellas mismas se  reprogramen internamente. 

Hoy día estamos desarrollando inteligencias artificiales a las cuales estamos enseñando a tomar decisiones cada vez más complejas que tienen incluso un impacto directo en nuestra sociedad. El objetivo final de esta nueva ciencia es dejar que la IA decida y aprenda por sí misma a la hora de tomar alguna de estas decisiones. Pero esto nos conduce hacia un terreno desconocido, ya que realmente corremos el peligro de llegar a un punto donde no sepamos con total seguridad qué está ocurriendo dentro de este cerebro artificial. Aunque los seres humanos seamos los creadores de estas máquinas, una vez se marcan las pautas de aprendizaje (técnicas de Machine Learning por ejemplo), es la misma IA la que evoluciona y desarrolla sus propios “razonamientos” y “pensamientos” matemáticos dentro de su red de neuronas artificiales.

¿Qué ocurrirá cuando una IA cometa un error que pueda incluso acarrear vidas humanas? Sólo el personal muy especializado en comprender los complejos modelos matemáticos que se ejecutan dentro de esa “caja negra” serán capaces de encontrar alguna pista sobre su mal funcionamiento. Pero incluso estos perfiles altamente especializados lo tendrán cada vez más difícil a medida que la complejidad de las IA vaya creciendo a la vez que la velocidad de proceso de los ordenadores (y lo hace muy deprisa, esto sin mencionar los ordenadores cuánticos). Cuando un ser humano comete un acto incomprensible para el resto de la sociedad, no abrimos su cerebro para analizar sus neuronas y ver qué ha podido llevarle a realizar dichos actos. Por eso, la imagen del Dr. Chandra hablando (o más bien reprogramando) a HAL será la imagen habitual de un técnicoe IA intentando buscar el problema de funcionamiento en uno de estos sistemas inteligentes.

El anhelo del ser humano siempre ha sido llegar a crear una IA que funcione de la forma más parecida a nuestro cerebro. De hecho, es posible que lo estemos haciendo muy bien. Tan bien que, al igual que no sabemos exactamente cómo funciona internamente el cerebro humano, parece que lo mismo nos podría ocurrir con estos nuevos cerebros artificiales.

Así que la próxima vez que le des una orden contradictoria a Siri, Google Home, Amazon Echo o al flamante nuevo Apple HomePod, acuérdate antes de lo que le pasó a la tripulación de la Discovery 😉


Si te ha gustado este artículo no te pierdas el siguiente de la serie Ciencia Ficción vs Inteligencia Artificial:  

Ciencia Ficción vs Inteligencia Artificial ¿Qué tal una partidita de Ajedrez, Dr. Falken?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *