“Top Gun” y los límites de la inteligencia artificial

Víctor Deutsch    14 junio, 2022
limites-inteligencia-artificial

Estaréis al tanto del reciente estreno mundial deTop Gun: Maverick”, secuela de la película “Top Gun”, producida hace nada menos que treinta y seis años. Ambos films siguen las peripecias de un grupo de pilotos de élite, entrenados en una escuela de armas real: la Navy Fighter Weapons School de Miramar (California), apodada Top Gun.

A primera vista, el trasfondo parece solo una excusa para filmar espectaculares escenas aéreas y de acción. En ambos largometrajes los guionistas retratan la posición de los jefes militares frente a la tecnología digital de la época, que incluye las más avanzadas herramientas para el control y pilotaje de aeronaves. Ahí es donde si uno mira con atención puede hacerse una lectura interesante sobre cómo ha cambiado nuestra percepción de la inteligencia artificial en este período.

La relación entre los sistemas y los pilotos

En la película original la creación de Top Gun se basa en un hecho histórico que se explica fielmente en el guion. Entre la guerra de Corea (1950-1953) y la de Vietnam (1961-69) los pilotos de caza de los EE.UU. habían perdido muchísima destreza en el combate aéreo respecto a sus adversarios del bloque soviético. La media de victorias 6:1 (por cada seis aviones enemigos derribados, pérdida de uno propio) se había reducido a 3:1, incluso hasta 2,5:1 en el último período analizado.

Por eso en 1969 se puso a trabajar a un grupo de expertos para extraer conclusiones y recomendaciones. Uno de los informes más influyentes fue el del capitán Frank Ault, jefe del grupo aéreo del portaaviones USS Coral Sea. Su observación fue que los pilotos habían sido entrenados para defenderse utilizando solo unos sistemas automáticos de lanzamiento de misiles. Se habían convertido en simples pasajeros de los que se esperaba que apretasen un botón y el sistema de armas “inteligente y autónomo” hiciera el resto.

El problema era que esos sistemas funcionaban muy mal a baja altura y los pilotos terminaban lanzando los misiles a ojo o por intuición. El 50 por ciento de las veces no estaban alineados con el blanco, con lo cual era imposible que acertaran. Del otro 50 por ciento alguno podía dar en el blanco si los misiles no fallaban, eran evadidos o atraídos por un señuelo.

1986: confianza en el hombre frente a la máquina

Ault recomendó entonces la creación de lo que luego sería Top Gun para reentrenar a los pilotos en combate a baja altura y corta distancia. Se trataba de prescindir de la tecnología de automatización y volver a las fuentes del combate aéreo de medio siglo atrás, usando correctamente los misiles y volviendo al concepto de “artillería aérea” (luchar con cañones y ametralladoras). 

Todo este trasfondo se aprecia claramente en los diálogos y en las maniobras de entrenamiento simuladas de la película de 1986. Se trata a la “tecnología inteligente” con desconfianza. Todos los mandos militares aparecen convencidos de la superioridad de la capacidad humana sobre la máquina. Quizá no sea casualidad que la década de 1980 se considere “el invierno de la inteligencia artificial” , dado que esta había defraudado las prometedoras expectativas generadas durante la década anterior.

2022: los pilotos vocacionales, en extinción en Top Gun

En cambio, la película estrenada este año muestra una situación completamente diferente. Según los guionistas, los mandos militares están absolutamente convencidos de la superioridad de la inteligencia artificial sobre el hombre. Los pilotos vocacionales como Maverick se presentan como una rareza.

De hecho, el personaje del contraalmirante, que interpreta Ed Harris, dice en un diálogo: “El futuro está en camino y tú no estás en él. El final es inevitable, Maverick. Tu clase se dirige a la extinción”. Para ser más explícito, aclara que los aviones tripulados son cosa del pasado y los pilotos como Maverick que comen, van al baño y desobedecen órdenes, también.

¿Por qué este cambio en la percepción de la inteligencia artificial?

Pero ¿por qué se ha producido este bandazo en nuestra percepción de la inteligencia artificial en estos 36 años? Sin duda tiene que ver con la continua evolución de los vehículos autónomos.

En 1986, aunque ya había grandes proyectos de investigación al respecto, la capacidad de cómputo era muy limitada y el número de variables a procesar para dirigir un vehículo autónomo, demasiado grandes. Además, se requería de mucho espacio para la electrónica y el tiempo de reacción era muy lento para lo que se requería.

En la actualidad la capacidad de cómputo y la miniaturización de componentes ha mejorado lo suficiente como para que coches, camiones, trenes, barcos y aviones puedan moverse de un lado a otro de forma autónoma y segura. Incluso pueden cumplir algunas tareas de carga y descarga, repostaje e incluso misiones de ataque en el caso de los vehículos militares equipados con sistemas de armas. Pero ¿es verdad lo que se sostiene en la última versión de la película? ¿Cuáles son los límites de la inteligencia artificial en 2022?

Los límites de la inteligencia artificial

Como hemos visto en artículos anteriores, los paradigmas de la inteligencia artificial se pueden aplicar con éxito cuando intentamos resolver problemas o tomar decisiones con un número limitado de datos variables. La conducción autónoma o el pilotaje de aviones necesitan un gran número de esos datos (climáticos, posicionales, motores, cargas) pero siguen siendo dominios limitados, donde entendemos bien la influencia de cada variable en la resolución del problema. En este tipo de casos, con la actual y creciente capacidad de cómputo, la inteligencia artificial obtiene resultados impresionantes.

La cuestión es bien diferente cuando abordamos dominios con un número casi ilimitado de variables. Por ejemplo, el pronóstico de los resultados deportivos. Ya vimos el enorme fracaso de la inteligencia artificial al intentar prever el ganador de un Mundial de Fútbol. Y recientemente también ha habido fallos cuando se trató de predecir el ganador de la Champions League. O el resultado de la final del abierto de tenis de Australia , donde asignaba a Rafa Nadal un 4 por ciento de posibilidades de alcanzar la victoria.

El fallo de la Iinteligencia artificial en el abierto de Australia (imagen de Eurosports)

En este caso la cuestión no es que el resultado de un problema no dependa de los valores de una serie de variables, sino que el número de variables y posibles combinaciones se dispara exponencialmente.

Ni siquiera somos capaces de identificar muchas de ellas para poder observar todas las variables posibles. Imaginad los datos físicos, anímicos y técnicos de todos los jugadores de un equipo de fútbol. Y, por supuesto, si no se conocen no se pueden modelar para obtener un resultado. Por tanto, solo se pueden hacer aproximaciones con un conjunto limitado de variables, lo que suele llevar al fracaso o a obtener una respuesta al azar.

La inteligencia artificial frente al COVID-19

Algo parecido ocurrió con la pandemia de coronavirus. El título de este artículo del MIT Review es suficientemente elocuente: “Hundreds of AI tools have been built to catch COVID. None of them helped.” (“Se construyeron cientos de herramientas de inteligencia artificial para detener el COVID. Ninguna de ellas ayudó.”).

O este otro del portal especializado Towardsdatascience.com: “When the world needed it most, artificial intelligence failed…” (“Cuando el mundo más la necesitaba, la inteligencia artificial falló”). 

Este reportaje del Harvard Business Review da algunas pistas.

“La pandemia del COVID-19 fue el momento perfecto para que la inteligencia artificial, literalmente, salvara al mundo. Hubo una convergencia sin precedentes entre la necesidad de decisiones rápidas y basadas en pruebas y una resolución de problemas a gran escala con conjuntos de datos de todos los países. Para los sistemas sanitarios que se enfrentan a una enfermedad nueva y de rápida propagación la inteligencia artificial era, en teoría, la herramienta ideal. Podría desplegarse para hacer predicciones, mejorar la eficiencia y liberar personal mediante la automatización; podría ayudar a procesar rápidamente grandes cantidades de información y a tomar decisiones que salvan vidas.

O, al menos esa era la idea. Pero lo que realmente pasó es que la inteligencia artidicial falló en general.”

El motivo fue el que veíamos: los límites de la inteligencia artificial. En una enfermedad nueva, en pleno proceso de investigación, no se conocían de antemano todas las variables que intervienen en ella. Por tanto, sin un adecuado conocimiento experto humano, es imposible construir un modelo lo suficientemente fiable. Si, además, hablamos de dificultades para compartir información entre diferentes equipos y de datos inexactos todo se complica aún más.

¿Qué ha cambiado en 36 años respecto a la inteligencia artificial?

En definitiva, la inteligencia artificial de nuestros días se parece mucho a la de 1986, aunque hayan pasado 36 años. Los modelos de representación del conocimiento y las técnicas algorítmicas de inferencia o razonamiento son los mismos desde hace décadas. Lo único que ha evolucionado es la capacidad de cómputo, lo que hace que los resultados en dominios acotados se obtengan ahora en un tiempo razonable y sean aplicables a más dominios.

¿Está Maverick en vías de extinción?

La película de 2022 juega con el concepto de “límite”, es una palabra que se repite mucho. La inteligencia artificial o “autonomatización” de los aviones de combate tiene un límite -se dice. Es el de la tecnología para recopilar y procesar en tiempo real un número limitado de variables, que se va incrementando gradualmente para perfeccionar el modelo. Más allá de ese límite debe intervenir el “factor humano”: las habilidades del piloto.

Sin hacer spoiler, puede decirse que en el film se tira de la tecnología hasta ese límite y el resto que hace falta para completar una misión muy difícil lo tiene que poner el piloto con sus habilidades innatas y su entrenamiento intensivo. En definitiva, la inteligencia artificial de 2022 es una ayuda para la aviación de combate pero todavía se necesita al piloto para realizar tareas extremadamente complejas.

¿Superará la inteligencia artificial a las capacidades humanas?

Con las técnicas actuales es difícil de afirmar si llegará ese momento. Tenemos una inteligencia artificial fundamentalmente “tonta”, que se basa en la “fuerza bruta” de la capacidad de procesamiento de datos. La inteligencia artificial actual tiene que explorar todas las posibilidades de solución de un problema (un desperdicio de esfuerzo). Incluso aunque demos el salto cualitativo a los computadores cuánticos para obtener resultados para problemas complejos en un tiempo razonable, la necesidad de recursos sería brutal.

Hacia nuevos modelos de inteligencia artificial basados en nuestro cerebro

Mientras tanto, nuestro cerebro utiliza heurísticas o atajos (algunos lo llamarían “intuición”) para obtener resultados de forma mucho más rápida y con menos recursos. Para cambiar nuestros modelos de inteligencia artificial aún nos queda mucho por saber de la fisiología del cerebro y encontrar la forma de emularla. Solo con nuevos modelos de razonamiento y representación del conocimiento más parecidos a la naturaleza se podrían obtener mejores resultados con nuestra actual tecnología de procesamiento de datos.

Por ahora, a la inteligencia artificial le va a costar mucho predecir y emular el nivel de dolor y disfunción muscular que puede aguantar Rafa Nadal, cuánto puede estirar sus dedos Thibaut Courtois para parar un remate o cuántas “G” puede soportar un avión antes de desintegrarse.

Por eso, al plantearse un proyecto de este tipo es necesario tener expectativas realistas, conocer los límites de la inteligencia artificial. Se trata de una gran tecnología para resolver determinados tipos de problemas acotados. Pero si intentamos llevarla más allá estaremos condenados al fracaso.

Imagen: Paramount Pictures

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada.