¿Por qué regular la inteligencia artificial?

Raúl Salgado    25 abril, 2023
Por qué regular la inteligencia artificial

“Cuando pensábamos que los algoritmos y los modelos de Big Data eran el presente y el futuro, surge algo mucho más poderoso y sorprendente como la inteligencia artificial (IA). Una acumulación de tecnologías (reconocimiento de voz, reconocimiento de imagen, algoritmos de aprendizaje profundo), y nos deslumbra con la irrupción de un modelo imperfecto pero inquietantemente poderoso como chat GPT”.

Es parte del artículo que José María Álvarez-Pallete, presidente ejecutivo de Telefónica, publicaba recientemente bajo el título IA: Es el momento de pararse a pensar”.

Hace unos tres años, Stuart J. Russell, profesor de Ciencias de la Computación en la Universidad de California, alertaba de que la creación de una inteligencia superior podría ser el mayor acontecimiento en la historia de la humanidad, pero que también podría ser el último.

Moratoria de seis meses

El debate está servido. Miles de expertos han pedido paralizar durante seis meses la investigación en torno a la inteligencia artificial para regularla y elaborar protocolos de seguridad, teniendo en cuenta que podemos estar ante la mayor revolución tecnológica de los últimos 40 años.

“Es probable que hoy no exista un consenso sobre si es necesaria una moratoria o no en el avance de la Inteligencia Artificial General (IAG) a nivel mundial. Incluso hay opiniones que creen que, si sólo una parte de la humanidad decide declarar esta moratoria, la otra parte tendrá una ventaja competitiva determinante y se podría crear una desestabilización del orden geopolítico mundial”.

Álvarez-Pallete cree que es una cuestión de valores. “Debemos poner a las personas en el centro. Los derechos de las personas por encima de cualquier otro criterio. Hoy no es así”, escribe.

Futuro complejo, pero prometedor

Ulises Cortés, catedrático de IA en la Universidad Politécnica de Cataluña, opina que el futuro de la inteligencia artificial como disciplina científica es prometedor, y espera que siga avanzando en los próximos años. Pero en el caso europeo, ve necesario potenciar la soberanía tecnológica y facilitar el acceso a la inversión en investigación.

“Desde el punto de vista de las aplicaciones, ya es un factor de cambio social y económico de primera magnitud. Por eso, espero que los gobiernos comiencen a regular su aplicación. En Europa, me gustaría que el AI Act entrase en vigor lo antes posible”, apostilla.

Por su parte, José I. Latorre, director del Center for Quantum Technologies de Singapur, augura a la IA un futuro temible y complejo, pero brillante. “La inteligencia artificial sigue en su tierna infancia. Todavía no nos es posible vislumbrar el profundo impacto que tendrá en nuestras vidas. Su progreso es tan inexorable como difícil de predecir”, asegura.

Ventajas y amenazas de la IA

Si la IA coloca a las personas en el centro de las decisiones, puede ser una ayuda formidable para extender las capacidades humanas hasta límites insospechados tiempo atrás.

Las ventajas son múltiples y variadas. Esta tecnología puede procesar ingentes cantidades de datos, sin las limitaciones propias de un cerebro humano. Es rápida, eficiente y puede usarse para el cuidado de mayores, la educación de los pequeños, la gestión de empresas, la generación de predicciones útiles, etc.

Pero su desarrollo no está exento de dilemas sociales, como la confianza en los algoritmos basados en la IA y la responsabilidad en caso de discriminación o sesgos. Así como de amenazas, muchas de ellas relacionadas con la dejación ética por parte de los humanos. Porque si el avance hacia la inteligencia sobrehumana resulta imparable, su éxito podría suponer la perdición de nuestra especie.

El riesgo de perder el control de nuestra civilización

Los firmantes de la carta piensan que la IA avanzada podría representar un cambio profundo en la historia, e instan a gestionarla con el cuidado y los recursos correspondientes.

Se preguntan si debería permitirse que las máquinas empantanen con propaganda y falsedad medios de comunicación y redes sociales, así como si convendría facilitar el desarrollo de mentes no humanas que podrían superarnos en número, ser más inteligentes y reemplazarnos, e incluso ganar el control de nuestra civilización.

Máquinas con más capacidades que el cerebro humano

Álvarez-Pallete explica en su artículo que, hasta ahora, la razón y el pensamiento científico eran una prerrogativa humana. “En nuestro planeta solo el hombre era capaz de desarrollarlo. Pero hoy, el hombre está creando máquinas que también son capaces de razonamientos lógicos y, si siguen evolucionando al ritmo exponencial que lo hacen hoy, probablemente superarán las capacidades de nuestro cerebro”.

Sin embargo, añade que “las máquinas nunca serán capaces de emular todas las capacidades humanas. Porque algunas como la emoción, la empatía, la compasión, la solidaridad, la amistad, el amor, la valentía, o la necesidad de justicia, son exclusivamente humanas. Son parte de nuestro ser”.

“Ha llegado la hora de parar y pensar”

En cualquier caso, el presidente ejecutivo de Telefónica remarca que “ha llegado la hora de parar y pensar como sólo los humanos somos capaces de hacerlo. Ha llegado la hora de parar y redactar un nuevo contrato social. Para decidir y determinar cuáles son los derechos y obligaciones básicas de personas y máquinas en este nuevo mundo”.

En este sentido, Ulises Cortés advierte de que si las grandes tecnológicas siguen imponiendo el ritmo de adopción de las tecnologías basadas en la IA sin ningún control, se vislumbran peligros para los derechos humanos, en particular, para el derecho a la privacidad y a la intimidad y, también para la democracia, como ya se mostró en el caso de Cambridge Analytica.

Peligros de los abusos

“El uso y abuso de los sistemas basados en IA presenta amenazas reales, como la propagación de noticias falsas (fake news), la sofisticación de los métodos de phishing y la posibilidad de que los sistemas de IA sean hackeados”.

Cortés sostiene que el caso de los LLM (Large Language Models), como ChatGPT o LLaMA, es un ejemplo más de estas prácticas abusivas y asimétricas que se realizan al amparo de las zonas grises del ciberespacio, donde no hay legislación o es ambigua.

Asimismo, avisa de que los sistemas basados en la IA pueden tener un impacto negativo en el empleo, ya que algunos trabajos pueden ser sustituidos por sistemas de inteligencia artificial, sobre todo en los países del tercer mundo, o en China, donde ya está sucediendo.

Claves para su regulación

Todo Titanic puede enfrentarse a su particular iceberg. Si se fabrican coches rápidos y potentes, capaces de circular por encima de los 200 kilómetros por hora, habrá que limitar por ley su velocidad para que no amenacen la seguridad vial.

Porque, tal y como expone José I. Latorre, “todo avance científico y tecnológico que supere con creces las capacidades humanas debe regularse. La IA debe ser regulada lo antes posible. Es una tarea que nos compete a todos. Esperemos que el aparato político y el judicial asuman su responsabilidad y actúen con presteza”, indica este experto.

Ahora bien, ¿cómo hacerlo?

Ulises Cortés sostiene que el primer paso tendría que ser la creación de una agencia de certificación y sandboxes. Y, a partir de ahí, impulsar una política fuerte de multas y prohibiciones a quienes incumplan la ley.

Asimismo, piensa que habría que legislar para hacer obligatoria la educación en aspectos de tecnología digital, ciberseguridad e IA.

Pese a que la IA y sus aplicaciones tengan el potencial de mejorar la vida humana y evitar el deterioro ambiental, es importante abordar estas amenazas y establecer regulaciones y políticas adecuadas para garantizar un uso responsable y ético, legal, socioeconómico y cultural de las aplicaciones de IA en consonancia con el respeto a los derechos humanos.

“Es urgente que se aborden estos dilemas y se establezcan regulaciones y políticas adecuadas para garantizar un uso responsable y ético de las aplicaciones de la IA”, concluye Ulisés Cortés.

Imagen de Freepik

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *