Tu tienda online favorita te muestra su producto y haces clic. Reconócelo, su algoritmo de recomendación sabe incluso antes que tú, qué necesitas o deseas. Del mismo modo, sistemas de inteligencia artificial para la seguridad pueden analizar tu «perfil criminal» en un aeropuerto, supuesto en el que tu potencial de peligrosidad puede incrementarse en función de tu apariencia o etnia.
La discriminación racial es el ejemplo más recurrente cuando se habla de los sesgos de la inteligencia artificial (IA), si bien quizás sea más realista alertar sobre ataques a la privacidad o el uso de derechos personales. Lo cierto es que el desarrollo de la IA genera debate social.
En este 2021 aún más, ya que el control de la COVID-19 ha dado un empujón de años al uso de herramientas de IA. Esta tecnología ha tenido una oportunidad de oro para mostrarse robusta y útil, pero con el uso –como en el caso de las app de control de propagación del virus– ha llegado el debate sobre la ética de su funcionamiento y supuestas capacidades no confesables.
La mayor parte de la comunidad científica no pone ningún pero a esa exposición pública, si bien advierte de que mal direccionada la IA se podría sumir en un nuevo letargo. Y para que la inteligencia artificial no caiga en lo que llaman su invierno tecnológico necesita una regulación urgente, mensaje que replica la propia industria, por ejemplo, en boca de Elon Musk, el fundador de Tesla.
El llamamiento pone el foco en juristas y políticos, como los encargados y responsables de crear un marco garantista que permita su pleno desarrollo.
La IA debe generar un marco de confianza
Queda claro que como toda nueva tecnología, la IA presenta oportunidades y también amenazas. Se acuñan términos como el de singularidad tecnológica para marcar el fin de la era humana. La teoría defiende que para 2045 una inteligencia artificial podría ser tanto o más inteligente que una humana, la duda es quién podrá controlarla.
La Unión Europea ya se ha puesto manos a la obra. Y como hizo con la protección de datos, es posible que marque el paso al resto del mundo (al menos en materia de regulación, el Viejo Continente no pierde el paso).
El año pasado la Comisión Europea presentó el Libro blanco sobre la inteligencia artificial, que en su subtítulo hace su declaración de intenciones: “Un enfoque europeo orientado a la excelencia y la confianza”.
“Si bien la inteligencia artificial puede ayudar a proteger la seguridad de los ciudadanos y permitirles gozar de sus derechos fundamentales”, se puede leer en su punto cinco, “a estos también les preocupa el hecho de que la IA pueda tener efectos imprevistos o incluso que pueda utilizarse con fines malintencionados”.
Por ello, considera imprescindible generar ese marco de confianza que puede empezar a levantarse sobre “siete requisitos esenciales”. Los mismos que un año antes había identificado y publicado una comisión de expertos a instancia de la UE, Directrices éticas para una IA fiable, de octubre de 2019.
Los siete requisitos de la IA
Desde el punto de vista de los desarrolladores e implementadores de IA, estos requisitos se convierten en valiosas guías para acotar sus proyectos, y asegurar que sus capacidades tecnológicas no cruzan la frontera. No obstante, hay que aclarar que, al menos de momento, su cumplimiento no es obligatorio, pero sí lo son otros requisitos como la protección de datos, la privacidad o la no discriminación, por ejemplo.
1. Acción y supervisión humanas
Se trata de que la IA contribuya a hacer sociedades más equitativas, facilitando la integración y la autonomía de las personas. Además, siempre bajo el control humano en temas vitales, por ejemplo, la IA no podría tomar decisiones sobre la salud de las personas sin la supervisión de un sanitario, o atentar contra la vida de las personas (armas autónomas letales).
2. Solidez técnica y seguridad
La seguridad es un punto esencial para merecer la confianza de la sociedad, por eso debe estar diseñada para ser corregida durante todo su ciclo de vida para, por ejemplo, impedir que funcione con sesgos raciales o de género.
3. Gestión de la privacidad y de los datos
Los ciudadanos deben poder controlar sus datos y las inteligencias artificiales nunca utilizarlos para perjudicarlos o discriminarlos.
4. Transparencia
Por muy sofisticados que sean, los sistemas de IA deben ser entendibles, y para ello deben mostrar con transparencia su funcionamiento.
5. Diversidad, no discriminación y equidad
Debe considerar la diversidad humana para no tener sesgos injustos y ser accesible para todas las personas.
6. Bienestar social y ambiental
Debe ser un motor de progreso social positivo y contribuir a la protección del planeta.
7. Rendición de cuentas
Durante toda su vida debe permitir la supervisión y la auditabilidad, para comprobar que está cumpliendo con los objetivos para los que fue diseñado, sin ninguna perversión del sistema.
Y este es solo el principio. La rapidez con que la IA avanza obligará a introducir nuevos escudos de control y calidad, como el sistema de niveles de riesgo.
Una regulación que pronto tomará forma definitiva, y sobre la que la inteligencia artificial puede abrir un nuevo capítulo de desarrollo humano. Sí, suena grandilocuente, pero las empresas que sean capaces de ir tomando posiciones, puede que incluso se conviertan en protagonistas.
Imagen de Andy Kelly en Unsplash