Inteligencia artificial: familiarizados con ella pero muchas cuestiones en el aire

Manuel García Gil    30 noviembre, 2021

Hace tiempo cuando se hablaba de inteligencia artificial tendíamos a pensar en funestas visiones de androides con aviesas intenciones o constructos tecnológicos de la más variada índole, y de nuevo, con connotaciones no demasiado agradables.

Ahora el panorama es bien distinto. Estamos acostumbrados a escuchar hablar de inteligencia artificial y nos hemos familiarizado con este tipo de sistemas. Machine Learning o deep learning son términos que ya están en nuestro vocabulario sin que la mayoría de las veces nos impresionen.

Pero  no debemos olvidar que la inteligencia artificial es una disciplina que está conociendo un crecimiento exponencial en lo relativo a su desarrollo, sus aplicaciones inmediatas y usos imaginados. De ahí la importancia de una inteligencia artificial responsable.

Sostenibilidad, ética y consideraciones legales

En este río de innovación toca preguntarse si es lícito cualquier uso de las técnicas y tecnologías de la inteligencia artificial o, por el contrario, hay que tener en cuenta conceptos como sostenibilidad, ética y aspectos legales.

Cuando ya existe un matrimonio de un ser humano con un holograma – sí, lo hay, aunque pueda parecer de novela de ciencia ficción- es pertinente hacerse la pregunta “¿hacia dónde vamos?” y también si tenemos alguna red de seguridad bajo nuestros pies.

Mucho en juego y un debate abierto

No quiero apuntar a Skynet, la inteligencia artificial de Terminator, pero es indiscutible que cada día miles de algoritmos toman decisiones de forma autónoma, reemplazando al criterio humano para, supuestamente, lograr una mayor o mejor eficiencia. Pero, ¿es así realmente?

El debate en torno a la inteligencia artificial está de candente actualidad por el calado que tiene por lo que nos jugamos como sociedad y como especie.

En la cuarta sesión del Foro Sociedad digital 2021 de Fundación Telefónica se abordó precisamente en qué consiste el uso responsable de la inteligencia artificial. También qué impacto tiene o puede tener y cómo sentar bien sus bases y que la inteligencia artificial haga, a su vez, el bien. ¿A qué nos referimos cuándo hablamos de ética de la inteligencia artificial o de la responsabilidad en la relación humano-máquina? ¿Qué es Green IT o la sostenibilidad en inteligencia artificial?

El encuentro contó con cuatro ponentes de excepción: Nacho Rivero, CEP de Overview Effect; Coral Calero, catedrática de la UCM experta en green IT y algoritmos verdes; Idoia Salazar, presidenta de OdiseIA y profesora de CEU San Pablo e Ignacio Gavilán, CEO de Reingeniería Digital.

Y se articuló sobre cuatro ejes: sostenibilidad, Green IT, ética e interacción entre inteligencia artificial y humanos.

Inteligencia artificial responsable con las personas y el entorno

Hablar de sostenibilidad en el ámbito de la inteligencia artificial puede sonar un tanto filantrópico o algo distante del negocio. Pero ambas cosas deben ir de la mano porque la inteligencia artificial está embebida en el concepto de digitalización sobre el que viajamos desde hace mucho tiempo. En este sentido, la inteligencia artificial debe tener, aparte del puramente de negocio, un propósito social y medioambiental (AI for Good). Si no tiene un impacto positivo en la sociedad, pierde el sentido. La inteligencia artificial debe ser responsable con las personas y el entorno, ayudar a encontrar modelos de trabajo y de negocio sostenibles.

La huella energética de los algoritmos

En otro de los ejes se vio que todos generamos una huella tecnológica, de consumo energético, que aumenta constantemente, sin que nos demos cuenta. Tenemos fotos en el móvil y en la nube, nuestras redes sociales llenas de información, imágenes y videos. No nos molestamos en borrar nada pero hay que tener en cuenta que cada uno de nosotros genera a lo largo del año miles de Mb o de Gb de datos que son procesados, balanceados, almacenados, conservados, dirigidos, consumidos etc. Y todo esto exige que múltiples data centers en el mundo pongan energía y recursos a nuestra disposición. ¿Debería por tanto automatizarse la eliminación cada cierto tiempo de todo ese material? Es controvertido, nos topamos con temas de privacidad.

El green computing, o Green IT apuesta, por tanto, por tecnologías de compresión y optimización que permiten reducir los datos que se almacenan, así como la forma de procesarlos. Pasar de un 80 por ciento en la precisión que consigue un algoritmo a un 99,9 por ciento significa pasar de poder hacerlo en un PC potente a tener que usar un superordenador. Esto incrementa la huella de carbono y el consumo energético. La cuestión es, que, aunque probablemente con un 80 por ciento de precisión se resolvería el problema, queremos el 99,9 por ciento… ¿Estamos preparados para una sociedad en la que entrenar a un algoritmo complejo de inteligencia artificial sea comparable en huella energética a la vida útil de varios coches? Pensemos que hablamos de miles de algoritmos empresariales.

¿”En manos” de los algoritmos?

El tercer bloque del encuentro giró en torno a si estamos listos para que una pila de algoritmos tome decisiones por nosotros de manera continua. También se planteó si podemos dejar en “sus manos” los sesgos, que incluyan o no a un grupo de población, que usen o ignoren algunos datos… ¿Podemos abstraemos de decisiones éticas o morales porque “lo ha decidido el algoritmo”? Además,  ¿sirve de algo que planteemos códigos éticos y deontológicos en ámbitos regionales o locales, cuando Internet es global? La respuesta es que sí.

La responsabilidad social y la sostenibilidad van de la mano con la aplicación ética y sus diferentes dimensiones. Hemos de ser responsables de cuidar no solo el contexto y las variables que se exponen a una inteligencia artificial sino también no dejar autonomía absoluta a algoritmos que van a tener auténtico impacto, ya sea en una organización, localidad o región. Las implicaciones éticas concernientes al uso indiscriminado de la inteligencia artificial pueden ser de gran calado y, además, la objetividad absoluta puede no ser lo mejor o puede no ser humano.

Robots inteligentes, empáticos ¿y con derechos?

Se reservó para el final el tema casi más etéreo pero más complejo: ¿tiene derechos un robot, un elemento de inteligencia artificial? No pensemos solo en el típico brazo robótico industrial del que nadie entra a considerar si tiene derechos o sentimientos. Hagámoslo en los robots sociales, que están diseñados para interactuar con los seres humanos y, de alguna forma, empatizar con nosotros. Algunos de ellos todavía son primitivos pero, como veíamos,  ya hay un matrimonio de humano y holograma…

Puede parecer frívolo sentir afecto por un robot aspiradora pero, sin duda, un niño puede llegar a querer a su perro robot. Y lo mismo ocurre con los robots que se usan para acompañar a ancianos, para asistir en tareas médicas y otros que se están desarrollando cada vez más inteligentes y empáticos… Están diseñados para conectar con nuestras necesidades emocionales igual que un robot industrial lo está para hacer una tarea y repetirla de forma milimétrica millones de veces. En este contexto, y teniendo en cuenta que los robots vuelven a suscitar miedos de destrucción de empleo y de transformación social, ¿es concebible que un autómata tenga derechos?, ¿que su emulación de empatía acabe siendo más que imitación?

Corregir los errores de la inteligencia artificial y extraer su potencial

Estamos en un mundo donde antes los humanos tomaban todas las decisiones y votaban a otros humanos para que tomasen decisiones por ellos pero, cada vez más, nos encaminamos a un nuevo escenario en el que cada día se toman miles y miles de decisiones de forma automática y casi autónoma. ¿Estamos seguros de que estas decisiones van a ser éticas, coherentes y “humanas” cuando, a veces lo ético y lo humano no maximiza el beneficio?

Como veis, hay muchas preguntas y solo alguna respuesta, pero la mayor parte de estas últimas tendrán que venir de nosotros mismos, igual que nos planteamos los interrogantes.

Imagen: Michael Cordedda

Deja una respuesta

Tu dirección de correo electrónico no será publicada.