¿Puede la Inteligencia Artificial entender las emociones?

Olivia Brookhouse    23 mayo, 2023

Cuando John McCarthy y Marvin Minsky iniciaron la Inteligencia Artificial en 1956, se sorprendieron de cómo una máquina podía resolver rompecabezas increíblemente difíciles en menos tiempo que los humanos.

Sin embargo, resulta que enseñar a la Inteligencia Artificial a ganar un juego de ajedrez en realidad es bastante fácil. Lo que presentaría desafíos sería enseñar a una máquina lo que son las emociones y cómo replicarlas.

«Ahora hemos aceptado después de 60 años de IA que las cosas que originalmente pensamos que eran fáciles, son en realidad muy difíciles y lo que pensamos que era difícil, como jugar al ajedrez, es muy fácil».

Alan Winfield, profesor de robótica en UWE, Bristol

Para los humanos, la inteligencia social y emocional llega casi de forma automática. Reaccionamos por instinto. Mientras que algunos de nosotros somos más perceptivos que otros, podemos interpretar fácilmente las emociones y sentimientos de quienes nos rodean.

Esta inteligencia de nivel base, que en parte es inherente y en parte aprendemos, nos indica cómo comportarnos en ciertos escenarios. Entonces, ¿se puede enseñar esta comprensión automática a una máquina?

Inteligencia Emocional Artificial (Emotion AI)

Aunque el nombre puede confundirte, Inteligencia Emocional Artificial no se refiere a una computadora llorosa que ha tenido una mala semana. Inteligencia Emocional Artificial, también conocida como Computación Afectiva, se remonta a 1995 y se refiere a la rama de la Inteligencia Artificial que tiene como objetivo procesar, comprender e incluso replicar las emociones humanas.

Foto: Lidya Nada / Unsplash

La tecnología busca mejorar la comunicación natural entre el hombre y la máquina para crear una IA que se comunique de manera más auténtica. Si la IA puede obtener inteligencia emocional, tal vez también pueda replicar esas emociones.

«¿Cómo puede [una máquina] comunicar efectivamente la información si no sabe tu estado emocional, si no sabe cómo te sientes, no sabe cómo vas a responder a un contenido específico?»

Javier Hernández, científico investigador del Grupo de Computación Afectiva en el MIT Media Lab.

En 2009, Rana el Kaliouby y Picard fundaron Affectiva, una empresa de Inteligencia Emocional Artificial con sede en Boston, que se especializa en la investigación automotriz y publicitaria de Inteligencia Artificial.

Con el consentimiento del cliente, la cámara del usuario captura sus reacciones mientras ve un anuncio. Aplicando «Inteligencia Emocional Multimodal«, que analiza la expresión facial, el habla y el lenguaje corporal, pueden obtener una visión completa del estado de ánimo del individuo.

Sus niveles de precisión del 90% se deben a sus diversos conjuntos de pruebas de 6 millones de caras de 87 países diferentes utilizados para entrenar algoritmos de aprendizaje profundo. A partir de un conjunto de datos diverso, la Inteligencia Artificial aprenderá qué métricas de lenguaje corporal y patrones de habla coinciden con diferentes emociones y pensamientos.

Al igual que los humanos, las máquinas pueden producir ideas más precisas sobre nuestras emociones a partir de videos y habla que a partir de solo de texto.

Análisis de sentimientos o minería de opiniones

El análisis de sentimientos o minería de opiniones, un subcampo del procesamiento del lenguaje natural, es el proceso de identificar y categorizar de manera algorítmica las opiniones expresadas en texto para determinar la actitud del usuario hacia el tema.

Este caso de uso se puede aplicar en muchos sectores, como grupos de expertos, centros de llamadas, telemedicina, ventas y publicidad, para llevar la comunicación al siguiente nivel.

Si bien la Inteligencia Artificial puede categorizar lo que decimos en cajas positivas o negativas, ¿realmente entiende cómo nos sentimos o el subtexto que hay debajo? Incluso como humanos, perdemos referencias culturales, sarcasmo y matices en el lenguaje que alteran por completo el significado y, por lo tanto, las emociones que se muestran.

A veces, son las cosas que dejamos fuera y no decimos las que también pueden implicar cómo nos sentimos. La Inteligencia Artificial no es lo suficientemente sofisticada como para entender este subtexto y muchos dudan de que alguna vez lo sea.

¿Puede la Inteligencia Artificial mostrar emociones?

En muchos de estos casos de uso, como los chatbots de telemedicina y los asistentes virtuales de centros de llamadas, las empresas están investigando el desarrollo de la Inteligencia Artificial emocional para no solo entender las emociones de los clientes, sino también mejorar cómo responden individualmente estas plataformas.

Foto: Domingo Alvarez / Unsplash

Ser capaz de simular emociones humanas da a estas plataformas y servicios más autenticidad. Pero, ¿es esto una verdadera exhibición de emoción?

Los investigadores de Inteligencia Artificial y neurociencia están de acuerdo en que las formas actuales de IA no pueden tener sus propias emociones, pero pueden imitar la emoción, como la empatía. El habla sintética también ayuda a reducir el tono robótico que muchas de estos servicios tienen y emiten una emoción más realista. Tacotron 2 de Google está transformando el campo para simular voces artificiales humanas.

Entonces, si las máquinas, en muchos casos, pueden entender cómo nos sentimos y producir una respuesta útil e incluso «cuidadosa», ¿son emocionalmente inteligentes? Existe mucho debate en este campo si una simulación de emoción demuestra una verdadera comprensión o sigue siendo artificial.

El funcionalismo argumenta que, si simulamos la inteligencia emocional, entonces, por definición, la Inteligencia Artificial es emocionalmente inteligente. Pero los expertos cuestionan si la máquina realmente «entiende» el mensaje que están entregando y, por lo tanto, una simulación no es un reflejo de que la máquina sea realmente emocionalmente inteligente.

Inteligencia Artificial General

Desarrollar una Inteligencia Artificial General, que posea un nivel de comprensión más profundo es lo que muchos expertos creen que permitirá a las máquinas experimentar emociones como nosotros.

La Inteligencia Artificial General (AGI) en oposición a la inteligencia estrecha se refiere a la capacidad de las computadoras para llevar a cabo muchas actividades diferentes, como los humanos. La Inteligencia Estrecha Artificial, como su nombre indica, tiene como objetivo completar tareas individuales con un alto grado de eficiencia y precisión.

Foto: TengyArt / Unsplash

Cuando hablamos de inteligencia emocional y social, formas de inteligencia que no necesariamente están relacionadas con una tarea o objetivo específico, estas caen bajo la Inteligencia Artificial General. AGI tiene como objetivo replicar nuestras cualidades que para nosotros parecen automáticas. No están vinculados a un objetivo final, los hacemos solo porque lo hacemos.

Conclusiones

Todavía estamos muchos años detrás de tener una Inteligencia Artificial General capaz de replicar todas las acciones que podemos realizar, especialmente aquellas cualidades que consideramos más humanas, como las emociones.

Las emociones son inherentemente difíciles de leer y a menudo hay una desconexión entre lo que las personas dicen que sienten y lo que realmente sienten. Una máquina puede que nunca llegue a este nivel de comprensión. Pero, ¿quién dice que la forma en que procesamos las emociones es la única forma?

Cómo interpretamos las emociones de los demás está lleno de sesgos y opiniones, por lo que quizás la IA pueda ayudarnos a ir directo al grano cuando se trata de nuestras emociones.

Foto de apertura: rawpixel.com on Freepik

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *