Razones por las que preferimos a un jefe robot y por qué podría no ser tan buena idea

Alejandro de Fuenmayor    27 marzo, 2020
jefe-robot

Recientemente cobraba protagonismo un estudio llevado a cabo por Oracle y Future Workplace en el que se pone de manifiesto que crece el número de trabajadores que se encuentran cada vez más cómodos con la automatización de tareas y la inclusión de la inteligencia artificial en el entorno laboral. Es más, los encuestados afirman preferir a un jefe robot para gestionar y supervisar su desempeño profesional.

Jefes fríos, distantes, programados para cumplir objetivos

En realidad puede que si echáramos la vista atrás muchos de nosotros no encontrásemos mucha diferencia entre algunos de los jefes que hemos tenido y un simple robot. ¿En la retrospectiva de quién no aparece esa figura fría, distante, programada para sacar lo máximo del proceso empresarial en el que se enclava, sin interés en diferenciar entre las ayudas humanas y materiales para alcanzar su fin? Lamentablemente muchos colaboradores se han visto tratados con la misma empatía por parte de sus superiores que la fotocopiadora. Nada que ver con ese codiciado líder maestro del que escribía un compañero.

Las emociones como bomba de relojería

Recuerdo la polémica de un informe similar hace ya bastantes años. Se trataba de un estudio llevado a cabo por las universidades de Bond y San Diego, que se presentó durante el congreso anual de la Sociedad de Psicología de 2016 en Australia. El titular más impactante rezaba que “el 21 por ciento de los altos directivos presentan rasgos claramente psicopáticos”. Y es que me refería antes a la frialdad extrema de algunos de ellos pero son muchos también a los que sus emociones convierten en una bomba de relojería: filias y fobias, obsesiones que minan el día a día, narcisismo, ansia de poder y control…

Un jefe robot, otro modelo de gestión

Llegados a este punto, ya no resulta tan extraño entender que muchos trabajadores de manera impulsiva prefieran tener a un jefe robot, que lo supervise una máquina en lugar de una persona. Dado que de momento las máquinas no son capaces de sentir ni expresar sentimientos, muchas de esas conductas que he descrito no se deberían repetir, no entrarían en el modelo de gestión de un jefe robot.

Tay y COMPAS: algo falló

Pero la realidad supera a la ficción y ya hay casos en las que las ineficiencias de los humanos se han trasladado a los procesos robotizados y aparecen sesgos en la inteligencia artificial, por ejemplo. Para muestra un botón:

¿Recordáis a Tay, el famoso caso del bot racista? Fue diseñado para ser capaz de contestar cualquier tipo de pregunta a través de Twitter. Se entrenó con conversaciones de usuarios de entre 18 y 24 años para que pudiera entender y dar respuesta a sus necesidades. El proceso fue fenomenal pero algo se torció en la fase de entrenamiento y es que aprendió todo: lo bueno y lo malo.

Sesgos en el aprendizaje

Pero Tay no es el único. Otro ejemplo es COMPAS, el algoritmo desarrollado por la compañía Northpointe. Pretendían que revolucionase la investigación criminal, que fuese como las trillizas Precog de la película Minority Report, capaces de anticiparse a los posibles delitos. COMPAS se basaba en el seguimiento e historial delictivo de una población determinada pero el juego de datos que sirvió para entrenar el modelo jugó una mala pasada y, en un alto grado, las predicciones del modelo apuntaban a un nicho poblacional especifico, el mismo que históricamente había sido condenado por los crímenes y delitos objeto del estudio.

Moraleja: la tecnología mejora procesos industriales, de negocio, y nos ayuda en nuestra vida personal. Pero, al igual que los niños, en su etapa de crecimiento y conocimiento del entorno, hace falta marcarle los límites, educar en valores y reforzar las actitudes positivas.

Imagen: Michael Dain

Comentarios

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *