Boletín semanal de Ciberseguridad, 21 – 27 de enero

Telefónica Tech    27 enero, 2023

Killnet apunta contra objetivos en España

Esta semana el grupo hacktivista Killnet anunció una campaña de ataques contra Alemania, dando lugar a la realización de ataques de Denegación de Servicio Distribuido (DDoS) que dejaron inoperativas durante el miércoles las páginas webs del gobierno de Alemania, el Bundestag, varios bancos y aeropuertos del país.

Tras estos ataques, el grupo publicó un comentario en su canal de Telegram donde señalaba directamente España como posible objetivo de sus próximos ataques, dejando el siguiente mensaje “España – que te j**** a ti también, pero contigo todo será más fácil y rápido” (traducido al español desde el mensaje original).

A raíz de este mensaje, otros participantes dentro del canal de Telegram señalaron expresamente a dos empresas españolas, enunciando que serían supuestamente “fáciles” de atacar. Por el momento no se ha tenido constancia de la realización de ataques contra empresas de infraestructura crítica u organismos gubernamentales españoles.

​​​* * *

​​Corregida 0-day en Apple que afectaba a iPhones e iPads antiguos

Apple ha publicado un aviso de seguridad donde aborda parches para una vulnerabilidad 0-day activamente explotada en iPhones e iPads antiguos. La vulnerabilidad, catalogada como CVE-2022-42856 con un CVSSv3 de 8.8, podría permitir a un atacante procesar contenido web creado con fines maliciosos para lograr la ejecución de código arbitrario, debido a una confusión de tipos en el motor del navegador web WebKit de Apple.

Esta vulnerabilidad fue publicada en el mes de diciembre para otros productos de Apple, estando ahora disponible para las versiones más antiguas: iPhone 5s, iPhone 6, iPhone 6 Plus, iPad Air, iPad mini 2, iPad mini 3, e iPod Touch (6ª generación).

Desde Apple señalan en su aviso que se tiene constancia de la explotación activa de esta vulnerabilidad en versiones de iOS anteriores a iOS 15.1. El 14 de diciembre la CISA la incluyó dentro de su catálogo de vulnerabilidades explotadas.

Más info

​​​* * *

Corregidas vulnerabilidades en VMware

VMware ha lanzado parches de seguridad para abordar una serie de vulnerabilidades en vRealize Log Insight, ahora conocido como VMware Aria Operations for Logs.

En primer lugar, la vulnerabilidad identificada como CVE-2022-31703 y CVSS 7.5, trata de un fallo transversal de directorio mediante el que los atacantes pueden inyectar archivos en el sistema afectado y lograr la ejecución remota de código. Por otro lado, la CVE-2022-31704, con CVSS 9.8, es una vulnerabilidad de control de acceso que puede ser aprovechada para la ejecución remota de código.

Finalmente, la compañía ha corregido una vulnerabilidad de deserialización, identificada como CVE-2022-31710 y CVSS 7.5, la cual puede desencadenar una DoS y la CVE-2022-31711, con CVSS 5.3, que trata sobre un fallo de divulgación de información.

Más info

​​​* * *

​PY#RATION: nuevo RAT basada en Python

El equipo de investigadores de Securonix ha descubierto una campaña de ataque de un nuevo malware basado en Python con capacidades de troyano de acceso remoto (RAT).

Este malware, al que han denominado PY#RATION, está en desarrollo permanente, ya que desde su detección en agosto de 2022 ha pasado de la versión 1.0 a la 1.6.0. PY#RATION se distribuye mediante correos de phishing que contienen archivos adjuntos .ZIP dentro de los cuales hay dos archivos .lnk de acceso directo bajo apariencia de imágenes (front.jpg.lnk y back.jpg.lnk).

Al ejecutarse estos accesos directos, la víctima ve la imagen de una licencia de conducir británica por el anverso y el reverso mientras ejecuta el código malicioso para ponerse en contacto con el C2, el cual descarga a su vez dos archivos adicionales al directorio temporal del usuario.

Una vez ejecutado PY#RATION este es capaz de realizar enumeración de red, realizar transferencias de archivos, registro de teclas, robar datos del portapapeles, extraer contraseñas y cookies de los navegadores web o ejecutar comandos de shell, entre otras capacidades. Por último, desde Securonix estiman que esta campaña está dirigida principalmente contra víctimas en Reino Unido o América del Norte.

Más info

​​​* * *

Microsoft planea bloquear los archivos XLL provenientes de Internet

Después de deshabilitar las macros en archivos de Office descargados de Internet para impedir la propagación de malware, el siguiente paso de Microsoft en su lucha contra los archivos maliciosos será bloquear los archivos XLL provenientes de Internet, principalmente adjuntos en correos electrónicos.

Los archivos XLL son librerías dinámicas de Excel que proporcionan características adicionales a Excel (cajas de diálogo o barras de herramientas, entre otros). Al tratarse de archivos ejecutables, son muy útiles para los actores amenaza que los incluyen en sus campañas de phishing para descargar malware en el equipo de la víctima con un solo click.

Según Microsoft, la medida está siendo implementada y llegará a los usuarios de manera general en marzo.

Más info

7 fallos que pueden arruinar la experiencia de cliente

Raúl Salgado    27 enero, 2023

Ir de compras se ha convertido en una experiencia que las empresas deben cuidar tanto o más que sus productos y servicios. Y es que los clientes cada vez están más dispuestos a optar por aquellas marcas que consigan mejorarles su disfrute. Es más, 3 de cada 5 consumidores se cambiarían de compañía únicamente por el hecho de tener una mejor experiencia. Por lo tanto, “si no la cuidamos y no trabajamos esas conexiones de una manera inteligente, estaremos dando argumentos a nuestros competidores para ofrecer algo mejor”.

Eduardo Esparza, VP General Manager de Affinion España, resalta la necesidad de mapear y trabajar el momento de la compra en consonancia con la experiencia diseñada en las diferentes etapas del customer journey.

De hecho, “la compra es un momento de la verdad en sí mismo, por lo que tenemos que brindar una experiencia sobresaliente, para que todo lo que ocurra durante este proceso genere una opinión y un recuerdo sobre la marca que resulte decisivo en el cerebro del cliente”, agrega.

Esparza piensa que pasar de la teoría a la acción puede resultar complejo. Y que, precisamente por eso, aprender de los errores más comunes que cometen grandes y pequeñas empresas también puede ayudar a detectar qué se puede subsanar. En este sentido, ¿cuáles serían los principales fallos de las compañías a la hora de cuidar la experiencia de cliente?

Errores que pueden arruinar la experiencia de cliente

1. Desplazar al cliente del centro de la estrategia 

Lo importante no es el producto o el servicio, sino el cliente, en torno al que debe girar todo el plan. Josu Madariaga, responsable del Departamento de Cliente de Eroski y miembro de la Asociación para el Desarrollo de la Experiencia de Cliente, coincide en el error en que incurren muchas compañías al centrar sus esfuerzos en las tareas y procesos, delegando al cliente a un segundo plano.

Para solventarlo, Madariaga recomienda integrar la experiencia de cliente en todos los procesos diseñados; y revela que la prioridad en el diseño para superar sus expectativas debe arrancar con un conocimiento de los arquetipos de clientes, sus necesidades y aspiraciones. “El rol del cliente ha pasado en los últimos tiempos a ser activo e influir en el diseño de forma determinante y eso ha de integrarse en los procesos de la compañía”, agrega.

2. No escuchar 

“Cuando escuchas activamente a tus clientes y los dejas participar, se convierten en tus máximos defensores y prescriptores, porque has conseguido que se sientan involucrados con tu proyecto”, asegura Esparza.

3. Complicar la compra 

Es recomendable abrir tantos canales como los clientes sean capaces de utilizar y dejar que accedan a los beneficios o servicios que hayan contratado. A veces las empresas se olvidan de que gestionar experiencias es gestionar personas.

4. Fragmentar la venta entre distintos canales 

Las empresas, más allá de su sector de actividad, se centran actualmente en la experiencia multicanal. Sin embargo, son demasiadas las que fracasan a la hora de ofrecer un vínculo sin fisuras entre los canales online y offline. Y este hándicap puede resultar frustrante para los consumidores, sobre todo para aquellos que se relacionan con la marca de manera digital.

5. Olvidar que la experiencia de cliente no acaba con la compra 

Esparza sostiene que hay que mapear en el customer journey qué ocurre en la vida del cliente una vez haya adquirido el producto o servicio, con el fin de identificar oportunidades que permitan sorprenderlo y generar nuevas experiencias.

6. Ignorar a los empleados 

Por su parte, Madariaga remarca la relevancia de analizar los medios y recursos de las personas que están en contacto con el cliente para ofrecer una experiencia inmejorable. “El esfuerzo que supone atender bien al personal que cuida de tu cliente siempre es una inversión rentable a largo plazo”.

Por ello, insta a escuchar atentamente a las personas que se encuentren en contacto con los clientes, para tomar decisiones con la vista puesta en la mejora de sus experiencias de compra.

Asimismo, anima a dotar de una adecuada autonomía a los equipos, para que las decisiones en pro del cliente no estén encorsetadas por otras de rango superior. “A los empleados hay que darles un feedback estructurado y continuo respecto a sus sugerencias o quejas, y todos ellos han de conocer su rol e impacto en la relación y experiencia de cliente”, puntualiza.

7. Limitar la experiencia de cliente a un solo departamento 

Para evitar el error de limitar la experiencia a un solo departamento, Madariaga afirma que es precisa una transformación cultural en la que participe toda la compañía, de abajo arriba; garantizando que la experiencia de cliente guíe el diseño por encima de las decisiones organizativas que se puedan tomar.

Ventas offline y online 

Muchas empresas repiten los mismos errores. Pero, ¿existen diferencias entre los fallos cometidos en las ventas offline y en las online? Esparza cree que las experiencias son buenas o malas, independientemente de dónde se realicen, y que lo importante es que no haya fricción entre los canales.

En la misma línea, Madariaga asegura que las experiencias online no cuentan con factores que las offline utilizan para diferenciarse. Y manifiesta que la cercanía, la relación con el cliente, la profesionalización o el trato son fortalezas que las ventas online han de suplir con rapidez y flexibilidad. No obstante, avisa de que en la omnicanalidad se encuentran las dos, y de que es en el contacto físico y la adaptación a las necesidades donde el negocio online sufre más dificultades.

“Las tecnologías de chat y bot tienen un gran reto en los próximos tiempos para superar ese vacío. En todo caso, un error muy comúnmente extendido en ambos es la falta de transparencia y el incumplimiento de lo prometido. Ganar la confianza de los clientes debe ser el mantra de las organizaciones”, añade.

Solo 1 de cada 26 clientes se queja

Cuidar o no la experiencia de compra puede ser una cuestión de vida o muerte.

Solo 1 de cada 26 clientes se queja. El resto, no seguirá con la empresa, según algunos informes. De otros estudios se desprende que la experiencia de cliente será el principal valor diferencial de las marcas, por delante del precio e incluso del producto.

Ello muestra lo crucial que resulta pasar de las palabras a los hechos. Puesto que si bien es cierto que nadie declara estar en contra de sus clientes, son pocas las compañías que tienen los customer journey o que despliegan la acción y utilizan las métricas adecuadas para medir el impacto.

Las malas experiencias no se olvidan y se comparten más que las buenas”. Madariaga señala que hoy en día las decisiones de compra están absolutamente influidas por las emociones; y que el precio, la promoción y el producto han dejado de tener una influencia determinante. Como consecuencia, “establecer una relación emocional y sostenible basada en la gestión de la experiencia de compra de los clientes es más influyente que nunca para el éxito de las empresas”.

eCommerce: pasos para evitar que se quede obsoleto

Lluis Serra    26 enero, 2023

Llevo más de diez años diciendo que los dos grandes retos de la venta online son la logística y la fidelización. Y creo, por la información de la que dispongo a día de hoy, que seguimos con esos mismos desafíos, a los que se añade un tercer factor: la plataforma web.

El eCommerce sigue creciendo a ritmos interesantes año tras año, pero muchas tiendas digitales están estancadas y son Amazon y cuatro más los que siguen creciendo y creciendo y hacen subir las cifras totales.

Desde hace años me hago la misma pregunta: ¿todas las empresas, comercios, fabricantes y emprendedores que venden por Internet ganan dinero? Dejo la respuesta para ellos. Recordemos que el objetivo de una plataforma de venta online no es vender, sino ganar dinero.

En los siguientes posts recordaré todos los pasos que se deben seguir para que un proyecto digital tenga más posibilidades de éxito. Hemos oído infinidad de veces que el consumidor digital ha cambiado sus comportamientos de navegación, de compra, de interacción, etc., etc. Pero… ¿las tiendas y comercios nos hemos adaptado a él? 

Si estás pensando en iniciar un proyecto de eCommerce, intenta no equivocarte en los siguientes puntos: tecnología, diseño y mantenimiento. Si, por el contrario, hace tiempo que tienes presencia y venta online, piénsalo y rejuvenece tu plataforma de comercio electrónico, te dará muchos más resultados. Te lo aseguro. 

Cuando navegamos por Internet, seguimos viendo plataformas online que no se adaptan a la nueva era digital, que están desactualizadas e incluso totalmente desfasadas. El software juega un papel muy importante en las decisiones de compra, de ahí que su diseño, maquetación, programación y desarrollo sean claves, así como la velocidad de carga.

Tres elementos para un buen proyecto de eCommerce

1. Tecnología

En este punto nos referimos a la programación y maquetación.

En el momento de plantearnos el ingrediente tecnológico, es importante ahondar en dos factores: el front-office y el back-office. En el primero, analizaremos bien los elementos como las imágenes, la estructura, el diseño, la usabilidad, las formas, los colores, porque el cliente interactuará con ellos. El segundo factor, olvidado por muchos, abarca todos los procesos internos de producción, logística, almacenamiento y stock, ventas, facturación y contabilidad.    

Tu Tienda, de Movistar

A menudo me pregunto qué está sucediendo en muchas plataformas digitales, ya sea de eCommerce o webs corporativas. Muchas de ellas, debido a que en sus comienzos no planificaron un sitio web bien estructurado, actualmente les es más difícil incluir nuevas funcionalidades o aplicaciones para mejorar. Hay casos de plataformas online que no permiten modificar las características de las fichas de productos, ni incluir nuevos contenidos relacionados con el vídeo marketing. 

Este software soporta un volumen de contenido en diferentes formatos, visitas de internautas e interacciones que, en algún momento, se transformarán en pedidos. Por este motivo, y como comentamos hace tiempo, el servidor donde se aloja la web es clave para la velocidad de navegación. Vivimos en la era de la inmediatez y los nuevos consumidores demandan rapidez.

¿Cuántas veces habéis dejado un pedido a medias porque no funcionaba correctamente el software? La respuesta es: «Demasiadas». Es necesario actualizar las plataformas y si el software no nos permite incorporar nuevas herramientas y funcionalidades, es el momento de cambiar a otra plataforma que sí lo permita.  

2. Diseño

El estilo tiene que enamorar.

Un diseñador gráfico es también un desarrollador web que usa lenguajes de programación. El diseño va ligado al desarrollo. El primero es el responsable de saber comunicar un contenido en forma de imagen, foto o dibujo. El segundo es el encargado de crear y desarrollar una página web.

Además de incorporar los colores corporativos, es importante que el diseñador gráfico sepa transmitir ese factor clave que “enganche” al internauta. El objetivo del desarrollador web es saber combinar una estructura para aplicar los colores, la tipología, los iconos, las imágenes para crear una interfaz y generar una experiencia única de usuario. 

Un buen diseño web tiene que generar una primera buena impresión, conseguir captar la atención y generar confianza. Hay sitios webs que son muy bonitos, pero no se adaptan a los requisitos web, las medidas de los banners no son las correctas y rompen toda la estructura. Aquí está el doble trabajo de estos profesionales que habitualmente son personas muy creativas.

Para el desarrollo, los archivos deben tener un tamaño específico y el contenido gráfico (fotos y vídeos) deben adaptarse a dispositivos móviles o resoluciones de pantalla diferentes.

El paso del tiempo hace que el diseño web quede obsoleto.

3. Mantenimiento

Es preciso efectuar revisiones periódicas.

La tecnología precisa un mantenimiento constante y acciones preventivas de optimización para detectar errores en la estructura y la usabilidad. También debe permitir cambiar las creatividades de diseño para adaptarnos a las necesidades y tendencias actuales, y a los nuevos navegadores web.

Seguimos encontrando errores 404 en demasiadas ocasiones, y además del daño que produce en las estrategias de posicionamiento SEO, es un motivo de frustración para el internauta que un enlace no dé el resultado esperado en el momento de hacer clic. Para corregir esto, existen plugins que ayudan a verificar enlaces internos y externos.

¿Cuántas veces habéis abandonado una web porque el enlace estaba roto? La respuesta es de nuevo la misma: «Demasiadas». Es necesario revisar cada cierto tiempo todos los enlaces que apuntan al exterior de la plataforma. A veces las páginas de aterrizaje desaparecen y no nos hemos enterado.

El mantenimiento y la actualización de plugins y aplicaciones son clave para una buena navegación, para el buen funcionamiento de la tecnología y para evitar la entrada de “intrusos” que pueden piratear o destruir todo el trabajo realizado. Incluso pueden llegar a eliminar todo el contenido existente.

El mantenimiento del servidor de alojamiento también es un punto a tener en cuenta.

Está claro que realizar el mantenimiento de la tecnología bien diseñada es el principio, pero no nos asegura unas ventas. En el próximo post, hablaré de los puntos para seguir avanzando en un buen proyecto de eCommerce

Imagen de ijeab en Freepik

2023: una odisea de la inteligencia artificial

Cristóbal Corredor Ardoy    26 enero, 2023

En 1968 el director de cine Stanley Kubrick incorporaba como personaje en la película de ciencia ficción “2001: una odisea del espacio” a HAL (Heuristically programmed ALgorithmic computer), el cerebro de la nave espacial Discovery. Se trataba de un ordenador con superpoderes de inteligencia artificial, capaz de jugar al ajedrez, leer los labios, empatizar o conversar. Hoy voy a escribir de esto último: los avances de la inteligencia artificial en el lenguaje.

ChatGPT, un fenómeno viral

Han sido necesarios 54 años para que, a finales de 2022, el hombre haya desarrollado una herramienta que puede conversar de forma similar a como lo hacía HAL. Me refiero a ChatGPT, un fenómeno tan viral que en tan solo cinco días alcanzó el millón de usuarios.

Su éxito ha sido tal que Microsoft lo ha incorporado en su línea de servicios cognitivos bajo el paraguas de Azure OpenAI Service. Además, ha anunciado su intención de incrementar su inversión en OpenAI, el padre de ChatGPT, en 10.000 millones de dólares (que se suman a los 1.000 millones de dólares ya empleados).

Y Google estaría preparándose para contraatacar con las capacidades de DeepMind, la compañía especializada en inteligencia artificial que adquirió en 2014.

Riesgos y temores

En la película de Stanley Kubrick HAL termina aniquilando prácticamente a toda la tripulación de la nave espacial, tras una serie de ordenes que acabaron en un mal funcionamiento. En 2018 el CEO de DeepMind, Demiss Hassabis, ya advertía acerca de los riesgos que podría acarrear un uso inadecuado de la inteligencia artificial. Se refería a los aspectos éticos relacionados con esta nueva tecnología.

Por eso, algunos andan preguntándose si  ChatGPT se rebelará contra el hombre como en “2001: una odisea en el espacio”. ¿Es ChatGTP un nuevo modelo de Terminator enviado desde el metaverso para destruir la tierra? ¿Habrá llegado el día del juicio final? ¿Podrá ChatGPT tomar el control del armamento nuclear mundial como en la película de ficción “Juegos de Guerra”? o ¿será utilizado por Lex Luthor para crear malware y lanzar ciberataques contra los sistemas informáticos de Metrópolis? La otra noche me desperté sobresaltado pensando en todo esto. Pero durante el desayuno le pregunté directamente  a ChatGPT y me dejó más tranquilo.

Fuente: conversación real con ChatGPT

¡Que alivio, la inteligencia artificial ha llegado para ayudarnos!

Como ya hemos contado en este blog en distintas ocasiones, la inteligencia artificial es la rama de la ciencia que persigue desarrollar sistemas computacionales capaces de ejecutar tareas que habitualmente realiza el cerebro humano. Los ámbitos de la inteligencia humana son muy amplios, en este post me centraré en el campo del lenguaje.

La inteligencia artificial en el lenguaje

En la comunicación verbal existen básicamente tres procesos: la escucha, el procesamiento del lenguaje y el habla.

La escucha

La escucha es el proceso mediante el cual el ser humano recibe estímulos sonoros y los clasifica en fonemas, que son las unidades mínimas de sonido atribuibles a un idioma. Luego el cerebro transforma estos fonemas en palabras.

Los ordenadores pueden escuchar gracias al campo de la inteligencia artificial que recibe el nombre de reconocimiento de la palabra (ASR, Automatic Speech Recognition). Para ello utilizan modelos matemáticos que replican a las neuronas del cerebro humano y reciben el nombre de HMM (Hidden Markov Models).

Durante la infancia los niños aprenden que la secuencia de fonemas [p][a][p][a] significa “padre” tras haber escuchado estos mismos sonidos en repetidas ocasiones “etiquetados” con ese concepto por el progenitor. Por analogía a como aprende el cerebro humano, los modelos neuronales de la computadora (HMM) se entrenan con grandes bases de datos de sonidos que se corresponden con un mismo fonema. Una vez entrenado, el algoritmo es capaz de clasificar los sonidos en fonemas y transformarlos luego en palabras.

Su uso en el ámbito B2C y B2B

Actualmente el reconocimiento de voz es un campo de la inteligencia artificial totalmente preciso y maduro, incluso en entornos ruidosos y aplicable en conversaciones telefónicas.

En el ámbito de los productos de consumo, el reconocimiento de voz se incorpora en los asistentes personales (Aura, Siri, Alexa, Google Assistant), en las aplicaciones de navegación (Google Drive, Waze), en las aplicaciones de domótica, etc.

En el ámbito empresarial, el reconocimiento de la palabra se utiliza en los centros de contacto con el cliente (contact centers) para clasificar las llamadas y automatizar aquellas que resulten genéricas y repetitivas y reservar la atención humana solo a asuntos, en los que aporte valor. El reconocimiento de voz también aumenta la productividad de los empleados en las reuniones virtuales (Microsoft Teams, Zoom Meetings, Cisco Webex), pues permite realizar la transcripción automática de la reunión. O, por ejemplo, en la Administración pública, se utiliza para ayudar a jueces y letrados a transcribir sus textos y agilizar su trabajo. .

El habla

El habla es el proceso mediante el cual el cerebro descompone las palabras en fonemas. La concatenación de estos constituye el habla. Los ordenadores pueden hablar gracias a la disciplina de la inteligencia artificial que recibe el nombre de conversión de texto a voz (TTS, Text to Speech). Stephen Hawking fue una de las personas más conocidas en utilizar la conversión de texto a voz para hablar.

Aunque a esta técnica siempre le hemos reprochado que suene como “un loro” o “un robot” hoy en día esto ha cambiado. Actualmente la tonalidad de la voz emitida es tan natural que podría corresponder a la de una “hipotética” persona. En un post anterior nos planteábamos si la voz sintetizada conseguirá recrear a nuestro abuelo y que nos vuelva a leer un cuento como cuando éramos niños. Pues bien, ya es posible. Microsoft ha desarrollado un sistema de síntesis de voz (VALL-E) – entrenado con más de 60.000 horas de grabación provenientes de 7.000 diferentes voces- capaz de imitar cualquier voz tras solo tres segundos de escucha.

Aplicaciones variadas

La síntesis de voz se utiliza, por ejemplo, en los aeropuertos para anunciar los vuelos, en los asistentes personales y en los sistemas de navegación mencionados con anterioridad.

En el ámbito empresarial la conversión de texto a voz también se utiliza en los contact centers para generar repuestas telefónicas automáticas.

El procesamiento del lenguaje

Durante el procesamiento del lenguaje las palabras son contextualizadas y transformadas en otras que forman parte de la conversación. Los ordenadores pueden conversar gracias al ramo de la inteligencia artificial que recibe el nombre de procesamiento del lenguaje natural (NLU, Natural Languaje Understanding). Y este es el ámbito de más difícil aplicación: conseguir que un ordenador sea capaz de pensar y responder como si de un ser humano se tratase.

Se han producido notables avances, sobre todo a raíz del fenómeno viral ChatGPT, con el que comenzaba este post. Se trata de la pieza angular que nos faltaba, aquella que permite articular la escucha y el habla en el contexto de una conversación “humanizada”. Al igual que en el caso del reconocimiento de la palabra y de la conversión de texto a voz, el ordenador utiliza modelos matemáticos entrenados con ingentes cantidades de datos. Para el entrenamiento de los modelos NLU se utiliza una metodología supervisada por agentes humanos (RLHF, Reinforcement Learning from Human Feedback). Igual que el proceso de aprendizaje de los niños cuando van a la escuela está supervisado por el profesor, el entrenamiento de los modelos matemáticos NLU está supervisado por expertos humanos (“el profesor del modelo”).

Bots conversacionales y usos inimaginables

Las aplicaciones del NLU en el ámbito empresarial son ingentes. Existen modelos de NLU específicos capaces de programar código igual o incluso de manera más eficiente que un informático. Los bots conversacionales se incorporan cada vez más a las organizaciones: para la relación con los empleados o en las webs de las empresas para guiar al cliente durante la compra online o atender sus incidencias. El NLU también puede utilizarse para redactar memorias comerciales o técnicas, informes, para generar resúmenes de noticias y documentos o traducir idiomas.

Si unimos al NLU el reconocimiento de la palabra y  la síntesis de voz es posible crear robots que escuchen y conversen como los humanos. Podemos encontrarlos ya en los centros de contacto telefónico, aeropuertos, estaciones de tren, centros comerciales o tomando el pedido en restaurantes. Las aplicaciones son hoy en día inimaginables.

Mucho entrenamiento y superordenadores en la nube

En definitiva, debemos quedarnos con que la historia de la inteligencia artificial se está escribiendo en este momento. Aún está en pañales y se convertirá en lo que trabajemos que sea. De lo que ya no hay dudas es que se trata de que es una potente herramienta que permite a las empresas reducir costes, incrementar su productividad y aportar mayor valor a sus clientes.

También es importante aclarar que no hay un modelo genérico de inteligencia artificial que sirva para todo. De igual forma que el ser humano para poder hablar con criterio sobre historia debe formarse en esta materia o un médico debe estudiar medicina para poder realizar un diagnóstico, los modelos de NLU deben ser entrenados para cada tarea. La clave reside en disponer de ingentes cantidades de bases de datos “etiquetados” que se correspondan con el contexto sobre el que se desea conversar y de superordenadores en la nube para entrenar dichos modelos.

Siempre se plantea, además, la cuestión de si la automatización de tareas que la inteligencia artificial permite hará que perdamos nuestro puesto de trabajo. Pero, entre los trabajos del futuro, pensemos también que surgirán nuevos oficios como el experto especializado en el entrenamiento de modelos de inteligencia artificial.

Imagen: Pulpolux!!!

Alumbrado público inteligente: oportunidades de negocio y beneficios

Nacho Palou    25 enero, 2023

El alumbrado público inteligente es uno de los pilares de las ciudades inteligentes. De hecho, es uno de los mejores ejemplos de lo que significa el término Smart City: la aplicación de tecnologías digitales de nueva generación para mejorar la vida de los ciudadanos con servicios públicos más eficientes y sostenibles.

El concepto de alumbrado público inteligente personifica esa definición gracias a la confluencia entre la tecnología de iluminación LED, la conectividad, los dispositivos IoT (Internet de las Cosas) y las plataformas de gestión remota provistas de Inteligencia Artificial.

De este modo, cada luminaria o farola de la red del alumbrado público está conectada a través de redes de comunicaciones 5G o NB-IoT para enviar los datos captados por diferentes sensores (de luz, presencia o de consumo, entre otros) hacia una plataforma capaz de optimizar automáticamente el funcionamiento y la eficiencia individual de cada luminaria.

¿Por qué consumir energía cuando no hay nadie en la calle?

El alumbrado público inteligente no solo tiene la capacidad de ajustar la intensidad de la luz dependiendo de la presencia de personas en la calle.

También tiene la capacidad de predecir gracias a algoritmos de Inteligencia Artificial cuándo y con qué intensidad será necesario encender cada luminaria. O la iluminación de un edificio o un monumento, por ejemplo. Esto mejora la eficiencia de la red y también la sensación de seguridad y la percepción de servicio para los ciudadanos.

El alumbrado público inteligente tiene el potencial de reducir el consumo eléctrico y las emisiones contaminantes de forma significativa. Un ahorro que se suma al menor consumo implícito a las fuentes luz con tecnología LED.

La iluminación LED no solo es más barata y eficiente, sino que además tiene una vida útil significativamente mayor que las fuentes de luz convencionales. Eficiencia y vida útil que además se incrementan con la aplicación de Inteligencia Artificial predictiva.

Cómo el alumbrado público inteligente habilita nuevas oportunidades de negocio para los municipios

Además del ahorro energético, el alumbrado público inteligente permite a los ayuntamientos, consistorios y gobiernos municipales aprovechar la ubicuidad de las farolas para prestar servicios adicionales, incluyendo:

  • Sensores para combatir la contaminación lumínica, acústica y medioambiental.
  • Puntos de recarga para vehículos eléctricos.
  • Cámaras de seguridad y para el control de tráfico.
  • Puntos de acceso wifi a redes municipales.
  • Puntos de recarga para tarjetas de transporte público.
  • Paneles informativos o publicitarios.
  • Antenas de telefonía móvil y 5G.

Algunos servicios acoplados al alumbrado público inteligente tienen el potencial de generar ingresos extra para los municipios.

También supone prestar un mejor servicio y atención a los ciudadanos, reducir las llamadas de aviso o queja por luminarias averiadas, una mayor eficiencia en su mantenimiento… Y, por supuesto, incrementa el atractivo de la ciudad. Tanto para ciudadanos y turistas, al fomentar las actividades sociales y culturales, como para comercios y empresas.

Beneficios del alumbrado público inteligente para los ciudadanos

Una red de alumbrado público inteligente es uno de los ingredientes clave para las Ciudades Inteligentes, con un impacto positivo para los ciudadanos y para la imagen de las ciudades. Por ejemplo, al adaptar la iluminación a las necesidades de las calles mejora la seguridad de los espacios públicos y también la movilidad, tanto de personas como de vehículos.

Además, el alumbrado inteligente reduce la contaminación lumínica y posibles molestias en locales y viviendas próximas, incluso a la flora y la fauna. Evitar esto mejora la calidad de vida de los ciudadanos.

También beneficia al ciudadano al habilitar los nuevos servicios ya mencionados, como los puntos de carga para los vehículos eléctricos de residentes sin garaje o sin punto de carga doméstico.

Webinar: alumbrado público inteligente

Fotografía principal: Vlado Paunovic / Unsplash

‘Detox’ digital: ¿cómo saber si tu empresa la necesita?

Mercedes Blanco    25 enero, 2023

Miramos el móvil más de cien veces al día, pasamos con él más de 4,8 horas en la misma jornada, lo que supone un tercio de las horas que permanecemos despiertos, y entramos en pánico cuando vemos que se agota la batería. De hecho, más de la mitad de los españoles no salen de casa sin su cargador en el bolso. Esta misma adicción que retrata a muchos de nosotros se ha instalado también en las empresas, dando lugar a muy malas prácticas. De ahí la necesidad de la denominada ‘detox’ digital o desintoxicación digital.

Muchos confunden la digitalización con la conexión permanente o con una presencia excesiva. Negocios sobreexpuestos en redes sociales, con estrategias de marketing invasivas, con envíos intempestivos de correos electrónicos y con muy poco respeto por sus clientes y sus equipos de trabajo. Obsesión por estar conectados con sus audiencias, cuando estas les piden a gritos un respiro tecnológico. Por supuesto, también sus empleados. Es el momento de plantearse una ‘detox’ digital.

Un enfoque deformado de la digitalización

Muchas empresas con malos hábitos presenciales han replicado el mismo modelo en su versión digital. Entienden la digitalización como una presencia constante en todos los canales. A cualquier hora, en cualquier momento y bajo cualquier circunstancia, creyendo que, de esta manera, su organización dejará atrás la etapa analógica y que así ofrecen un mejor servicio.

Pero este enfoque deformado de la digitalización no se sostiene.

No hay que estar permanentemente alerta de correos, notificaciones o reuniones para seguir el pulso a la empresa. Tampoco es necesario contestar a peticiones que nos lleguen a horas intempestivas. Ni apuntarse a más cursos sobre competencias digitales de los que seamos capaces de asimilar. Incluso cuando sea necesario atender a clientes fuera de horario, no es preciso estar “en línea”. Los flujos de trabajo automatizados están justamente para evitar esa sensación de no haber nadie al otro lado y responder a un cliente un domingo por la mañana, si se diera el caso.

Existe ansiedad digital y tiene un coste tanto emocional como laboral y económico para las empresas. En un estudio impulsado por el Observatorio Nacional de Tecnología y Sociedad (ONTSI) se ponía de manifiesto la preocupación del 71% de los profesionales de padecer ansiedad o estrés por el mal uso de las tecnologías.

En nuestro país, una de cada cuatro bajas se debe al estrés o ansiedad, es decir, un 25% del total. No todas son debidas a ansiedad digital, existen, desafortunadamente, muchos más motivos pero con el acelerón de la digitalización que hemos experimentado desde la pandemia, comienzan a aparecer síndromes relacionados con una excesiva conexión o con malos usos de la tecnología.

Algunos de los síntomas para reconocer este agotamiento digital están muy a la vista, otros, no tanto. Uno de ellos es el FOMO, del inglés Fear of Missing Out, miedo a perderse algo si no se está conectado.

Si tus empleados se levantan en plena noche para ver si tienen alguna notificación importante en sus móviles, o si permanecen constantemente conectados por temor a que se les pueda escapar algún tema urgente, algo no va bien.

El antídoto: una buena estrategia digital

Basta con teclear en Google “retiros analógicos” para darse cuenta de la gran oferta que existe para este tema. Desde campamentos analógicos, vacaciones sin cobertura o retiros de silencio, en los que los usuarios deben permanecer al menos cinco días sin móviles. Son algunos ejemplos de cómo se intenta atajar esta ansiedad digital.

Pero si luego se regresa a la empresa y el escenario es el mismo. ¿Qué sentido tiene ese ‘detox’ digital?

Tarde o temprano, los síntomas del estrés digital volverán a aparecer si no existe una cultura organizativa realmente digitalizada. O lo que es lo mismo, si no está implementada una buena estrategia digital que:

  • Desarrolle secuencias de trabajo bien definidas con la respectiva asignación de recursos y tareas a diferentes equipos. Cada uno es responsable de su parcela de trabajo, de ponerla en común con las personas implicadas en su ejecución y de sacarlo adelante.
  • Coordine y monitorice el trabajo cooperativo. Se establece la periodicidad de las reuniones, una vez por semana con los responsables de cada línea de negocio. Cinco minutos deberían bastar para actualizar al resto del equipo de lo más destacado.
  • Contemple y respete los periodos de desconexión. Los tiempos de descanso favorecen la autonomía en el desarrollo del trabajo personal, y fomentan la motivación, iniciativa, curiosidad y creatividad.
  • Que promueva flexibilidad en el desarrollo del trabajo. Con jornadas asíncronas, trabajo en remoto, trabajo híbrido… Hay muchas fórmulas, se trata de ver cuáles son las más viables para la empresa y los trabajadores.

Uno de los casos más recientes de ‘detox’ digital es el de la empresa de cosmética Lush. En noviembre de 2021 abandonaba sus principales redes sociales, entre ellas Instagram o Tik Tok. El responsable de estrategia digital de la compañía explicaba que se dedicaban a crear productos para ayudar a desconectar a las personas y que las redes sociales están diseñadas para mantenernos conectadas el mayor tiempo posible. Ha pasado más de un año y Lush sigue figurando entre las primeras marcas de cosmética. Esto demuestra que es posible vivir la digitalización de otra manera.

El futuro del trabajo híbrido y las plataformas de metaverso

José Carlos Martín Marco    25 enero, 2023

En las últimas semanas se multiplican las noticias acerca de los deseos de algunas compañías de hacer volver a la oficina a sus empleados de una forma más regular. Esto nos lleva a una reflexión sobre el futuro del trabajo híbirdo.

Bob Iger, CEO de Disney quien, a las pocas semanas de asumir por segunda vez dicha función, se dirigió a los empleados por correo electrónico para defender que la presencia física en la oficina presenta ventajas claras para promover la creatividad, fortalecer la cultura corporativa y facilitar el progreso profesional.

Un reciente estudio de PwC confirma esta posición de los ejecutivos. Recoge que el 70 por ciento de ellos quiere que los trabajadores acudan a la oficina al menos tres días por semana, mientras que más de la mitad de los empleados quiere teletrabajar al menos tres días a la semana y casi el 30 por ciento preferiría hacerlo de forma permanente.

Esta parece ser también la conclusión del reciente estudio de VMware titulado “El dilema del trabajo distribuido: cuando innovación y satisfacción laboral compiten”. En él se afirma que el 48 por ciento de los encuestados en España piensa que su organización es más innovadora si los empleados acuden a la oficina.

Dudas sobre una verdadera colaboración en remoto

Sin embargo, según el mismo estudio, el 85 por ciento de los encuestados obtiene una mayor satisfacción laboral si puede elegir el lugar desde el que trabaja. Flexibilidad que, según numerosas investigaciones, crea equipos más felices y comprometidos, lo que debería conducir de forma natural a un aumento de la productividad, la colaboración y, por ende, la innovación. ¿O acaso las herramientas utilizadas para interactuar en remoto con nuestros compañeros no son suficientes para producir tal efecto en cascada?

Esta duda parece confirmarse en el informe de Microsoft Work Trend Index de 2022. En él se afirma que el 73 por ciento de los empleados encuestados quiere opciones flexibles de trabajo que le permitan por ejemplo trabajar en remoto. Pero, al mismo tiempo, el 67 por ciento demanda más colaboración en persona, lo que refrenda la duda acerca de las posibilidades de colaboración que ofrecen las herramientas actuales de videoconferencia.

En busca de una interacción más natural

Ya escribí respecto a que las herramientas de colaboración que utilizamos durante la pandemia permitieron la operatividad de las empresas en momentos de gran incertidumbre. Pero, a la vista de los resultados anteriores, parece que no son suficiente para muchos empleados que buscan una forma de interacción remota más natural.

El metaverso como solución

El mismo informe de Microsoft, consciente de dicha carencia de la tecnología actual, abre la puerta a nuevas formas de interacción, como el metaverso. Al parecer, el 52 por ciento de los empleados querrían utilizar espacios inmersivos en el metaverso para reuniones o actividades de equipo durante 2023 y el 47 por ciento presentarse en forma de avatar en dichas reuniones. Otro dato interesante es que el 51 por ciento de la generación Z y el 48 por ciento de los millennials se imaginan haciendo alguna actividad de su trabajo en el metaverso en los próximos dos años.

Las personas en el centro, la clave

Si el futuro del trabajo híbrido pasa o no por la utilización de plataformas de metaverso donde, además del aumento de productividad que ya tenemos con las herramientas actuales, haya una mejora de la colaboración y, por tanto, de la capacidad de innovación de las empresas está por ver.

Desde el punto de vista teórico es una posibilidad más que viable. Un nuevo entorno de colaboración que no esté basado en la apariencia actual de todas las herramientas de videoconferencia del mercado ofrece nuevas posibilidades al usuario. No obstante, como toda herramienta puesta en un contexto cultural determinado, además de evaluar aspectos puramente tecnológicos de viabilidad o indicadores de mejora de parámetros como los mencionados (productividad, colaboración o innovación), será necesario un análisis más completo en el que la persona tenga un papel central.

Imagen: lilivanili

¿Qué significa que mi aplicación sea Cloud Native?

Gonzalo Fernández Rodríguez    24 enero, 2023

El término Cloud Native es algo que va más allá de mover las aplicaciones alojadas en un data center a una infraestructura proporcionada por un proveedor Cloud, sea Cloud pública o privada.

Esto, que se conoce como “lift & shift” de aplicaciones a la nube, no es más que un proceso en el que nuestras aplicaciones dejan de correr en la infraestructura on-premises de nuestro data center para pasar a ejecutarse en una infraestructura Cloud, aunque en muchas ocasiones esto sucede sin ningún tipo de rediseño en la arquitectura de dichas aplicaciones, ni en las prácticas de construcción, despliegue y operación de las mismas.

Obviamente, incluso en ese caso, podremos aprovechar unos beneficios básicos “out of the box” al usar una infraestructura que tiene una mayor redundancia, facilidades para realizar backups, o que se mantiene actualizada con los últimos parches de seguridad, entre otras ventajas.

Pero tenemos que tener en cuenta que nuestra aplicación no se va a convertir en una aplicación Cloud Native por el hecho de desplegarla en la nube: si tienes un sistema que es una castaña y lo despliegas en un cluster EKS de kubernetes de AWS… tendrás una castaña ‘kubernetizada’.

Nuestra aplicación no se va a convertir en una aplicación Cloud Native solo por el hecho de desplegarla en una infraestructura Cloud.

Cloud ha cambiado las reglas del juego

No hace tanto era necesario hacer un buen estudio de las capacidades (potencia de computación, conectividad, almacenamiento…) que necesitaríamos para que nuestro desarrollo ofreciera un servicio con garantías. Al menos de entrada, porque después, periódicamente, había que evaluar el crecimiento del sistema y comprar más hardware si no queríamos que nuestros clientes nos abandonaran cuando aquello dejara de funcionar.

Hoy en día es posible hacer todo esto con un par de clics en una consola de administración. O mejor aún, con una llamada a una API (Application Program Interface) que nos permite además automatizar este proceso. La tecnología Cloud pone a nuestra disposición las capacidades de cómputo, red, almacenamiento así como otros servicios más avanzados (bases de datos, sistemas de colas de mensajes, analítica de datos, etc.) como abstracciones definidas por software dando lugar a lo que se conoce como Cloud Computing.

Cloud Computing viene a ser, en definitiva, esos recursos de computación que necesitamos para construir nuestros sistemas (CPU, almacenamiento, red, etc.) pero disponibles en la red. Además, los podemos ir consumiendo bajo demanda, ofreciendo una eficiencia en costes y una escalabilidad nunca vistas antes.

Cloud Native es consecuencia de la necesidad de escalar

Está claro entonces que Cloud ha cambiado la tecnología sobre la cual construimos y desplegamos nuestros sistemas. Pero, ¿por qué motivo? Dar un único motivo quizás sería un poco arriesgado, aunque lo que sí podemos afirmar es que Cloud Computing resuelve un problema de escalabilidad.

En los últimos años, las soluciones digitales —plataformas de gaming, streaming de video, música, redes sociales, etc.— se consumen cada vez más desde distintos dispositivos. No solo desde ordenadores, también desde teléfonos móviles, tablets, smart TV e, incluso, dispositivos IoT (Internet of Things) que han ido creado diferentes escenarios de acceso a nuestros sistemas.

El objetivo de las aplicaciones Cloud Native es aprovechar las ventajas de la nube para mejorar la escalabilidad, el rendimiento y la eficiencia

Escenarios donde el número de peticiones y el volumen de datos va cambiando. Es decir, escenarios que requieren que nuestro sistema siga funcionando correctamente ante cambios de demanda de recursos, en definitiva, escenarios que requieren que nuestro sistema sea “escalable”.

Sin embargo, esto no es gratis: la gestión de esta escalabilidad en nuestros servicios se vuelve más compleja, los métodos tradicionales ya no sirven, necesitamos otra forma de hacer las cosas. Al igual que en su día surgieron los PC —y con ellos las arquitecturas cliente/servidor necesarias para aprovechar su capacidad de cómputo— descargando así a los viejos “mainframes” de hacer todo el trabajo de nuestros sistemas.

Aparejado a este cambio tecnológico que llamamos Cloud Computing, y para dar respuesta a la gestión de esa escalabilidad, surgen nuevos patrones de arquitectura y también nuevas prácticas para operar nuestros sistemas dando lugar al término Cloud Native.

«Los sistemas Cloud Native están diseñados con la capacidad de crecer o decrecer de forma dinámica.»

Por eso, cuando decimos que un sistema o una aplicación es Cloud Native, realmente no nos estamos refiriendo a si se ejecuta en Cloud. Sino a cómo ha sido diseñado para ejecutarse y operarse de forma correcta sobre tecnología Cloud Computing, beneficiándose además de las ventajas de dicha tecnología.

Los sistemas Cloud Native se diseñan de tal forma que tengan la capacidad de crecer/decrecer de forma dinámica y de que se puedan actualizar. Y todo ello sin pérdida de servicio, lo que se conoce como «zero downtime». Zero downtime no significa un uptime perfecto, sino cumplir un objetivo por el cual no se percibe interrupción del servicio a lo largo del funcionamiento de una aplicación[1].

Cloud Native según la CNCF (Cloud Native Computing Foundation)

Hoy en día los usuarios no tenemos la misma paciencia que hace años, cuando veíamos totalmente normal que una página web tardase unos segundos en cargar o que un vídeo en streaming tuviera cierta latencia e incluso que se detuviera de vez en cuando. 

Cada día los servicios son más sofisticados y los usuarios demandan sistemas que funcionen con una percepción excelente. Ya no son tan pacientes. El nivel de escalabilidad proporcionado por la tecnología Cloud hace posible que aplicaciones de redes sociales, mensajería instantánea, streaming de vídeo o de audio permitan que millones de usuarios puedan conversar, subir fotos, vídeos, ver películas o escuchar música incluso al mismo tiempo.

Los usuarios no quieren fallos y demandan que los servicios estén funcionado bien continuamente. Y esto es complicado en un entorno tan cambiante como es el de Cloud.

La CNCF habla del término Cloud Native como un conjunto de tecnologías que nos permite construir y ejecutar aplicaciones escalables en entornos modernos y dinámicos como plataformas Cloud públicas, privadas e híbridas y multicloud.

También nos dice que los sistemas resultantes son débilmente acoplados, resilientes, administrables, observables y que, además, con una buena automatización van a permitir que podamos introducir cambios de forma frecuente y predecible con poco esfuerzo.

Atributos de Cloud Native para construir sistemas fiables y resilientes

En un entorno tan cambiante como es Cloud, va a ser necesario que diseñemos nuestros sistemas para que sean capaces de reaccionar ante posibles errores. Si conseguimos que nuestros sistemas tengan estos atributos que define la CNCF para las aplicaciones Cloud Native (escalables, débilmente acoplados, resilientes, maleables y observables), seremos capaces de mantener a nuestros clientes satisfechos al proporcionarles sistemas que funcionan de forma continua.

Si consideramos cada uno de estos atributos podremos ver cómo nos ayudan a conseguir que nuestros sistemas sean fiables y funcionen prácticamente sin interrupciones:

  • Escalabilidad: si diseñamos nuestros sistemas para que sean capaces de funcionar sin estado, conseguiremos que nuestros sistemas sean escalables y por tanto serán capaces de adaptarse ante un crecimiento inesperado de demanda de recursos, es una forma de “prevenir fallos”.
  • Acoplamiento débil: que nuestros sistemas estén débilmente acoplados evitando compartir dependencias como podría ocurrirnos cuando diseñamos un sistema basado en microservicios y terminamos generando un monolito distribuido (donde cambios en un microservicio no pueden ser hechos sin cambios en otros), permitirá que puedan evolucionar y escalar aquellos componentes o servicios (o microservicios) que se necesiten de forma independiente y, además, también logrará prevenir fallos derivados de los cambios necesarios en múltiples componentes si estuvieran acoplados.
  • Resiliencia: mediante la redundancia de componentes o la aplicación de ciertos patrones que eviten la propagación en cascada de fallos podemos hacer que nuestros sistemas sean más resilientes y por tanto puedan seguir funcionando aún cuando ocurran ciertos fallos, es decir, conseguiremos que nuestro sistema sea tolerante a fallos.
  • Administrable: si diseñamos nuestros sistemas de modo que puedan ser fácilmente configurables, conseguiremos poder cambiar ciertos comportamientos del mismo sin necesidad de desplegar una nueva versión del mismo, incluso podríamos eliminar posibles errores que hayan surgido.
  • Observable: por último, deberíamos de tomar medidas (métricas) de distintos indicadores de nuestros sistemas que podamos observar continuamente para poder predecir errores o comportamientos no deseados y actuar antes de que ocurran.

Cloud Native permite gestionar toda la complejidad que supone tener esa capacidad casi ilimitada que proporciona Cloud Computing.

Mediante la aplicación de patrones de diseño y prácticas de operación, conseguimos que nuestros sistemas sean incluso más fiables que la infraestructura Cloud sobre la que se ejecutan (por ejemplo un failover entre dos regiones de una Cloud) al mismo tiempo que el usuario tenga una confianza plena en el funcionamiento de nuestro sistema.

* * *

[1] Sobre la capacidad de planificar en base a la percepción de calidad del servicio por parte del usuario, existen una serie de libros escritos por ingenieros de Google —conocidos como SRE o Ingenieros de Resiliencia del Servicio— que extienden el concepto de SLA y al mismo tiempo que añaden nuevos como SLI o SLO.

Fotografía principal: Shahadat Rahman / Unsplash

Empleo ‘tech’ femenino: tres barreras que deberían desaparecer

Raúl Alonso    24 enero, 2023

En 2023 el mercado laboral español incorporará unos 240.000 profesionales formados en tecnologías de la información (TI), unos puestos que ocuparán mayoritariamente hombres. Mientras las mujeres representan el 32,2% de la población activa en España, la presencia femenina solo alcanza la ratio del 20,6% en el sector TI. Es decir, el empleo ‘tech’ femenino está muy por debajo del masculino.

Estos trabajos, que potencialmente podrían ocupar mujeres, cuentan además con una retribución por encima de la media. En cálculo del Grupo Manpower, las profesionales que se dedican al sector TI ganan unos 15.000 euros más que el salario medio de las españolas, alcanzando los 37.660 euros al año (según el INE, la media salarial de la mujer es de 22.467 euros).

Hay un tercer factor muy interesante a sumar en la descripción de esta brecha de género: hablamos de un sector laboral próximo al pleno empleo. 

Esta es la descripción que de partida ofrece el Informe Mujer y tecnología: El reto de la brecha de género para perfiles IT y propuestas para corregirlo, de Manpower. En su opinión hablamos de una situación común en cualquier país del mundo.

“Más allá de un mejor cumplimiento de la Ley de Igualdad, la llegada de más mujeres al sector contribuirá a incrementar la productividad, fomentará la estabilidad y el compromiso en los equipos”, considera Francisco Ribeiro, director general de ManpowerGroup España. “También dará cabida a otros modelos de liderazgo y, en definitiva, hará las empresas más atractivas tanto para clientes, como para atraer y fidelizar al mejor talento”.

Por todas estas razones muchas empresas están interesadas en contratar a este tipo de talento tech femenino. La duda es cómo conseguirlo.

Tres barreras que sortear

Siete de cada diez empresas afirma tener problemas a la hora de fichar empleados formados en TIC. Pero el informe identifica tres barreras que adicionalmente desplazan a la mujer de estos procesos de selección, en el sector que más empleo cualificado contrata en España.

1. Barrera educativa

Una vez más, las cifras son muy reveladoras: mientras el 53% de los graduados universitarios españoles son mujeres, tan solo el 15% lo es en informática.

Para revertirlo, se propone revisar la educación reglada, tanto la universitaria como la de formación profesional, al tiempo que se impulsan otros recursos formativos que “permitan preparar a las profesionales y dotarlas de las habilidades específicas que el mercado demanda en menos tiempo”.

Para ello se reclama potenciar la formación a través de bootcamps y, con ellos, el empleo ‘tech’ femenino. Estas instalaciones educativas apuestan por la tecnología para impartir conocimiento práctico y específico relacionado con el desarrollo de software.

2. Barrera sociocultural

Para que las jóvenes no crezcan en falsos mitos como el de una predisposición biológica diferente para hombres y mujeres en materia de formación, es vital que cuenten con referentes identificables. Esto ha ocurrido ya en las ciencias de la salud, donde en la actualidad ya se forma una mayoría femenina, algo que no ocurría hace pocos años.

3. Barrera profesional

Quizás el muro más complejo, al tratarse de sesgos inconscientes pero muy asentados en la sociedad, sea la barrera profesional.

El estudio cita varias investigaciones científicas que defienden que “en igualdad de experiencia y conocimiento, incluso utilizando exactamente el mismo currículum con nombres cambiados, las mujeres obtienen peores valoraciones sobre su perfil profesional, y son seleccionadas para posiciones de menor responsabilidad y salario”. Esta situación se produce en igual medida tanto si el contratante es hombre como mujer.

En este caso, la propuesta pasa por poner en marcha políticas de diversidad de género capaces de generar un ecosistema de talento e innovación que beneficie por igual a todos los que lo practican.

Tu empresa puede motivar el cambio 

Pero no se debe esperar a estos cambios estructurales para avanzar en el empleo ‘tech’ femenino. Para que cada organización contribuya al cambio, Manpower propone seis acciones abiertas a la experimentación y adaptación de cualquier empresa:

  1. Revisión de los procesos de selección. Anima a publicar las ofertas basándose en objetivos y resultados del puesto más que en una lista de requerimientos. Además, se invita a realizar procesos de reclutamiento sobre currículos ciegos para valorar solo criterios objetivos de experiencia y capacidad.
  2. Cultura de empresa diversa e igualitaria, que utilice un lenguaje inclusivo y dé voz a colectivos minoritarios.
  3. Política de remuneración y promociones sin sesgos, basada en criterios objetivos de logros conseguidos y capacidades.
  4. Políticas reales de conciliación y flexibilidad, que son esenciales para captar el mejor talento, en especial el femenino.
  5. Formación periódica en políticas de igualdad. Se trata de trabajar en la identificación y erradicación de sesgos cognitivos instalados de forma subconsciente en la organización.
  6. Análisis de las bajas voluntarias de la compañía, para identificar los motivos por los que la política de igualdad puede estar fallando.

Imagen de Freepik

El concepto que popularizó un ex-CEO de Google y que hoy está más vigente que nunca

Nacho Palou    23 enero, 2023

Hace algunos años el entonces CEO de Google, Eric Schmidt, popularizó el concepto “humanidad aumentada”. Este término se refiere a la capacidad que tiene la tecnología de “mejorar las capacidades humanas” para hacernos más eficientes. Para obtener mejores resultados con menos esfuerzo.

De forma resumida,

«Consiste en que los ordenadores nos ayuden con aquellas tareas en las que no somos demasiado buenos, y que nosotros ayudemos a los ordenadores con tareas en las que ellos no son mejores.» —Eric Schmidt, ex-CEO de Google

En su charla Schmidt destacaba el potencial que empezaba a demostrar la Inteligencia Artificial para “mejorar nuestras vidas”. Una tecnología que Google ya empezaba a aplicar con éxito en algunos de sus servicios.

La Inteligencia Artificial como herramienta y no como reemplazo

Schmidt destacó entonces cómo la Inteligencia Artificial —término acuñado en la década de 1950 por John McCarthyempezaba a mostrar “verdaderos progresos” para automatizar tareas “complejas, repetitivas y monótonas.” Incluso “inabarcables” para el ser humano. Así, su adopción nos permitiría enfocarnos en tareas relacionadas con el “pensamiento crítico y la creatividad.”

«La ‘humanidad aumentada’ se refiere a adoptar la Inteligencia Artificial como herramienta para mejorar la vida de las personas, no como reemplazo» —Eric Schmidt, ex-CEO de Google

Pero ¿cuáles son esas tareas repetitivas y monótonas que podemos automatizar con Inteligencia Artificial? Algunos ejemplos serían:

  • Análisis de grandes cantidades de datos procedentes de múltiples fuentes para extraer insights que permiten tomar mejores decisiones y optimizar procesos.
  • Reconocimiento de patrones en datos para automatizar la producción, prevenir incidentes, anticipar eventos futuros o identificar tendencias o preferencias.
  • Análisis de imágenes para extraer información de fotografías y vídeos y habilitar la visión artificial.
  • Conducción autónoma total o parcial y sistemas de asistencia a la conducción para reducir el número de accidentes y optimizar el transporte.
  • Robótica para automatizar tareas físicas, maquinaria y procesos de fabricación, de producción o de logística.
  • Procesamiento del lenguaje natural para automatizar tareas relacionadas con la comunicación como la asistencia y atención al cliente, la traducción o la generación de contenido.

La Inteligencia Artificial está cada vez más presente en los procesos de transformación digital de las empresas.

Del rechazo a su normalización: la peregrinación de las tecnologías disruptivas

Entonces la charla de Schmidt sobre el crecimiento de la Inteligencia Artificial generó escepticismo y rechazo entre algunas personas. Incluso miedo. Pero, como se suele decir, «un cambio solo da miedo cuando no estás dispuesto a cambiar con él.»

Sin embargo, los motivos son numerosos y también legítimos. Entre los temores más habituales se incluyen perder el empleo, poner en riesgo la intimidad y privacidad de las personas y sus datos, las consideraciones éticas por resolver, la falta de regulación, el incremento de la desigualdad y del riesgo de ciberataques… Sin olvidar el temor a la superinteligencia artificial, un argumento recurrente en la ciencia-ficción.

A lo largo de la historia, incluso antes de la revolución industrial, ha habido otros casos de tecnologías que primero han generado rechazo en algunas personas o en la sociedad, y que luego han demostrado su utilidad.

Un par de ejemplos recientes incluyen los móviles, por el temor a fueran un riesgo para la salud; o internet, porque podía utilizarse para cometer delitos. Ambas tecnologías han demostrado sin embargo su utilidad y hoy son esenciales para los negocios y la economía, las personas y la sociedad.

El teléfono fijo llegó a considerarse innecesario por la existencia de los mensajeros, y generó preocupación porque otras personas (operadores y operadoras) podían escuchar las conversaciones.

Tecnología, recualificación y formación continua, claves en la “edad dorada” de la IA

La llegada de nuevas herramientas de trabajo que surgen con la actual «edad de oro de la Inteligencia Artificial», en palabras de Satya Nadella, CEO de Microsoft, exige cambios.

Cambios para, además de desarrollarlas, incorporarlas en los procesos de trabajo, adaptarse a ellas y manejarlas. Igual que sucedió antes con la informática o con internet. También para anticiparse a una potencial brecha entre la demanda y la disponibilidad de los perfiles profesionales adecuados.

En este sentido, «la recualificación de los trabajadores (reskilling) ayudará a superar el impacto», en palabras de José María Álvarez-Pallete, CEO de Telefónica. La formación y actualización de las competencias es lo que permitirá cubrir los puestos de trabajo que genera la transformación digital y capturar las nuevas oportunidades.»

«La tecnología ha sido históricamente una creadora neta de empleo. Por ejemplo, la introducción del ordenador personal en las décadas de 1970 y 1980 creó millones de puestos de trabajo.»—McKinsey Global Institute.

Para las empresas «la estrategia ganadora a largo plazo es crear, cultivar y cuidar» el talento tecnológico, dice José Cerdán, CEO de Telefónica Tech. «No se trata de competir por capturar talento, sino por desarrollar programas internos de reciclaje y capacitación para fortalecer y actualizar las competencias», añade.

Lograr esto, dice Álvarez-Pallete, pasa por abordar una «recualificación masiva» a través de programas de formación adaptados a las nuevas competencias. También requiere la promoción de una «cultura de aprendizaje continuo» con el propósito de «gestionar la transición al nuevo mundo digital de una manera socialmente responsable.»

Fotografía principal: Nguyen Dang Hoang-Nhu / Unsplash