Herramientas para el cambio: un pensamiento es una intención

Lluis Serra    18 junio, 2020

Durante el verano pasado, preparé una conferencia sobre las diferentes herramientas para el cambio, titulada “La metamorfosis: un pensamiento es una intención”.

No se trataba de una charla motivacional. Para mí la motivación no existe. Existen motivos para estar motivado, que a veces no detectamos. Era más bien una conferencia provocativa y de reflexión. Este es el resumen con los diez puntos clave:

1. Personas: Mejora personal y continua

Todos los negocios, proyectos, empresas y comercios tienen detrás personas, que son las que deben realizar los cambios.

La mayoría de las personas queremos mejorar nuestra calidad de vida, pero somos pocas las que nos detenemos a pensar qué significa eso y no tenemos claros los motivos que nos llevan a hacerlo.

Meditemos sobre la sociedad del ser y no del tener, y sobre los valores que sostienen el mundo. Aprendamos a escuchar y hablar, descubramos nuestro talento y cuál es nuestra propuesta de valor como personas.

Estos cambios, entre otros, son el punto de partida para la mejora continua, que nos llevará a tener mejor calidad de vida y realizar nuestro trabajo con menos estrés y más eficacia.

2. Comportamientos: Forma de ser

No todo el mundo toma conciencia de que lo más importante de nuestros trabajos son los resultados que obtenemos. De hecho, si queremos ser precisos, lo más importante son los resultados positivos menos los errores que cometemos.

Muchos dedicamos horas y horas a trabajar, restando tiempo a nuestra vida privada y de ocio, sin pararnos a pensar que no deberíamos trabajar tantas horas. Solo hay que trabajar un poco mejor cada día para ser buenos profesionales.

La forma de ser es consecuencia de la forma de pensar. Si a ello le sumamos las creencias personales, nos llevará a tomar decisiones y realizar acciones.  

3. Objetivos: Metas

La creación de nuevos hábitos que rompen la rutina, y la repetición de nuevas acciones conducirán a una recompensa en forma de deseo, al comprender que se pueden conseguir nuevas metas. Es aquí donde tenemos que convertir ese deseo en un objetivo.

La mayoría de las personas confunden un objetivo con una previsión. Un objetivo es mirar al futuro y proyectar hacia el presente. Las previsiones comienzan en el pasado y van del pasado hacia el futuro pasando por el presente.

Debemos ser conscientes de que el punto de destino es el más importante y que se necesitan horas de reflexión para saber adónde queremos ir. Necesitamos pensar en grande y salir a ganar. Para esto es preciso un plan, organización y darnos el tiempo justo y necesario para conseguirlo.

4. Decisiones: Calidad de vida

Es importante actuar sin temor, porque lo que estamos reconstruyendo nos conducirá a tomar mejores decisiones en cualquier ámbito de nuestra vida, en beneficio propio, de las personas de nuestro entorno y de la sociedad en general.

Será necesario que tomemos decisiones y realizemos acciones que darán un resultado determinado. Es en este punto en el que nos tendremos que olvidar de los resultados, observarnos con mucha atención y centrarnos en los comportamientos y la toma de decisiones.

Estos son los cinco puntos que debemos trabajar antes de tomar decisiones para poder dar un paso adelante:

  • Trabajar menos.
  • Trabajar mejor.
  • Descansar lo suficiente.
  • Divertirnos.
  • Pensar con calma.

5. Acciones: Construye

Ninguna decisión se consigue si no hay una acción. Si tenemos claro que queremos cambiar porque lo hemos decidido, solo falta ponerse en marcha.

No seré yo quien diga qué acciones se necesitan realizar, ya que cada persona tomará sus propias decisiones y realizará sus propias acciones. Pero puedo afirmar que las acciones son la clave para llegar a conseguir los objetivos marcados.

Llegados a este punto, se pueden trabajar una serie de acciones que ayudarán a la persona a fortalecerse y construir una base sólida.

6. Liderazgo consciente: Observador consciente

Las empresas desean que las personas que dirigen equipos sean auténticos líderes, que saben lo que quieren, comprenden a las personas que les rodean e inspiran a los demás.

Otras empresas -pocas, de momento- van un paso por delante y están trabajando el denominado liderazgo consciente, que otorga una mayor importancia a las personas y a sus habilidades, frente a los conocimientos.

Un buen liderazgo consciente se consigue cuando te das cuenta de que tienes que cambiar ciertas actitudes, creencias y conductas.

7. Sueño: Deseos

Todo empieza con un sueño con destino final. Podemos lograr lo que nos propongamos en la vida si tenemos un sueño, un plan de acción adecuado a nuestras posibilidades, disciplina para aplicarlo y nos damos el tiempo necesario para conseguirlo. Un sueño es lo que no nos deja dormir por la noche.

Por pequeño que sea, todo el mundo tiene un sueño, pero a menudo nos falta encontrar los motivos para ponernos en marcha y conseguirlo.

Buscamos excusas que no son más que los miedos que tenemos, consecuencia a veces de nuestro entorno o de no tener claros los motivos que nos conducirán a nuestro sueño.

8. Compromiso: Esfuerzo

El significado de compromiso pasa por un pacto, un contrato o un acuerdo entre nosotros mismos y el sueño.

La disciplina, la dedicación y la gestión del tiempo son piezas clave para lograr un compromiso que nos lleve a realizar con pasión nuestro trabajo. La rutina refuerza nuestros hábitos, y cambiando los hábitos podemos llegar a variar, incluso, el carácter de las personas para mejorar los resultados.

9. Actitud: Optimismo

La actitud de las personas define su forma de ser y de pensar, es decir, sus comportamientos. Las aptitudes definen nuestros conocimientos. La suma de las dos genera confianza en las personas.

Si a la confianza de cada uno de nosotros le sumamos el talento que toda persona tiene y que muy a menudo no sabe que tiene, el resultado final es la creatividad, la experiencia en nuevas habilidades y la innovación. El futuro pasa por tener nuevas habilidades más que conocimientos.

10. Pasión: Diversión

Y el último punto para mí el más importante. La vida es pasión, el resto es una pausa.

Si ponemos pasión en lo que hacemos, la recompensa es enorme y llega en forma de felicidad.

Tenemos que definir muy bien qué significa la felicidad para cada uno de nosotros, buscar el equilibrio y sobre todo ser conscientes de lo que hacemos y por qué lo hacemos.

La analítica de datos como nueva competencia transversal en las empresas

Antonio Pita Lozano    18 junio, 2020

Siempre se ha dicho que la experiencia es un grado y que las cosas hay que verlas para creerlas. Estos principios han guiado a las empresas de todo el mundo durante mucho tiempo. Aunque muchas compañías ya están inmersas en su transformación data driven, otras –pequeñas y medianas, sobre todo- todavía están dando los primeros pasos en la analítica de datos.

En estas últimas, las “pruebas de campo” resultan cotidianas: anticipar una visita a la instalación para prevenir que una maquinaria se estropee, inspeccionar los contadores para evitar el fraude, revisar in situ los procesos de fabricación para mejorarlos… Es frecuente pasear por el campo de cultivo para ver cómo crece la cosecha, comprobar con una visita al almacén si hay suficientes materias primas para producir o visitar las tiendas para conocer los tipos de clientes que entran en ellas.

Pero esta pandemia y la consecuente limitación de movimientos nos ha obligado a reducir e incluso anular visitas que hasta ahora resultaban fundamentales para la toma de decisiones. Esto ha acelerado la necesidad de las compañías de convertirse en data driven. En primer lugar, priorizando la digitalización de todos los procesos y, después, tratando de mejorar la toma de decisiones basadas en datos. Ha quedado demostrado que convertirse en data driven es la decisión más inteligente.

Pero ¿están preparadas las compañías para basar en datos la toma de decisiones? ¿Están capacitados los empleados, que son su principal activo y en los que recae el cambio cultural necesario, para la analítica de datos?

Distintos perfiles en el ciclo de vida del dato

Es preciso identificar distintos perfiles en el ciclo de vida del dato para poder adecuar los conocimientos y capacidades a sus necesidades.

Los primeros son los productores o data authors, que son capaces de crear soluciones basadas en datos. Para poder realizar su trabajo, necesitan una profunda formación en técnicas y tecnologías asociadas a la gestión de la información. Entre ellas destacan la programación, la estadística, el machine learning y la gestión de bases de datos. Estas personas, conocidas como científicos de datos, ingenieros de datos, arquitectos de datos o similares, suelen trabajar en equipos multidisciplinares para poder combinar sus conocimientos.

Pero no es suficiente con contratarlos y ponerlos a trabajar. Para que puedan desarrollar toda su capacidad y extraer el máximo valor de los datos es necesario implantar en la compañía un ecosistema del dato o product data ecosystem que incorpore la tecnología, las técnicas analíticas y las aplicaciones que permiten capturar, almacenar, procesar y analizar dichos datos.

Es en esos ecosistema donde grupos de trabajo multidisciplinares generan las soluciones basadas en datos que extraerán insights de negocio. Luego serán utilizadas por el resto de la organización en la toma de decisiones.

Planes de alfabetización de datos

Este otro grupo de consumidores de datos o data consumers debe tener capacidad analítica de datos para poder comprender las técnicas utilizadas e interpretar de forma correcta los insights presentados. La realidad es que en muchas compañías no todas las personas están preparadas para poder analizar, interpretar y aprovechar un resultado analítico.

Por supuesto, no es necesario que tengan una formación tan profunda como los data authors, pero sí unos conocimientos básicos y unas capacidades analíticas que normalmente no han desarrollado en su carrera formativa ni en su vida laboral.

Por ello, es necesario establecer un plan que permita a los empleados extraer todo el valor de los datos. Estos planes de alfabetización de datos o data literacy tienen por objetivo capacitar a los empleados en el uso de los datos.

En ellos se establecen niveles de conocimiento y capacidades necesarios en función del rol y las decisiones que cada cual debe tomar.

Para poder establecer un plan adecuado para la compañía, es preciso realizar un análisis de las necesidades analíticas de cada persona y una evaluación de las capacidades para identificar el progreso necesario.

La analítica de datos, una necesidad como la ofimática

El camino es similar a otro que ya hemos recorrido con anterioridad. Hace 35 años comenzó a introducirse en las compañías la ofimática. Primero fue a través de la figura del especialista para, poco a poco, convertirse en una necesidad para todos los empleados. Por supuesto, con distintos grados de complejidad y uso según el desempeño.

Actualmente, para anticipar si una maquinaria se va a estropear, basta con sensorizarla y analizar los modelos de mantenimiento predictivo. Se puede comprobar si hay fraudes en un contador si éste está conectado, con técnicas de detección de anomalías. Para mejorar un proceso de fabricación, nada como la monitorización y optimización con técnicas de minería de procesos. Para ver cómo crece la cosecha, los drones pueden realizar un análisis espacial. El modelo predictivo de rotura de stock asegura la existencia de materia prima para la producción. Y para conocer los tipos de clientes que entran en las tiendas se puede seguir su huella digital incluso en locales brick and mortar.

En un futuro próximo, cada empleado deberá tener capacidad analítica de datos junto a la ofimática y el inglés. De hecho, en muchas carreras se va introduciendo cada vez con más fuerza el análisis de datos como una competencia trasversal de cualquier profesión.

Imagen: John Spencer

Video Post #20: Datos para aprender

Paloma Recuero de los Santos    18 junio, 2020

Cuando estás empezando en el mundo de la Ciencia de Datos y el aprendizaje automático, uno de las primeras preguntas que te haces es: ¿De dónde saco los datos para aprender?. Porque para entrenar algoritmos, necesito conjuntos de datos que cumplan determinados requisitos de volumen, estructura etc. En el vídeo de hoy os contaremos distintas opciones de hacerlo.

Si eres de los que prefieren leer, puedes encontrar el contenido del vídeo en este post:

¡Sigue nuestra Playlist!
Vídeo Posts Big Data + IA

Hagakure o cómo automatizar tu cuenta en Google Ads

Mercedes Blanco    17 junio, 2020

Ahora que todo parece ir hacia la automatización, la publicidad online no se queda al margen y surgen métodos para sacar más rendimiento a nuestras campañas. Hagakure es la nueva tendencia. Viene de Japón y Google ha comenzado a implantarlo entre sus socios europeos, explicando sus bondades y características.

El método Hagakure ayuda a optimizar grandes cuentas, incluidas las de las pymes con un gran historial en la plataforma, aprovechando los datos generados a lo largo de sus campañas y el aprendizaje automático de Google.

Pero, atención, no todas las cuentas pueden trabajar con esta estructura, hay una serie de condiciones que hacen a unas más propicias que otras.

Por cierto, Hagakure en japonés significa «oculto entre las hojas», pero también es la obra literaria de referencia sobre el código de conducta samurái. Hace mención a la tradición japonesa que Yamamoto Tsunetomo escribió para explicar a los que se iniciaban en el bushido o camino del guerrero.

¿Qué es Hagakure?

El espíritu Hagakure es lo que Google ha querido implementar en la estructura de sus campañas.

Deja atrás la dispersión y la fragmentación de las cuentas, para centrarse en la simplificación y aprovechar todo el potencial de las pujas automáticas y de su algoritmo de aprendizaje automático.

Seguir una metodología Hagakure significa estructurar de una manera muy simplificada tus cuentas de Google Ads.

Aunque no hayáis hecho muchas campañas en la plataforma de Google, seguro que os suena que las palabras clave y la segmentación en grupos de anuncios y anuncios eran los focos más importantes a la hora de estructurar las cuentas.

Es la estructura SKAG (Single Key Word Ad Group) y, como su nombre indica, se basa en tener una palabra clave por cada grupo de anuncios e ir jugando con las concordancias. Aquí el factor decisivo es la granularidad: infinidad de campañas y grupos de anuncios para conseguir relevancia y nivel de calidad.

Con una estructura Hagakure se proponen pocas campañas, con grandes grupos de anuncios.

Quizá se entienda mejor con un ejemplo. Un ecommerce de venta de zapatos online, con una estructura tradicional se compondría de multitud de campañas: “zapatos planos”, “zapatos de tacón”, “zapatos de fiesta”, “botines”, “bailarinas”, “mocasines”, “slippers”, etc.

Con la estructura Hagakure se reduce a:

  • Anuncios dinámicos de búsqueda.
  • Pujas automáticas.

De las configuraciones manuales a las pujas automatizadas

A lo largo de estos años, Google ha ido evolucionando en la configuración de su plataforma hacia la automatización y machine learning.

Desde 2016, Google ha ido introduciendo la opción de las pujas automatizadas (smart bidding), para maximizar clics e ir obteniendo patrones de comportamiento. 

Se trata de obtener la máxima eficiencia del algoritmo y eso se consigue de una manera más fácil con estructuras de campañas más simples.

Con las pujas automáticas te liberas de gran parte de la configuración manual de tu cuenta publicitaria en Google Ads, para cedérsela al algoritmo, que decide en función de tu historial de estrategias como maximizar los clics o reducir el coste por clic (CPC).

Estructura de una cuenta Hagakure

Si ya estás acostumbrado a las pujas automáticas, quizá te estés planteando esta nueva manera de organizar tus campañas en Ads. Estos son los factores que debes tener en cuenta:

  • URL única por grupos de anuncios: se agrupan todas las palabras clave vinculadas a una URL a un mismo grupo de anuncios.
  • Mantener solo las URL con gran volumen: si lo que intentamos es que el algoritmo de Google trabaje para nosotros, debe contar con las mayores posibilidades. En concreto, para las URL que contabilicen 3.000 impresiones por semana o 12.000 impresiones por mes.
  • Campañas por categorías de productos: se trata de agrupar términos de búsqueda y páginas de destino.
  • Usar la función IF basada en audiencias para tus anuncios. La función IF introduce una condicionalidad y permite insertar mensajes específicos en tus anuncios de textos cuando se cumple una condición. Con esta opción, lo que le estás diciendo al algoritmo de Google es que segmente los anuncios para diferentes audiencias.

Consejos antes de empezar con Hagakure

Hasta aquí la teoría, ahora toca ponerlo en práctica, pero antes de lanzarte con esta estructura, algunos consejos:

  1. Analiza tu historial y mira qué campañas puedes organizar con la estructura Hagakure.
  2. Fíjate cómo se han comportado tus campañas y, especialmente, las de pujas automatizadas.
  3. Concédete tiempo, sobre todo al principio. Es un método que no tiene los mismos resultados para todas las cuentas, ni tampoco desde el inicio. Piensa que el algoritmo también tiene que aprender de tus datos y de tus campañas y, para ello, necesita tiempo.

Ahora que ya estamos al final del post, juzga por ti mismo qué estructura se adapta mejor a tu cuenta y tus campañas de Ads. Quizá la configuración manual, tu propia capacidad analítica y tu creatividad te estén funcionando hasta la fecha.

No siempre la automatización encaja con todos los proyectos. Valora y decide, porque, de momento, esto no es competencia del algoritmo. 

Primero la conectividad, luego todo lo demás

Sara Martínez García    17 junio, 2020

No hay duda de que estamos viviendo tiempos interesantes, además de difíciles. Tiempos que han modificado drásticamente la forma en la que vivimos, nos relacionamos y trabajamos. La conectividad ha pasado a primer término.

La irrupción del coronavirus en nuestras vidas nos obligó a aislarnos de forma radical, a trabajar desde casa (la implantación del teletrabajo creció del 5 a un 34 por ciento en tres meses), a formarnos online, comprar en remoto o sustituir nuestras quedadas con amigos por encuentros virtuales.

Empezamos a activar las cámaras y nos convertimos en grandes usuarios de la videoconferencia. Nos hemos tenido que poner las pilas con la digitalización porque eso nos permitía ser más cercanos.

La conectividad, columna vertebral de nuestra sociedad

La conectividad se ha convertido en nuestra gran aliada, en la columna vertebral de la sociedad. Si antes de la pandemia parecía que nos separaba y nos obligábamos a apartar los móviles cuando cenábamos en familia o con amigos, y en el entorno laboral se hacía necesaria la desconexión digital, ahora la tecnología se ha revelado más humana que nunca. No en vano, las llamadas por teléfono y las videoconferencias han llegado a duplicarse.

España, a la cabeza de fibra hasta el hogar en Europa

Pero para que por las redes haya podido circular la vida durante la pandemia -como señalaba Jose María Álvarez-Pallete- ha sido clave tener una conectividad de calidad. En España hemos tenido esa capacidad de reacción porque nuestro país tiene una de las mejores redes de fibra de toda Europa. Según el Consejo Europeo de FTTH, en su informe de 2019, España ocupa el tercer puesto en el ranking de despliegue de accesos FTTH en el Viejo Continente y es segunda en cantidad de suscriptores.

Pero lo más destacable, y en lo que España se diferencia del resto de países europeos, es que nuestra propuesta de valor de conectividad se basa en fibra hasta el hogar, que es la mejor opción. El cien por cien de las suscripciones son de FTTH y no de FFTB (en este caso la fibra llega solo hasta el edificio, y la última milla hasta el hogar se mantiene con la solución ya existente, cobre por ejemplo).

Suecia, por ejemplo, aparece en tercer lugar en el ranking, pero su tasa de penetración contabiliza también las suscripciones FTTB. Bielorrusia tiene también una tasa de penetración mayor, pero la cantidad de hogares migrados a fibra es prácticamente la mitad que la de España.

Desde 2018 España ha incrementado su índice de penetración del 44 al 54,3 por ciento: un 10 por ciento de crecimiento frente a la media europea que se sitúa en un 3 por ciento. Cuando el próximo mes de diciembre se celebre el consejo europeo de FTTH de este año (que se debería haber realizado en abril) tendremos datos actualizados, pero ya hemos podido constatar la potencia de las redes de fibra en España y cómo esta apuesta nos ha permitido reaccionar rápidamente ante la pandemia.

Red Fusión de Telefónica

Para ofrecer la mejor red de fibra residencial y empresarial, Telefónica ha invertido en su proyecto de Red Fusión, una red diseñada con una arquitectura redundante y de alta disponibilidad pero, al mismo tiempo, simplificada. Esto permite mayor velocidad y menores latencias y puntos de fallo. Se trata de una única red para particulares, pymes y grandes empresas capaz de soportar incrementos de tráfico del 40 por ciento cada dos años. De hecho, debido al COVID-19, el tráfico creció en un mes lo que debería haberlo hecho en todo el año y la red lo ha soportado sin problema.

flexWAN: ventajas de una red virtual sobre la mejor red física

La propuesta de Telefónica continua con flexWAN. Con ella construye sobre la mejor red física otra virtual que ofrece servicios de valor añadido, al aumentar la visibilidad, la redundancia, el control y la seguridad de la red para las empresas. Y la pandemia ha dejado patente también que es así. Con el auge del teletrabajo y el acceso externo de los empleados a los recursos corporativos, las compañías necesitan disponer de anchos de banda dedicados para garantizar una buena experiencia. Y, lo que es más importante, necesitan mecanismos que les permitan visibilidad sobre cómo se está consumiendo esa conectividad, qué anchos de banda y aplicaciones se están utilizando y poder aplicar políticas de seguridad para actuar cuando sea necesario.

Robustez y calidad de la conectividad: back to basic

En los últimos años la conectividad ha vivido una etapa de invisibilidad o, mejor dicho, no ha tenido todo el protagonismo que se merece, se ha visto como una commodity. El coronavirus ha mostrado el error de ese planteamiento y su verdadera importancia. A mí me gusta pensar que la conectividad es como el aire: no se ve ni se siente pero es imprescindible.

Sin duda estamos viviendo tiempos interesantes. Muchas cosas están cambiando muy rápido y serán distintas ya para siempre, pero, a la vez, ha supuesto un “back to basic”, ha devuelto la importancia a la robustez y la calidad de la conectividad al centro de la escena. Ya sabéis: primero la conectividad y luego todo lo demás.

Imagen: Mohsen Dastjerdi Zade

Cómo transformar una compañía(III): Profundizando en la arquitectura de referencia

Jesús Montoya Sánchez de Pablo    17 junio, 2020

En entradas anteriores, comentamos la importancia de definir y priorizar casos de uso para transformar una compañía, y veíamos cómo la arquitectura de referencia es la expresión tecnológica de esos casos de uso. En este post, profundizaremos en la estructura de la arquitectura de referencia y qué aspectos técnicos deben tenerse en cuenta en su definición.

¿Cómo se estructura la arquitectura de referencia?

Independientemente de las herramientas y soluciones seleccionadas para componer la arquitectura, ésta requiere la configuración de capas de servicios que estructuren funcionalmente la arquitectura con vistas a su operación. De este modo, el diseño de la arquitectura de datos debe considerar las siguientes capas de servicios:

Figura 1. Estructura de la arquitectura de referencia para análisis de datos
Figura 1. Estructura de la arquitectura de referencia para análisis de datos
  • Fuentes de datos: en esta capa se sitúan los sistemas, aplicaciones, dispositivos y bases de datos que constituyen el origen de datos que se emplean posteriormente en los procesos relacionados con la analítica de datos. Los datos de esta capa pueden encontrarse internamente en la organización (como en el caso de datos del CRM, información transaccional u operacional o las reclamaciones de los clientes); o fuera de la organización (como por ejemplo, opiniones en redes sociales, información Open Data o bases de datos adquiridas). En las arquitecturas de referencia Big Data, se permite la incorporación de cualquier tipo de datos, independientemente de su naturaleza.
  • Plataforma de datos: en la plataforma se dispone el conjunto de componentes que permiten a perfiles de análisis de datos e ingenieros, así como, a las soluciones de explotación el acceso, transformación y análisis de los datos en el momento en el que se requiera. En la plataforma se incorporan componentes de los siguientes tipos:
    • Ingesta de datos: estos componentes aprovisionan las fuentes de datos contempladas en el diseño de la arquitectura, que en el caso de arquitecturas Big Data son de diversa naturaleza y características.
    • Repositorios de datos: los componentes de almacenamiento mantienen los datos en la plataforma para su potencial uso o acceso posterior y pueden variar desde bases de datos y repositorios de información estructurada hasta Data Lakes que permiten el almacenamiento de información altamente desestructurada.
    • Procesamiento de datos: estos componentes ejecutan tareas de limpieza, transformación de datos (para adecuarlos a las características exigidas para los tipos de análisis para los que se diseña la arquitectura) y entrenamiento de modelos. En el contexto de Big Data, el procesamiento de datos implica el tratamiento masivo y distribuido de datos por parte de componentes específicos para este fin.
    • Gobierno del dato: los componentes de gobierno del dato permiten gestionar el dato a lo largo de su ciclo de vida, mejorando su seguridad y su calidad. Entre este tipo de componentes se encuentran los de monitorización y administración, que permiten gestionar los distintos servicios, componentes y datos de una forma eficiente y útil, y los de seguridad y privacidad, necesarios para evitar, entre otras cosas, el acceso a la plataforma por usuarios desautorizados o la divulgación de información sensible o confidencial.

Adicionalmente, la arquitectura de referencia debe incorporar funciones para orquestar la ejecución de procesos por parte de sus componentes, buscando la racionalización y optimización de las cargas de trabajo y del aprovisionamiento de recursos. Estas funciones son especialmente críticas en los escenarios típicos de Big Data, cuando se elevan las cargas de procesamiento y las exigencias de calidad de servicio.

  • Explotación: en esta capa se muestran los resultados técnicos y analíticos de una forma interactiva para lanzar, por ejemplo, las correspondientes acciones de negocio o estrategias. Así, un dashboard con los principales indicadores de negocio de un área determinada sería un ejemplo de solución de visualización perteneciente a la capa de explotación. Además, la capa de explotación también puede incorporar los interfaces con aplicaciones y sistemas que recogen los datos de la plataforma de datos para utilizarlos en su operación o enriquecer otros repositorios de datos.

On-premise o cloud, ¿dónde implementar la arquitectura de referencia?

Uno de los primeros pasos a la hora de diseñar e implantar una arquitectura de referencia consiste en decidir si el despliegue de la arquitectura se realizará en la infraestructura local de la compañía, en el cloud, o en una combinación de ambos (nube híbrida). De este modo, los aspectos a tener en cuenta en la elección de proveedores de servicios y componentes para la arquitectura varían en función del tipo de implementación.

Implementaciones on-premise

En el caso de implementaciones on-premise, donde la arquitectura se instala en la infraestructura local, una definición clara del roadmap de casos de uso es clave en la elección del hardware y componentes tecnológicos, debido a la alta inversión inicial en tecnología que requiere. De este modo, para asegurar la amortización de la tecnología, la totalidad de los casos de uso debe requerir el uso de alguno de los componentes tecnológicos de la arquitectura.

Por otro lado, si no se posee de una definición específica de casos de uso, será necesario ir hacia una distribución de Hadoop que permita una aproximación más generalista a la arquitectura de referencia ya que poseen la mayor parte de los componentes necesarios.

Implementaciones cloud

En el caso del Cloud, la abstracción tecnológica permite un nivel mayor de flexibilidad en la elección de tecnología para la construcción de los casos de uso. Aunque es una buena práctica la elección de un stack tecnológico estándar para la compañía, el despliegue en entornos Cloud facilita la configuración de servicios específicos fuera de la arquitectura de referencia para la construcción de casos de uso muy concretos, incluso provenientes de proveedores Cloud diferentes (entornos multicloud). De este modo, se facilita la definición de una solución de arquitectura de referencia concreta para cada caso de uso.

Criterios para elegir el tipo de implementación

A la hora de decantarse por un tipo de implementación u otro, el nivel de madurez de la arquitectura, el tipo de casos de uso a desarrollar y el método de explotación previsto de la arquitectura son muy relevantes.

Así, salvo casos de sensibilidad excepcional en los datos y volumetrías elevadas, el uso de entornos Cloud hace más fácil y rápida la exploración de datos para pruebas de concepto, y simplifica el modelo de outsourcing. De este modo, la compañía puede simplemente dar acceso al proveedor externo a los datos y éste se encarga de la configuración de la arquitectura y de la construcción de la prueba de concepto. En caso de éxito, el escalado a la arquitectura de la compañía es más sencillo si ya está en el Cloud, ya que sólo requiere el traspaso de las cuentas o dominios del proveedor en el Cloud.

En otro caso, como en el de arquitecturas on-premise, se requerirá la definición de directrices de operativización para que la solución y resultados de la prueba de concepto se transfiera del Cloud del proveedor externo a la infraestructura local de la empresa con las garantías necesarias.

Figura 2. Proceso de análisis y dimensionamiento de la arquitectura de referencia para análisis de datos

Los detalles técnicos importan, ¿qué hay que tener en cuenta?

Una vez identificados los requerimientos funcionales de la arquitectura de referencia, que vienen definidos por los casos de uso, es necesario plantear la definición de los requerimientos técnicos.

Sin un correcto diseño técnico e implementación de la arquitectura, los servicios desplegados no pueden entregar el valor para el que se conciben.

 En la definición de estos requerimientos, se debe considerar:

  • Orígenes de datos: el número de fuentes de datos, su velocidad (RT, NRT, Batch) y la complejidad de ingesta tienen su impacto sobre los servicios que se han de desplegar.
  • Volumetría de datos: el volumen de datos a tratar define la capacidad de almacenamiento que requiere la plataforma, teniendo en cuenta las tasas de crecimiento derivadas de la implementación de los casos de uso.
  • Tipo de procesamiento: la exigencia de procesamiento en tiempo real para la ejecución de casos de uso analíticos impacta en la arquitectura a nivel de componentes y de dimensionamiento.
  • Requisitos en seguridad: los niveles de seguridad exigidos a la información, especialmente en el caso de datos sensibles, deben tenerse en cuenta de cara al almacenamiento y procesamiento de datos.
  • Entornos disponibles: en el diseño de la arquitectura, deben definirse el número de entornos diferenciados para el cumplimiento de los SLA de la compañía, y el tipo de separación que desea realizarse entre ellos (física o lógica). Como mínimo, se recomienda el uso de un entorno para desarrollo y otro para producción.
  • Distribución de la información: en la definición y construcción de la estructura de almacenamiento del Data Lake, se debe determinar el número de zonas de datos (landing, staging, golden area).
  • Frameworks y herramientas: en la definición de la arquitectura deberá determinarse si se plantea utilizar una distribución comercial de plataformas, sobre las que se certifica el funcionamiento de componentes concretos preinstalados sobre el clúster, o se plantea la configuración de los diferentes servicios desde cero.

Parámetros para el dimensionamiento de la arquitectura de referencia

Dimensionar la arquitectura de referencia puede encerrar una gran complejidad, especialmente en los casos donde el nivel de abstracción física de la arquitectura es menor (caso de arquitecturas on-premise). El dimensionamiento de la arquitectura de referencia tiene además gran dependencia del tipo de trabajos que quieren ejecutarse sobre ella (tareas de data engineering, analytics, o soportar un operacional). En todos los casos, para evitar desviaciones significativas respecto de las necesidades tecnológicas reales, se recomienda concretar en primer lugar la definición de los casos de uso a soportar por la arquitectura, realizar pruebas de concepto y escalar de forma progresiva el tamaño de la arquitectura.

El dimensionamiento de los clúster sobre los que se soporta la arquitectura de referencia tiene en cuenta los siguientes parámetros:

  • Tipo de nodo: Los diferentes nodos de un clúster se estructuran en base al rol que desempeñan en el mismo, y en el caso de arquitecturas on-premise, condicionan el tipo de servicios que pueden desplegarse sobre ellos. En el caso del Cloud, la configuración en base a servicios determina implícitamente los tipos de nodos necesarios para desplegar cada servicio.

Los diferentes tipos de nodos que se consideran en el dimensionamiento de clústeres de plataforma son:

  1. Nodos máster: se encargan de gestionar el conjunto de servicios operando a lo largo del clúster distribuido.
  2. Nodos worker: los servicios desplegados en estos nodos realizan la mayoría del trabajo de computación del clúster.
  3. Nodos Edge: en estos nodos residen las configuraciones y servicios que actúan como enlace con el resto de la red de sistemas corporativa y entre nodos del clúster. De este modo, sirven como punto final para llamadas por REST API y conexiones de tipo JDBC/ODBC con, por ejemplo, un sistema informacional que actúa como fuente de datos.
  4. Nodos de servicio: se encargan de alojar las consolas de administración de los distintos servicios de gestión del clúster, logs centralizados, planificación de trabajos, etc.
  5. Nodos de seguridad: se despliegan los servicios de encriptación, autorización y autenticación.
  • Número de nodos: El número de nodos determina la capacidad de trabajo en paralelo del clúster y la fiabilidad de su sistema de replicación. En arquitecturas on premise, como mínimo, los clústeres de la plataforma deben contar con 2 nodos de tipo máster y 3 nodos worker para asegurar la replicación de los datos y el funcionamiento ante fallos eventuales del nodo. En el caso del Cloud, la configuración de la arquitectura en base a servicios permite la abstracción de la elección del número de nodos, teniendo en cuenta además que en ocasiones no se requiere alta disponibilidad en los escenarios de negocio. Por otro lado, las funciones de escalado automático en el Cloud permiten que el número de nodos crezca o decrezca en función de las necesidades.
  • Procesador: entre las características del procesador, se encuentran el número de cores de procesamiento y el tipo y gama del procesador.
  • Memoria: define las características de la capacidad de memoria RAM de la máquina.
  • Disco: hace referencia al número y características de disco duro que integra la máquina, definido por su capacidad de almacenamiento,  tipo de disco, velocidad de transmisión y velocidad de rotación.
  • Tarjeta de red: hace referencia a la velocidad de transmisión del interfaz bajo el estándar Ethernet, tipo de componentes de red (switch, stack) y velocidad de comunicación entre racks de servidores para realizar el balanceo de carga.

En conclusión, el diseño de la arquitectura de referencia, estructurada en capas de servicios, está fuertemente condicionada por los casos de uso y el tipo de implementación elegido, donde la definición de los parámetros técnicos es clave para que la arquitectura entregue el valor esperado por el negocio.

Escrito por: Jesús Montoya Sánchez de Pablo y Óscar Lozano Colodra.


Todos los post de la serie «Cómo transformar una compañía»:

Movistar Prosegur Alarmas: La nueva Living App que muestra cómo ofrecer experiencias a través de la TV

AI of Things    16 junio, 2020

En Telefónica continuamos trabajando para ampliar la oferta de experiencias  dentro del ecosistema del Hogar Digital. Siendo el salón el corazón de una casa, hemos creado un ecosistema de productos y servicios que hacen de él un espacio inteligente y conectado. En este sentido, traemos a más de un millón de hogares en España nuevas experiencias digitales impulsadas por la Inteligencia Artificial, a través de las Living Apps.

Estas aplicaciones, desarrolladas internamente o por terceros, están disponibles permanentemente en la televisión de los clientes Movistar, sin necesidad de descarga. Abrimos el ecosistema a terceros para que el Hogar Digital sea un nuevo canal de llegada a los clientes. Actualmente, dentro del catálogo de Living Apps podemos encontrar diferentes propuestas de entretenimiento, cultura, deportes, viajes, e-commerce, música o gestión de servicios, liderados por empresas como Atlético de Madrid, Air Europa, Iberia o LaLiga. Todas ellas han visto en estas experiencias la posibilidad de conectar con sus clientes, de ofrecerles nuevas propuestas de entretenimiento, gestión de sus servicios e incluso un nuevo espacio en el que mostrarle los productos y servicios que todavía no conocen.

A este catálogo se suma una nueva Living App bajo el marco de la seguridad del hogar y el control de dispositivos:  Movistar Prosegur Alarmas.

Movistar Prosegur alarmas
Movistar Prosegur alarmas

Movistar Prosegur Alarmas da a conocer sus sistemas de seguridad desde la televisión

Con esta nueva Living App, acercamos a los clientes el crecimiento en tecnología e innovación de Telefónica junto a la experiencia en seguridad y protección que ampara Prosegur Alarmas. Esta experiencia digital tiene como razón de ser dar a conocer, a través de la televisión, los dispositivos y servicios de seguridad que desde Movistar Prosegur Alarmas ponen a disposición del cliente, basadas en soluciones tecnológicas y especializadas en seguridad.

La preocupación por la seguridad en los hogares españoles ha crecido en los últimos años y, por consiguiente, también el aumento de sistemas de alarmas instaladas. En este sentido, el Hogar Digital permite hacer uso de la tecnología y la innovación para obtener un mayor control de la seguridad en casa. En concreto, con la Living App Movistar Prosegur Alarmas el cliente puede acceder a un escaparate de los productos y servicios que la compañía ofrece.

Alarmas para hogares
Alarmas para hogares

Un nuevo canal de llegada al cliente

A través de la televisión en Movistar+, el cliente puede acceder al catálogo de Kits de alarmas de Movistar Prosegur Alarmas, para implementarlo tanto en su lugar de residencia como en espacios de negocio. Encontrará información relacionada con el kit de alarma en cuestión, como el precio de suscripción o el equipamiento que incluye, y también podrá ponerse en contacto de forma rápida con el número que le aparecerá en la pantalla de la televisión. Además, podrá conocer los componentes de una alarma y en qué consiste cada uno de ellos, con el fin de identificar los dispositivos que mejor se adapten a sus necesidades. 

Accediendo a la Living App la televisión se convertirá en el centro de control de casa, donde poder gestionar la vigilancia y descubrir consejos prácticos de seguridad – aplicables, por un lado, al día a día, como a situaciones en las que los clientes se encuentren fuera del hogar o del lugar de trabajo-. En este último caso, a través de la aplicación móvil los clientes pueden controlar de forma remota la alarma que tengan instalada, con opciones de recibir imágenes en tiempo real o la posibilidad de conectar o desconectar la alarma desde el propio smartphone. Todo ello gracias a los dispositivos conectados que conforman el Hogar Digital.

Recuerda que las Living Apps son oportunidades de negocio para las empresas, siendo la televisión un canal cercano y recurrente donde descubrir nuevas experiencias para los usuarios. Si quieres ampliar la información sobre ellas, puedes hacerlo a través de este enlace.

Para mantenerte al día con LUCA visita nuestra página web,  suscríbete a LUCA Data Speaks o síguenos en TwitterLinkedIn YouTube.

La mayoría del software que trabaja con ficheros no respeta SmartScreen en Windows

Sergio de los Santos    16 junio, 2020

SmartScreen es un componente de Windows Defender orientado a proteger a los usuarios contra ataques potencialmente dañinos, ya sea en forma de enlaces o ficheros. Cuando un usuario se encuentra navegando por Internet, el filtro o componente SmartScreen analiza los sitios que está visitando y, en caso de ingresar a uno considerado sospechoso, muestra un mensaje de advertencia para que el usuario decida si desea continuar o no. Pero también alerta sobre archivos descargados.

Hemos investigado cómo funciona SmartScreen particularmente en este aspecto y hemos intentado comprender cuáles son los disparadores que activan este componente de protección desarrollado por Microsoft para conocer mejor su eficacia.

¿Cómo sabe SmartScreen qué archivo debe analizar?

Alternate Data Streams o ADS es una característica propia del sistema de archivos NTFS que permite almacenar metadatos en un archivo, ya sea por medio de un stream directamente o por medio de otro archivo o fichero.

Actualmente los ADS también son utilizados por diferentes productos para marcar archivos en el stream “:Zone.Identifier” y así saber cuándo un archivo es externo (es decir, que no fue creado en el propio equipo) y por tanto debe ser examinado por SmartScreen. Microsoft comenzó a marcar todos los archivos descargados a través de Internet Explorer (en su momento) y otros desarrolladores de navegadores comenzaron a hacer lo mismo para aprovechar la protección de SmartScreen.

El valor que se escribe en el stream, es decir, el ZoneId, puede tener cualquier valor que uno desee. Sin embargo, el comportamiento de SmartScreen se rige en base a los valores reflejados en la siguiente tabla:

Activar el valor en cualquier fichero es fácil por línea de comando:

¿Los navegadores utilizan esta característica para marcar los ficheros?

Analizamos los 10 navegadores más usados en sistemas operativos de escritorio. Para ello, descargamos un archivo de una página web. ¿Se agrega el ZoneId al archivo descargado? En la mayoría de los casos sí.

¿Y los clientes de FTP, versión de código, sincronización en la nube o transferencia de archivos?

Analizamos ahora otros programas susceptibles de descargar ficheros. Por ejemplo, la mayoría de clientes de correo no agrega el ZoneId para que sea analizado por SmartScreen.

Una buena parte de los clientes de mensajería instantánea de escritorio sí lo hace.

Ningún cliente de FTP, versionado de código o de sincronización en la nube anade el ZoneID adecuado, por tanto los ficheros obtenidos por este medio no serán analizados por SmartScreen.

Tampoco se preocupan por marcar los ficheros los clientes de sincronización en la nube…

Ni por los mecanismos integrados de transferencia de archivos en Windows.

Al menos WinZip y el descompresor nativo de Windows sí respetan esta opción si se descomprime tras la descarga.

Posibles evasiones

Tras entender cómo y cuándo se marca el archivo, la investigación nos llevó a reflexionar sobre qué proceso se encarga de ejecutar SmartScreen y si existen formas de eludir esa ejecución bajo su supervisión. Para realizar la prueba, marcamos archivos en su mayoría interpretados y conocidos como maliciosos por SmartScreen para saber si el archivo ejecutado de esta forma eludía o no la supervisión de SmartScreen. Tomamos una serie de ficheros en diferentes lenguajes interpretados y les activamos el bit, como hemos mencionado antes.

El resultado puede verse en la siguiente tabla:

Quizás lo más curioso es la diferencia al lanzarlos con el comando start:

En el que SmartScreen se interpone en PowerShell, pero no en CMD.

Conclusiones

En la siguiente tabla resumen de las pruebas realizadas podemos ver el porcentaje de los que NO escriben ZoneId en el archivo al ser descargado para que pueda ser analizado por SmartScreen:

En general, podemos concluir que un potencial atacante tendría varias formas de hacer llegar un archivo malicioso a un equipo con mayores garantías de no ser descubierto por SmartScreen: confiando en que el usuario descargue ejecutables con ciertos programas.

Creemos que resulta necesario que tanto los desarrolladores como los usuarios estén concienciados sobre cómo funciona SmartScreen para aprovechar sus capacidades de detección y proteger mejor al usuario.

El informe completo está disponible aquí:

ElevenPaths de Telefónica amplía su colaboración con Fortinet para mejorar la seguridad del sector industrial

ElevenPaths    16 junio, 2020

ElevenPaths y Fortinet se asocian para mejorar la ciberseguridad en infraestructura y procesos industriales mediante la entrega de soluciones integrales de OT, IT e IoT a sus clientes.

ElevenPaths, la compañía de ciberseguridad parte de Telefónica Tech, y Fortinet, líder global en soluciones de ciberseguridad amplias, integradas y automatizadas, anunciaron hoy la ampliación de su marco de colaboración con el objetivo de ofrecer nuevos servicios gestionados de seguridad para clientes del sector industrial que les proporcionarán seguridad avanzada para sus entornos de tecnologías de operación de infraestructuras y procesos industriales (OT), tecnología de la información (IT) e Internet de las Cosas (IoT) de forma integral.

La ampliación del acuerdo permite a ElevenPaths aprovechar las soluciones del Fortinet Security Fabric para sistemas de controles industriales con el fin de satisfacer la creciente demanda de las organizaciones de servicios de seguridad administrados para garantizar que los entornos OT y IT estén protegidos y en cumplimiento. ElevenPaths ofrecerá a sus clientes las soluciones de seguridad OT de Fortinet con la mejor protección contra amenazas para entornos de TI corporativos que se extienden desde el centro de datos hasta la nube y el perímetro de la red, las cuales se apoyarán en el alcance global y la amplia experiencia de los profesionales de la seguridad de Telefónica para brindar el mejor servicio a los diversos sectores Industriales.

“Una gran parte de nuestros clientes se encuentra en una fase del proceso de transformación digital en el que las tecnologías OT e IoT tienen un papel protagonista. Aunque sus beneficios son indudables, también suponen una mayor exposición a riesgos de seguridad que deben ser convenientemente gestionados. La tecnología de Fortinet es una parte integral de nuestra propuesta de valor y de nuestra estrategia de ciberseguridad para garantizar que abordemos los nuevos y crecientes riesgos de seguridad de nuestros clientes”, señaló Alberto Sempere, director de producto y comercialización de ElevenPaths.

Fortinet tiene el conjunto más completo de soluciones para la protección de entornos industriales en el mercado de ciberseguridad. Como líder establecido en seguridad y protección de OT, Fortinet puede abordar una amplia gama de desafíos de entornos de IT y OT aislados, brindando protección instantánea de vulnerabilidades y acceso remoto seguro, abordando así los desafíos de ciberseguridad y confiabilidad que enfrentan las Industrias.

“Fortinet y ElevenPaths trabajan juntos desde hace unos años para ayudar a nuestros clientes a asegurar sus innovaciones digitales en rápida evolución. Estamos encantados de ampliar aún más nuestra colaboración para combinar los servicios de seguridad de ElevenPaths con las capacidades amplias, integradas y automatizadas del Security Fabric de Fortinet para proporcionar seguridad avanzada a redes OT e infraestructuras críticas», dijo John Maddison, vicepresidente ejecutivo de Productos y CMO de Fortinet.

ElevenPaths se posiciona como líder en ciberseguridad para entornos industriales, aportando el conocimiento de sus equipos multidisciplinares de expertos, la capacidad de sus MSSPs (Managed Security Service Provider) inteligentes a través de los que ofrece servicios gestionados globales, así como la experiencia como operador crítico de comunicaciones y la experiencia como empresa de servicios de seguridad física para brindar una propuesta de seguridad digital diferenciadora a sus clientes en todo el mundo.

«El desafío de la digitalización en el sector industrial es hoy una realidad en los mercados de América Latina. A pesar de ser un sector más resistente a los cambios y que evoluciona a un ritmo tecnológico más lento, las palabras ahorro, optimización, aceleración y mejora empiezan a estar entre las principales preocupaciones de los líderes de OT y TI. Contar con un socio con la capacidad de llegada al mercado como ElevenPaths es clave para apoyar a los sectores industriales a minimizar los riesgos de ciberseguridad con las soluciones de Fortinet, permitiendo aprovechar la visibilidad y valor agregado que aportan las nuevas tecnologías para normalizar, monitorear y optimizar procesos productivos en tiempo real, haciéndolos más seguros, simples, eficientes y rentables», comentó Joao Horta, vicepresidente de Ventas a Proveedores de Servicios de Fortinet para América Latina y Caribe.

Fortinet y ElevenPaths trabajan juntos desde hace varios años y, en junio de 2016 reforzaron su colaboración incorporando la arquitectura del Security Fabric de Fortinet a los servicios de seguridad gestionada de ElevenPaths, sumando ahora sus soluciones IT, OT e IoT.  ElevenPaths es a su vez Socio MSSP Expert y Aliado Tecnológico de Fortinet, trabajando juntos en Europa y Latinoamérica para reforzar la seguridad  de los clientes de ambas compañías.

ElevenPaths también es un socio de la alianza de tecnología Fabric-Ready en el Open Fabric Ecosystem de Fortinet. El Fortinet Open Fabric Ecosystem es uno de los más grandes en la industria de la ciberseguridad con más de 360 integraciones de tecnología, y extiende los beneficios del Security Fabric a clientes mutuos al permitir lograr una seguridad avanzada e integral en toda su infraestructura.

La ciberseguridad es uno de los servicios digitales que ofrece Telefónica que ha sido recientemente integrado, junto a los de cloud e IoT/Big Data, en Telefónica Tech, una nueva unidad que aglutina estos tres negocios con alto potencial de crecimiento y con los que quiere acompañar a sus clientes en su transformación digital.  

Nota de prensa completa

Claves para comunicar tras el coronavirus

Raúl Salgado    16 junio, 2020

El escenario que ha dejado el coronavirus es, en muchos casos, desolador. Pero debemos reconstruir entre todos lo que teníamos. Y, para ello, el papel de la comunicación es clave.

Carolina Morales, directora de Ion Comunicación, destaca la responsabilidad de los comunicadores a la hora de generar confianza y allanar el camino hacia la recuperación económica y social.

“Las empresas tienen que ser actores responsables del cambio y trasladar interna y externamente su contribución para superar la situación, sus disrupciones, sus desarrollos tecnológicos, sus planes de choque… Deben ir más allá de informar sobre las medidas de seguridad e higiene que hayan implantado o de lanzar mensajes de motivación y agradecimiento”.

Morales piensa que las compañías líderes deben involucrarse en la toma de decisiones y en las propuestas que se realizan desde la Administración, por mucho que sean las patronales y grandes asociaciones las que lleven la voz cantante. Y ahí la comunicación también resulta determinante.

Desde el punto de vista interno, la directora de Ion Comunicación recomienda demostrar solidez y continuidad, cambiar el chip después de una época en la que han imperado los contenidos más estrictamente emocionales, e informar a los empleados de las estrategias de actuación diseñadas para garantizar la marcha y competitividad de la empresa, que es, al fin y al cabo, lo que más motiva.

Repensar los modelos de negocio

Ha llegado la hora de los buenos jefes, de coger la sartén por el mango y trazar una hoja de ruta hacia un desconocido horizonte.

Tras el confinamiento, habrán cambiado nuestras formas de trabajar diariamente; las políticas, protocolos y procedimientos de la organización; los objetivos… Por ello, convendrá repensar de manera integrada y holística cada modelo de negocio; definir una nueva cultura laboral acorde con el cambio de mentalidad; y anticipar una respuesta a esta realidad, si no queremos que sea esta la que de manera orgánica, desordenada o impredecible nos redefina a futuro.

Los expertos sugieren rediseñar y reforzar la cultura de la organización, construir comunidad, fortalecer las relaciones y los vínculos entre todos los colaboradores. Y, en este escenario, la comunicación cobra un especial protagonismo.

Esfuerzo, coherencia, eficacia y ejemplaridad

Al comunicar, Lucía Casanueva, socia-directora de Proa Comunicación, asegura que los valores en alza son el esfuerzo, la coherencia entre discurso y acción, la eficacia y la ejemplaridad.

En el otro lado de la balanza, las praxis que deben evitarse son la arrogancia, la mentira, la improvisación y los discursos barrocos sin contenido.

Al margen del impacto psicológico que tendrá el virus en los empleados, buena parte de las empresas habrán sufrido desplomes de su facturación, espantada de clientes y problemas de financiación que deberán resolver cuanto antes para salir a flote.

Y ello requerirá nuevas directrices, que tienen que acompasarse desde el punto de vista de la comunicación, con mensajes certeros y oportunos, con transparencia y honestidad, con discursos que eviten el alarmismo.

Miles de compañías atraviesan situaciones verdaderamente complejas. Palabras como ERE o ERTE se han apoderado del diccionario. Y la tensión emocional, la inquietud por el futuro y el desasosiego se han adueñado de buena parte del tejido empresarial.

Casanueva cree que los mensajes que se lancen desde las empresas deberán ser claros y breves. Y que habrá que comunicar huyendo de la banalidad, porque el abuso de una comunicación hueca genera desconfianza.

Huir del marketing como herramienta

Por otra parte, y pese a que resulte bastante habitual, los expertos advierten sobre la incorrecta utilización del marketing como herramienta de comunicación.

Durante este periodo de tensa calma, “la motivación en la estrategia deberá provenir del corazón, pero habrá que usar mucho y bien la cabeza para transmitir ideas y contenidos. En definitiva, habrá que evitar todo lo que sea superficial y quedarse solo con lo esencial”, puntualiza.

La importancia del líder

Según Casanueva en un artículo en Vozpópuli, después del coronavirus “la figura del líder será esencial: los empleados necesitarán ver al patrón al frente y se fijarán no solo en su competencia profesional, sino también en su personalidad”.

También destaca que “el líder tendrá que poner en práctica más y mejor que nunca su capacidad de guiar a sus empleados y otros públicos bajo su área de influencia con su ejemplaridad y su esfuerzo”.

Esos líderes serán una especie de luz que guíe en la oscuridad con voluntad, talento y ganas de encontrar una solución a esta difícil coyuntura.

En este sentido, “los empresarios tendrán que poner esa capacidad de liderazgo a funcionar a tope, porque serán el estímulo para que el resto del equipo siga remando”, apostilla.

¿Y en redes sociales?

De puertas afuera y respecto al comportamiento que se ha de seguir en redes sociales, en ningún Plan de Social Media se incluían disposiciones sobre cómo actuar en situaciones de confinamiento y posterior desescalada. De ahí la importancia del sentido común del community manager.

Manuel Moreno, fundador de TreceBits, recuerda que los individuos han de ser el centro de la estrategia al comunicar en las redes sociales. Por tanto, si su situación cambia, también ha de cambiar la forma de comunicar.

“Las redes sociales no deberían ser canales para que las empresas e instituciones lancen los mensajes que quieren comunicar únicamente, sino plataformas para entablar lazos de confianza con los usuarios, que a largo plazo generarán oportunidades de negocio”.

En esta situación, Moreno anima a entablar relaciones cercanas y directas, basadas en la transparencia y en la honestidad.

Este experto cree que el coronavirus no es -o no debería ser- ni una oportunidad ni una amenaza.

“Es una nueva realidad. Quienes están presentes en las redes sociales han de adaptarse a ella, para seguir cerca de su público objetivo, tratando de satisfacer sus necesidades de información, comunicación, servicios… El problema es que nadie estaba preparado para una pandemia como esta”, concluye.