Telefónica Ecuador ¿Cuál es la plataforma virtual más adecuada para tu formación profesional? Cada día son más y más las personas que eligen tomar una formación académica a través de una plataforma virtual. Ya sea por tiempo, comodidad o por cuestiones personales, las...
Ismael Ruíz Estudio de competencia online: por qué debes espiar a tus competidores Para aumentar el éxito y la visibilidad de tu negocio en Internet, ya no es suficiente con desarrollar estrategias de marketing online. Por ello, te recomiendo que siempre tengas...
Raúl Salgado Nuevas cuotas, derechos y prestaciones de los autónomos en 2019 Los autónomos crearon durante el año pasado 196 empleos al día. En total, este colectivo está integrado por 4.140.132 millones de personas (3.253.039 cotizando en el RETA y 887.093...
Alejandro de Fuenmayor R2D2 y C3PO: ¿nuestros nuevos compañeros de trabajo? La carrera por la automatización: algunas consecuencias y retos. Transformará por ejemplo los servicio de outsourcing de TI, según Gartner. Es necesario que la regulación acompañe y hay un...
Sergio de los Santos Facebook firmaba una de sus apps con una clave privada compartida con otras apps de Google Play desde 2015 Hemos comprobado que Facebook compartía claves privadas con apps de origen chino en Google Play desde 2015 que podrían llegar a influir en la app original.
Área de Innovación y Laboratorio de Telefónica Tech Universidad y empresa: el talento está ahí fuera (III) Descubre los proyectos correspondientes a la III edición del Máster en Ciberseguridad de la UCAM en colaboración con Telefónica.
AI of Things Lo más destacado del BDID2017 (IV): Transformando los puntos de venta y atención del sector retail ¿Qué más podemos destacar del Big Data Innovation Day 2017? A día de hoy la mayoría de transacciones se realizan a través de un canal presencial, es decir, nos...
Innovation Marketing Team MYSPHERA, tecnología para reducir las listas de espera Liberar a los profesionales de la salud de utilizar su tiempo en cualquier cosa que no sea la atención al paciente es el principal objetivo de MYSPHERA. Esta startup,...
Los «centennials» prefieren el trabajo presencial y los «millennials» el teletrabajoRaúl Salgado 18 noviembre, 2020 Los trabajadores que nacieron con un ordenador bajo el brazo, paradójicamente, echan más de menos la oficina que los de su anterior generación. Puede que sean los máximos defensores de la flexibilidad, los críticos más vehementes de los que calientan la silla; pero lo cierto es que los profesionales que forman parte de la generación Z o centennials (nacidos entre 1996 y 2009) están deseando regresar a sus puestos tras ocho meses de pandemia. En cambio, los millennials o generación Y (nacidos entre 1982 y 1996) continúan priorizando el teletrabajo, alineados con una de las recomendaciones en la que más se hace hincapié para frenar los contagios. No es una cuestión de concienciación, ni de cumplimiento ortodoxo de las normas. Se trata, más bien, del convencimiento de los denominados centennials de que socializar, estrechar contactos y estar con el resto del equipo favorece el aprendizaje y el desarrollo profesional, también en términos salariales. Teletrabajar o no: ¿una cuestión de edad? La opinión respecto al teletrabajo varía sustancialmente en función de la edad y la etapa de la carrera profesional en que se encuentre cada persona. En líneas generales, los boomers (nacidos entre 1946 y 1965) prefieren el trabajo presencial y poder separar la vida laboral de la familiar, al tiempo que los miembros de la generación X (nacidos entre 1965 y 1980) valoran el estar en el lugar de trabajo para concentrarse y colaborar lejos de las responsabilidades del hogar, siendo el colectivo menos preocupado por la salud. Al menos, es lo que se desprende de un estudio de ManpowerGroup sobre Preferencias de Candidatos, que indica que más de la mitad de los profesionales de la generación Z quiere volver a la oficina, mientras que apenas cuatro de cada diez millennials lo anhela, debido fundamentalmente a la aparición de otras preocupaciones relacionadas con el cuidado de los hijos en edades tempranas. A estas alturas de la película, son pocos los profesionales que no sabrían enumerar la ya manida lista de las ventajas e inconvenientes del teletrabajo. Un cambio cultural Gema Lahoz, directora de Manpower Academy, asegura que el teletrabajo implica un cambio cultural. Recuerda que antes de la pandemia únicamente un 3% de los profesionales tenían posibilidades de trabajar a distancia con regularidad. Y que actualmente, de forma mayoritaria, los profesionales españoles están preocupados por su salud y valoran aspectos como una mayor flexibilidad. “Sus prioridades han cambiado y ahora desean mantener la autonomía que facilita el teletrabajo (76%), impulsar su capacidad de aprendizaje y adaptación con la formación virtual (82%) y mejorar la conciliación a largo plazo entre vida familiar y laboral (83%)”. Ir a la oficina dos o tres días a la semana Los horarios de lunes a viernes, de 9 a 17 horas, podrían estar en peligro de extinción. Más allá de que la mayoría de las personas prefiera trabajar presencialmente solo de dos a tres días a la semana, la directora de Manpower Academy señala que el 43% de los profesionales creen que la crisis de la COVID-19 ha marcado el fin del trabajo cien por cien presencial y piensan que evolucionaremos hacia un modelo híbrido. Y apostilla que, de momento, lo que es seguro es que con la crisis sanitaria, “las empresas deben ser más flexibles, diversas y orientarse al bienestar de sus profesionales, dando siempre prioridad a la salud”. Miedo a contagiar a la familia Según el citado estudio, realizado en ocho países para reflejar las consecuencias de la crisis sanitaria en las prioridades y temores de los trabajadores, el 53% de los profesionales se muestran preocupados por el riesgo de contagiar a su familia. De ahí, también, el recelo -sobre todo de los millennials– a desplazarse en transporte público. Diferencias entre géneros Asimismo, existen diferencias entre géneros. En este sentido, el 46% de los hombres se muestran positivos con el regreso a las oficinas, una sensación que apenas comparte un tercio de las mujeres, quienes de acuerdo con este estudio se sienten más preocupadas o nerviosas por la vuelta. Finalmente, dentro del colectivo de los padres trabajadores, los hombres subrayan la posibilidad de pasar tiempo con su familia como uno de los mayores beneficios de trabajar a distancia. Mientras tanto, las mujeres se muestran más reacias a volver a la oficina, y aumenta la preocupación entre las madres con hijos más jóvenes: 61% para las que tienen niños de 0 a 5 años, 53% para los de 6 a 17 años y 50% para los mayores de 18 años. Sin embargo, unos y otras recalcan los beneficios de no tener que desplazarse hasta el trabajo y la flexibilidad para poder trabajar cuando más convenga. Prioridades y preocupaciones Después de que ManpowerGroup haya encuestado a más de 8.000 empleados, algunas de las conclusiones son de lo más elocuentes. A nadie sorprende que mantener el puesto de trabajo sea una de las máximas prioridades en estos momentos de incertidumbre y caída de la actividad económica. Pero tras la preocupación por la salud, lo más inquietante es tener que volver a la vida laboral anterior y perder la flexibilidad vigente durante la crisis, permitida fundamentalmente por la posibilidad de trabajar desde casa. Más allá de las fronteras, ocho de cada diez trabajadores quieren conciliar mejor su vida laboral y familiar. Al tiempo que casi la totalidad de los países con mayor incidencia va implantando medidas cada vez más contundentes contra el virus, los trabajadores piden a sus empresas que prevalezcan la salud, la seguridad y el bienestar. Por último, el estudio de Manpower sostiene que valores como la confianza y la transparencia nunca han sido más importantes y que las grandes empresas saben que necesitan datos y conocimientos para transmitirlas. En este contexto, los expertos recomiendan realizar encuestas sobre preferencias, abrir canales de opinión y consulta y mantener una comunicación fluida. Las pymes también se pueden beneficiar del Big DataQué ventajas tiene un CRM en situaciones de crisis
El Hogar Digital de Telefónica permite acercar empresas y clientes de forma fácil, cómoda y seguraMiryam Artigas 18 noviembre, 2020 Invitar a gente a casa es algo muy personal, ya que un hogar muestra mucho de quienes viven en él: sus gustos, hábitos o aficiones. Incluso cómo las personas se relacionan con las marcas. Por ello, el pasado 12 de noviembre, los Ilustres Ignorantes abrieron las puertas de su plató a María Jesús Almazor (consejera delegada de Telefónica España) y Chema Alonso (chief digital consumer officer de Telefónica) para dar a conocer la propuesta del Hogar Digital de Telefónica, de gran interés para las empresas, a las que ofrece una nueva e innovadora manera de llegar a sus clientes, como ya explicábamos en este post. Telefónica, como Telco líder en cuanto a innovación tecnológica en el hogar, lleva años trabajando para que la conectividad haga esto posible y el consumo en el hogar sea algo cómodo e intuitivo. Y nadie mejor que ellos podían contar todas las ventajas y comodidades que ofrecen tanto a clientes como empresas. ¿El futuro de los hogares debe ser “inteligente”? Uno de los temas que se trató durante el evento fue la necesidad de dotar de inteligencia a los hogares de los clientes. “Me gusta decir que un hogar inteligente es un hogar conectado al mundo. Sobre todo, porque está conectado con la salud, con la educación, con las familias, con las administraciones públicas… y eso es posible ya que en España somos el país con mejor conectividad de Europa, gracias a Telefónica” afirmaba María José Almanzor.Por su lado, Chema Alonso, defendía la necesidad de que la tecnología presente en los hogares debe ser accesible para los clientes: “El futuro tiene que ser que todas las experiencias digitales que nos sorprenden a día de hoy se vuelvan cotidianas. A nadie le parece raro que tengamos conexión Internet por WiFi o que puedas llamar por móvil. Ya se ha metido en nuestras vidas. Nos hace la vida más fácil. Y eso es lo que tenemos que conseguir con las experiencias digitales”. Las Living Apps son la respuesta para las empresas que ven en su presente y futuro la necesidad de innovar para estar más cerca de sus clientes. La seguridad, un pilar fundamental del Hogar Digital de Telefónica Para Telefónica la seguridad es uno de los pilares fundamentales de su propuesta de valor. Por ello llevan años dotando a sus clientes de una gran cantidad de servicios que les ayudan a reforzar la seguridad tanto fuera como dentro del hogar. Así lo afirmaba Chema Alonso: “Para nosotros lo más importante es la seguridad, para que la gente se sienta cómoda y protegida en casa”. Hace años lanzaron el servicio Conexión Segura para que los clientes puedan navegar de forma segura por Internet, bloqueando amenazas de malware y phising, alertando a los usuarios ante aquellas webs poco seguras o que puedan poner en riesgo su privacidad. También dotaron su dispositivo Movistar Home con distintas características diferenciadoras (como la pestaña para ocultar la cámara cuando no quieras usarlo o el wake-up word de “OK Aura”, para que el asistente virtual de Movistar solo te escuche cuando tú quieras). Y, entre otras cosas, también dieron un paso adelante apostando por Movistar Prosegur Alarmas, para que los clientes se sientan seguros y cómodos tanto si están dentro como fuera del hogar. Living Apps: la oportunidad para que las empresas lleguen a más de un millón de hogares Todo ello no hace más que reforzar el valor que supone para otras empresas formar parte del Hogar Movistar. Con las Living Apps, como comentaba también Chema Alonso, Telefónica ofrece a otras empresas la posibilidad de ofrecer productos y servicios en un entorno cómodo, conocido y seguro. Donde cualquier persona, independientemente de sus conocimientos tecnológicos y sin necesidad de descargar ninguna aplicación añadida, puede coger el mando a distancia, acceder al catálogo de experiencias digitales de Movistar + y realizar una compra. Es posible, además, confirmar dicha compra a través del doble factor de seguridad desde el móvil.Así lo contaba María Jesús Almazor: “Las empresas solo tienen que crear su Living App e incluirla en el catálogo de aplicaciones para estar presentes en más de un millón de hogares españoles. Sin que sus clientes tengan que instalar nada ni pelearse con la tecnología”. Si quieres saber cómo fue el evento con Ilustres Ignorantes y repasar todas las tendencias e innovaciones que trataron, no te pierdas este vídeo. Algunas newsletters de referencia y las claves para su éxito en una gran empresaLa reinvención de las organizaciones y los nuevos valores corporativos
Cómo transformar una compañía (X): Auditar y mitigar sesgos en los algoritmosDaniel Sierra Ramos 18 noviembre, 2020 En los últimos años la cantidad de datos generados por parte de compañías y gobiernos se ha visto incrementada enormemente gracias al fenómeno conocido con la transformación digital. Este incremento de la información generada ha permitido mejorar en gran medida la toma de decisiones de grandes y pequeñas compañías con aplicaciones orientadas a la detección de fraude, la estimación de ventas, el mantenimiento predictivo o la segmentación de clientes, entre otros; así como mejorar la vida de las personas mediante los sistemas de recomendación de películas y música, las aplicaciones móviles para la previsión de gastos o los coches autónomos. Los sistemas de toma de decisiones automáticas han supuesto un gran avance para nuestra sociedad. Son capaces de evaluar la situación y actuar en un corto periodo de tiempo, y hasta en algunos casos, sin necesidad de supervisión humana. Todos los sistemas de toma de decisiones han de ser entrenados previamente con un conjunto de datos histórico que permita descubrir los patrones presentes en los fenómenos físicos y sociales que interactúan con nosotros, dejando al descubierto uno de los mayores problemas presentes en las aplicaciones de aprendizaje automático: los sesgos humanos. Los sesgos humanos se encuentran presentes en todas las facetas de nuestra vida, y, por tanto, en los datos que generamos. Este fenómeno hace que los algoritmos que construimos estén plagados de sesgos que introducen elementos discriminatorios que perjudican a ciertas minorías de nuestra sociedad. Principales causantes de la discriminación Entre los elementos causantes de la discriminación presente en los algoritmos se encuentran los siguientes: Datos sesgados Ocurre cuando el proceso de adquisición de los datos está sesgado y no es igualitario. “El policía y el crimen”: Un policía, a causa de sus sesgos raciales, detiene más individuos de raza negra que de raza blanca. A lo largo del tiempo, se irá generando un histórico de detenciones en el que se verá reflejado el sesgo del policía. Los modelos generados a partir de estos datos también adolecerán de este sesgo, haciendo valer la premisa de que “los individuos de raza negra cometen más crímenes que los individuos de raza blanca” Datos contaminados Se generan cuando la definición del problema no es la correcta. “El Manager y el proceso de selección”: A la hora de contratar un nuevo empleado, las decisiones del manager son las que más valen. Se desea construir un modelo que ayude en el proceso de selección de una compañía. Para ello se construye un clasificador y se toma como “variable objetivo” las decisiones tomadas en el pasado a la hora de contratar, es decir, la decisión del manager, el cual tiene preferencia por la contratación de hombres. Este sesgo se verá reflejado en el modelo, y por tanto en las posteriores contrataciones. En este caso, una “variable objetivo” más acertada podría ser el rendimiento que tuvo esa persona a lo largo de su tiempo en la compañía, y no la decisión que tomó el manager. Variables limitadas Cuando la información recogida en alguna de las variables es de peor calidad o menos confiable para alguno de los grupos sensibles. Una variable realmente relevante para uno de los grupos puede no serlo para otros. “La edad y la experiencia” En un modelo de selección de candidatos, se emplea la edad y los tipos de empleo que cada persona ha tenido a lo largo de su vida. En este caso, los más jóvenes no contarán con información de calidad acerca de empleos pasados, mientras que los más mayores, por tener más experiencia, tendrán más oportunidades. Disparidades en el tamaño muestral Cuando se dispone de muchas menos muestras en uno de los grupos sensibles frente al otro. “Las religiones del mundo” En el mundo contamos con más de 4000 religiones vivas, pero sólo 3 de ellas abarcan alrededor del 70% de la población. En el caso de que la religión actúe como una variable sensible, el resto de las religiones se verán infrarrepresentadas debido a la enorme diferencia en el tamaño muestral. Presencia de variables proxy Se produce cuando, a pesar de no haber variables sensibles, siguen existiendo variables correlacionadas con dichas variables sensibles que siguen aportando discriminación y sesgos “La geografía y la raza” Existen zonas geográficas en los que la mayoría de las personas pertenecen a una determinada raza o etnia. En estos casos, la localización geográfica, que es una variable no sensible, actuará como “proxy” de la raza introduciendo sesgos raciales, aunque la propia variable raza no se encuentre en el conjunto de datos. El criterio de Independencia Existen 3 criterios fundamentales para tratar los sesgos discriminatorios presentes en las aplicaciones de Machine Learning: independencia, separación y suficiencia. En este post, nos centraremos en el criterio de independencia por ser uno de los criterios más sencillos y empleados a la hora de evaluar un proceso o una acción susceptible de contener desigualdades. Consiste en medir el porcentaje de individuos de cada grupo sensible que se ve beneficiado. En el contexto del Machine Learning, consiste en evaluar el sesgo de una variable sensible teniendo en cuenta únicamente la salida del modelo analítico. En el ejemplo de la concesión de créditos, si un modelo otorga el crédito al 80% de los hombres que lo solicitaron y al 30% de las mujeres que lo solicitaron, diremos que el modelo está sesgado en cuanto al criterio de independencia, es decir, no existe statistical parity. En términos matemáticos, el criterio de independencia de puede definir como O lo que es lo mismo, que sea independiente de Entre los problemas más conocidos del criterio de independencia se encuentran los siguientes: Se descarta cualquier tipo de relación entre la variable sensible y la variable objetivoSe permite laziness, es decir, se podría alcanzar independencia incluso con datos aleatorios en uno de los grupos sensiblesSe permite el intercambio de falsos positivos y falsos negativos, manteniendo el criterio de independencia. Este problema se debe principalmente al hecho de que únicamente se tiene en cuenta la salida del modelo y no su rendimiento. El disparate impact (DI) es una de las métricas, junto con la statistical parity difference (SPD), que sirve para medir el sesgo presente en un conjunto de datos según el criterio de independencia. Para ello, se identifican los grupos sensibles u: grupo no privilegiado y p: grupo privilegiado dada una variable sensible Para que haya paridad estadística se debe cumplir que El valor representa el grado de flexibilidad permitido. Cuanto menor es el valor, más laxo es el requisito de independencia entre la salida del modelo y la variable sensible. Un valor ampliamente empleado es , lo cual implica que sólo puede existir un 20% de diferencias entre el grupo privilegiado y el grupo no privilegiado para que no exista discriminación. Este concepto tiene su origen en las Uniform Guidelines for Employee Selection Procedures, presentes en la legislación de Estados Unidos y adoptada por 4 departamentos gubernamentales (EEOC, Department Of Labor, Department of Justice, and the Civil Service Commission). Model Ethics: evalúa y mitiga el sesgo en tus modelos de ML Model Ethics es una de nuestras soluciones propuestas para la auditoría y mitigación de sesgos analíticos de una manera rápida y totalmente agnóstica al tipo de modelo de clasificación implementado en nuestros clientes. El principal objetivo es el de ofrecer una solución directa y fácilmente interpretable que permita reducir y asegurar unos niveles de desigualdad aceptables dentro del marco regulatorio sin renunciar al rendimiento del modelo analítico. Model Ethics se basa en el criterio de independencia para auditar los modelos analíticos, y se emplea la métrica conocida como disparate impact para evaluar el sesgo presente en el modelo. A su vez, se emplea la técnica Reject Option Classification para mitigar las posibles diferencias existentes entre cada uno de los grupos sensibles identificados. Paso 1: Datos de entrada y definición de variables El primer elemento presente es la carga de datos. Model Ethics acepta un fichero CSV que debe contener, al menos, los siguientes elementos: variables sensibles (raza, género, etc.), variable objetivo, predicción del modelo, score del modelo Una vez subido el fichero se selecciona el rol que tendrá cada una de las columnas, y se identifican a su vez todas las variables sensibles que se desean tratar. En cada una de las variables sensibles se debe seleccionar, a su vez, cada uno de los grupos sensibles presentes en el conjunto de datos (grupo privilegiado y grupo no privilegiado). En la Figura 1 se muestra un ejemplo en el que se define cada una de las columnas presente en el fichero “sample.csv”. Asimismo se seleccionan las variables sex y race como variables sensibles. Figura 1: Carga de datos y selección de variables Asimismo, se realiza la definición de cada uno de los grupos sensibles de las variables seleccionadas (figura izquierda). Concretamente, para el caso de la variable sex se identifican el grupo Male como grupo privilegiado y el grupo Female como grupo no privilegiado. Para la variable race se identifica el grupo White como grupo privilegiado y el resto de grupos como grupo no privilegiado. Si no se seleccionan manualmente los grupos sensibles, la herramienta los seleccionará automáticamente en base a la proporción de representación en cada uno de los grupos, otorgando a aquellos con mayor representación el grupo privilegiado. Paso 2: Evaluación de modelo Una vez definido el problema, se procede a realizar una pequeña evaluación del problema de clasificación binaria en términos de 4 métricas fundamentales: Accuracy, Precision, Recall y F-Score. Esta evaluación pre-auditoría resulta clave a la hora de valorar los efectos de la mitigación de los sesgos sobre los propios resultados del modelo. Figura 3: Métricas del modelo Paso 3: Auditoría de sesgos A continuación, se realiza una auditoría de los sesgos presentes en los resultados del modelo para cada una de las variables sensibles. Esta auditoría se realiza en función a la métrica del disparate impact, a partir de la cual se extraer el porcentaje de discriminación que el grupo privilegiado ejerce sobre el grupo no privilegiado. En la Figura 4 se muestra un ejemplo se auditoría ética. En este caso se observa un porcentaje de discriminación del 85.9% de los hombres frente a las mujeres, y una discriminación del 41.9% de los individuos de raza blanca frente al resto de individuos. Estos porcentajes se pueden obtener analizando el porcentaje de positivos para cada unos de los grupos (barras grises horizontales), según los cuales se indica que, del total de hombres, obtuvieron una salida positiva el 8.86% de ellos, mientras que de todas las mujeres, sólo obtuvieron una salida positiva el 1.25%. Una salida positiva se puede interpretar de diferentes formas de acuerdo al caso de uso que se esté tratando (por ejemplo, podría ser una concesión de crédito, o un pase exitoso en un proceso de selección). Figura 4: Auditoría ética Paso 4: Mitigación de sesgos Una vez detectados los sesgos presentes en el modelo, es posible realizar la mitigación de estos sobre la salida. Para ello se emplea la técnica conocida como Reject Option Classification, mediante la cual se analiza la salida probabilística del modelo para balancear el porcentaje de positivos de cada uno de los grupos sensibles. Para ello, la herramienta proporciona la posibilidad de que el usuario decida el máximo porcentaje de discriminación deseado a partir del cual se desea realizar la mitigación. La elección de este valor dependerá en gran medida de la aplicación y del nivel de restricción que se desee adoptar en este contexto. Automáticamente se toma como valor de referencia un porcentaje máximo de un 20%, el cual es un valor ampliamente aceptado por la comunidad. Es importante destacar que la mitigación de sesgos sólo se puede realizar sobre una de las variables sensibles a la vez, aunque esto pueda tener impacto en el resto de variables. En la Figura 5 se muestra cómo, a partir del porcentaje escogido, los valores de discriminación de la variable sex pasan de un 85.9% a un 17.2%. Figura 5: Mitigación de la variable «sex» Asimismo, analizando el impacto sobre el resto de las variables se puede observar también una pequeña mejora como consecuencia de la mitigación sobre el género. En este caso, la variable race pasa de un 41.9% a tener un 29.7%, que a pesar de ser superior al 20% supone una cierta mejora sobre el caso original. El hecho de que, por el hecho de mitigar la variable sex, se hayan conseguido mejoras también en la variable race, podría ser un indicativo de que, efectivamente, un gran número de los hombres beneficiados por el modelo eran hombres blancos. Figura 6: Impacto de la mitigación en el resto de variables sensibles Finalmente, una vez mitigado el sesgo y analizado su impacto en el resto de variables es necesario comprobar cuánto ha impactado la mitigación en las propias métricas del modelo. En la Figura 7 se muestra una comparativa entre las métricas obtenidas antes de la auditoría y después. Se puede comprobar cómo las métricas se han visto reducidas en todos los aspectos como consecuencia de la mitigación realizada sobre la salida del modelo. Figura 7: Impacto de la mitigación sobre las métricas del modelo Conclusiones La Inteligencia Artificial se enfrenta a un gran reto ético. Los sistemas de decisión automáticos dan pie a reutilizar los sesgos presentes en años de historia del ser humano haciendo que la toma de decisiones se vea comprometida y se desequilibre la balanza en perjuicio de algunos grupos minoritarios. Model Ethics pretende afrontar este problema haciendo accesible una herramienta de auditoría y mitigación de sesgos discriminatorio no intrusiva y empleando técnicas de post-procesado. Desde IoT&BigData se sigue avanzando en nuevos mecanismos que ayuden a las organizaciones a construir sistemas justos y que comprometidos con la Inteligencia Artificial Responsable (Responsible AI), no sólo en términos de discriminación, sino en todas las facetas (XAI, Privacidad, Seguridad, etc.) que ayudan a que la IA sea para todos. ¿Cómo conseguir una Inteligencia Artificial justa? Todos los post de esta serie: Cómo transformar una compañía(I): Priorizar casos de usoCómo transformar una compañía(II): conectar la tecnología con el negocioCómo transformar una compañía(III): Profundizando en la arquitectura de referenciaCómo transformar una compañía (IV): Desarrollar una metodología de ingesta de datosCómo transformar una compañía (V): Complementar las fuentes internas con datos externosCómo transformar una compañía(VI):Las POC o como un proyecto pequeño puede salvar uno grandeCómo transformar una compañía(VII): Poner una PoC en producciónCómo transformar una compañía(IX):Conocer el significado de nuestros datosCómo transformar una compañía(X):Auditar y mitigar sesgos en los algoritmos Para mantenerte al día con LUCA visita nuestra página web, suscríbete a LUCA Data Speaks o síguenos en Twitter, LinkedIn y YouTube. Video Post #24: Breve Historia de Internet de las Cosas (IoT)Alcalá de Henares: un ejemplo sobre cómo el Big Data ayuda a la movilidad de las ciudades
Nonces, salts, paddings y otras hierbas aleatorias para aderezar ensaladas criptográficasGonzalo Álvarez Marañón 17 noviembre, 2020 Cuentan las crónicas de los reyes de Noruega que el rey Olaf Haraldsson el Santo disputaba con el vecino rey de Suecia la posesión de la isla de Hísing. Decidieron resolver la disputa pacíficamente con un juego de dados. Tras acordar que la ganaría quien obtuviera la puntuación más alta, lanzó los dados en primer lugar el rey de Suecia. –¡Doce! ¡He ganado! No hace falta que arrojéis los dados, rey Olaf. Mientras agitaba los dados entre sus manos, Olaf el Santo replicó: –Todavía quedan dos seises en los dados y no le será difícil a Dios, mi Señor, hacer que vuelvan a aparecer en mi favor. Volaron los dados y volvieron a salir dos seises. De nuevo lazó los dados el rey de Suecia y de nuevo sacó dos seises. Cuando le llegó el turno a Olaf el Santo, uno de los dados arrojados se partió en dos, mostrando una mitad un 6 y la otra, un 1, sumando un total de 13. Como consecuencia, la titularidad de la isla le fue adjudicada a Noruega y ambos reyes se despidieron como amigos. La aleatoriedad juega un papel fundamental en todos los juegos de azar. Y lo que tal vez te sorprenda más: la criptografía no podría existir sin la aleatoriedad. En este artículo descubrirás cómo se usa la aleatoriedad en criptografía y cómo obtener números aleatorios, tarea, como verás, nada sencilla. ¿Qué es la aleatoriedad? Existen tantas definiciones sobre aleatoriedad que podríamos llenar un libro con ellas. En criptografía es común la siguiente interpretación, que cito de Bruce Scheneier: La aleatoriedad se refiere al resultado de un proceso probabilístico que produce valores independientes, uniformemente distribuidos e impredecibles que no pueden ser reproducidos de manera fiable. Quiero destacar los siguientes tres ingredientes que debe exhibir todo generador de aleatoriedad para usarse con garantías en «ensaladas criptográficas»: Independencia de valores: no existe ninguna correlación entre los valores generados. Por ejemplo, si lanzas una moneda (sin trucar) al aire y sale cara nueve veces seguidas, ¿qué es más probable? ¿Cara o cruz en el décimo lanzamiento? Pues la probabilidad sigue siendo 1/2, porque el resultado de un lanzamiento es independiente de los lanzamientos precedentes.Impredecibilidad: aunque te aburras observando valores y más valores, no puedes predecir con probabilidad superior al azar el próximo valor, sin importar lo larga que haya sido la secuencia precedente. Nuevamente, monedas, dados y ruletas constituyen excelentes generadores aleatorios porque, por muchas teorías que elabores, no sabrás qué saldrá a continuación (asumiendo que no están trucados).Distribución uniforme: seguro que mientras leías la crónica del rey Olaf el Santo habrás pensado: «¡Imposible! ¿Cómo van a salir dos seises cuatro veces seguidas?». Y haces bien en dudar, porque la probabilidad de esta secuencia es (1/36)·(1/36)·(1/36)·(1/36) = (1/36)4 = 0,00000059537… o 1 entre 1,67 millones. No es probable que se dé esa secuencia, pero sí es posible. De hecho, si se tiran los dados mil millones de veces aparecería en promedio unas 600 veces. La aleatoriedad tal y como la imaginamos se manifiesta en los grandes números, no en los pequeños números. Cuantos más valores se generen, esperaremos ver todas las secuencias posibles, distribuidas uniformemente, sin ningún tipo de sesgo. El problema con la aleatoriedad es que nunca estás seguro. ¿Estaban trucados los dados de los reyes nórdicos? ¿Coincidió que, mira tú por dónde qué casualidad, esa secuencia improbable se dio ese día? Existen pruebas de aleatoriedad que dictaminan con una confianza muy elevada si un generador es o no aleatorio, pero nunca se puede estar absolutamente seguro. De hecho, existe una amplia gama de conjuntos de pruebas estadísticas (NIST, Test01, Diehard, ENT, etc.) que tratan de descartar las secuencias que no verifican ciertas propiedades estadísticas, aunque no pueden garantizar la perfecta aleatoriedad. Cómo se generan los números aleatorios Sí, pero ¿cómo se generan números aleatorios en un ordenador? Para no complicar las cosas, limitémonos a dos enfoques: Generadores de bits verdaderamente aleatorios (TRNG): requieren una fuente natural de aleatoriedad. Diseñar un dispositivo de hardware o un programa de software para explotar esta aleatoriedad y producir una secuencia de bits libre de sesgos y correlaciones es una tarea difícil. Por ejemplo, se sabe que el ruido térmico de una resistencia es una buena fuente de aleatoriedad. Los TRNGs también pueden recolectar entropía en un sistema operativo en ejecución mediante el uso de sensores conectados, dispositivos de E/S, actividad de la red o del disco, registros del sistema, procesos en ejecución y actividades del usuario como pulsaciones de teclas y movimientos del ratón. Estas actividades generadas por el sistema y por el humano pueden funcionar como una buena fuente de entropía, pero pueden ser frágiles y ser manipuladas por un atacante. Además, son lentas para producir bits aleatorios.Generadores de números pseudoaleatorios (PRNG): por desgracia, la mayoría de las fuentes naturales no son prácticas debido a la lentitud inherente al muestreo del proceso y a la dificultad de asegurar que un adversario no observe el proceso. Además, sería imposible de reproducir, lo que exigiría dos copias de la misma secuencia: una para Alice y otra para Bob, lo que entraña la dificultad casi insalvable de hacérselas llegar a ambos. Por lo tanto, se requiere un método para generar aleatoriedad que se pueda implementar en software y que sea fácilmente reproducible, tantas veces como sea necesario. La respuesta está en los generadores de números pseudoaleatorios: un algoritmo matemático eficiente y determinístico para transformar una cadena corta y uniforme de longitud k, llamada la semilla, en una cadena de salida más larga, de aspecto uniforme (o pseudoaleatorio), de longitud l >> k. Dicho de otra manera: «Un generador pseudoaleatorio utiliza una pequeña cantidad de verdadera aleatoriedad para generar una gran cantidad de pseudoaleatoriedad». Para qué sirve la aleatoriedad en criptografía La aleatoriedad es difícil de generar y difícil de medir. A pesar de todo, es un ingrediente clave para el éxito de cualquier algoritmo criptográfico. Fíjate los diferentes papeles que puede llegar a jugar la aleatoriedad para hacer segura la criptografía. Claves de cifrado: para cifrar un mensaje se necesita una clave de cifrado, tanto para algoritmos de clave secreta como algoritmos de clave pública. Si esta clave es fácil de adivinar, ¡vaya timo! Un requisito fundamental para el uso seguro de todo algoritmo de cifrado es que la clave se seleccione de manera aleatoria (o lo más aleatoriamente posible). De hecho, un problema al que se enfrenta el ransomware es cómo generar claves aleatorias para cifrar los archivos de las víctimas. El mejor algoritmo de cifrado del mundo no vale nada si se desvela la clave. Se recomienda usar un dispositivo hardware para generarlas, como el TPM de los sistemas Windows o un HSM.Vectores de inicialización: los algoritmos de cifrado en bloque se sirven de un valor inicial aleatorio, llamado vector de inicialización (IV), para arrancar el cifrado del primer bloque y garantizar que el mismo mensaje cifrado con la misma clave nunca arrojará el mismo valor, siempre que se use un IV distinto. Este valor puede ser conocido, pero no predecible. Nuevamente, resulta crítico por tanto usar valores aleatorios (e impredecibles) para evitar repeticiones. Una vez más, se recomienda acudir a dispositivos hardware para generarlos.Nonces: un nonce es un número que solo puede usarse una vez (number used once) en un protocolo seguro de comunicación. ¿Y qué utilidad pueden tener estos fugaces nonces? De forma parecida a lo explicado con los vectores de inicialización, los nonces aseguran que aunque se transmitan los mismos mensajes durante una comunicación, se cifrarán de forma completamente diferente, lo que evita los ataques de reproducción o de reinyección. De hecho, los nonces suelen funcionar como IVs: se genera un nonce y se cifra con la clave secreta para crear el IV. Se utilizan además en protocolos de autenticación, como en HTTPS, o para los sistemas de prueba de trabajo, como en Bitcoin.Salts: la sal es otro valor aleatorio usado comúnmente a la hora de almacenar contraseñas en una base de datos. Como sabrás, nunca deben almacenarse las contraseñas en claro: ¡cualquier atacante que accediera a la tabla de usuarios vería las contraseñas! En su lugar podría almacenarse el hash de la contraseña. Pero ¿qué pasará si dos contraseñas son iguales? ¡Darán el mismo hash! Si un atacante roba la base de datos y ve muchos hashes de contraseñas idénticos, ¡bingo! Sabe que son contraseñas facilonas, de las que todo el mundo elige cuando no se esmera. Por otro lado, se pueden precomputar gigantescas tablas de hashes de contraseñas conocidas y buscar esos hashes en la base de datos robada. Para evitar estos problemas, se añade un valor aleatorio: la sal. En adelante, no se guardará el hash de la contraseña, sino la sal y el hash de la contraseña concatenada con la sal: H( contraseña || sal). Por consiguiente, dos contraseñas idénticas darán como resultado dos hashes diferentes siempre que la sal sea aleatoria. Igualmente, ya no sirven de nada los ataques que precalculaban hashes de contraseñas conocidas. Como los nonces, las sales no tienen que ser secretas, pero sí aleatorias. Otra aplicación típica de sales es en funciones de derivación de claves a partir de contraseñas (KDF). Un esquema muy sencillo consiste en repetir n veces el hash de una contraseña y una sal: clave = Hn( contraseña || salt ) Relleno: el famoso algoritmo de cifrado de clave pública RSA es determinista, es decir, el mismo mensaje cifrado con la misma clave arrojará siempre el mismo texto cifrado. ¡Eso no puede ser! Hace falta aleatorizar el mensaje en claro. ¿Cómo? Añadiendo bits aleatorios de manera muy cuidadosa, en lo que se conoce como el esquema OAEP, lo que transforma al RSA tradicional en un esquema probabilístico. Igualmente, para evitar la maleabilidad del cifrado con RSA en las firmas digitales, el esquema PSS añade aleatoriedad.Firmas ciegas: para conseguir que una persona firme digitalmente un documento, pero sin que pueda ver el contenido del documento firmado, se utilizan igualmente valores aleatorios que «ciegan» al firmante, ocultando el contenido del mensaje a firmar. Posteriormente, conocido el valor aleatorio, puede verificarse el valor de la firma. Es el equivalente digital a firmar un documento poniendo encima un papel de calco: impide ver el documento a firmar, pero transfiere perfectamente la firma al documento. ¿Y quién querría firmar algo sin verlo antes? Estos protocolos de firma ciega su utilizan, por ejemplo, en aplicaciones de voto electrónico y de dinero digital. Sin aleatoriedad no hay seguridad Los números aleatorios tienen una importancia capital en criptografía: constituyen la base misma de la seguridad. La criptografía no puede incorporarse a los productos y servicios sin números aleatorios. Un generador de números aleatorios inadecuado puede comprometer fácilmente la seguridad de todo el sistema, como confirma la larga lista de vulnerabilidades debidas a una pobre aleatoriedad. Por tanto, la elección del generador aleatorio debe tomarse cuidadosamente al diseñar cualquier solución de seguridad. Sin buena aleatoriedad no hay seguridad. Una explicación sencilla sobre SAD DNS y por qué es un desastre (o una bendición)Marina de Guerra del Perú y Telefónica firman convenio de colaboración en ciberseguridad
Las pymes también se pueden beneficiar del Big DataMercedes Blanco 17 noviembre, 2020 Muchas pymes creen que las nuevas tecnologías asociadas al dato, como el Big Data, son solo para grandes compañías, algo que les queda grande. Sin embargo, comenzar a conectar toda la información que contienen sus datos es vital para impulsar su crecimiento, y de ello dependerá la toma de decisiones de manera acertada. No tiene que ver tanto con el tamaño como con la manera en la que se extraen, conectan y utilizan los datos. Comenzar a utilizar una metodología en la que el dato sea el protagonista es primordial, no ya para crecer, sino también para sobrevivir. Vivimos en una sociedad hiperconectada que genera datos, con clientes que valoran la agilidad y la rapidez en sus hábitos de compra y con consumidores digitales con un doble perfil: offline y online. Compran tanto en comercios de proximidad como en tiendas digitales. Antes hablábamos de información, ahora sabemos que es el dato la clave para interpretar a este nuevo consumidor. Qué es Big Data y cómo puede ayudar a las pymes Si entramos a Google y tecleamos Big Data, veremos cómo hace referencia a grandes cantidades de datos, que se generan a gran velocidad y que proceden de diferentes fuentes. El volumen es tan grande y complejo que se necesitan nuevas técnicas de procesamiento para tratarlos. Todo ello, además, en tiempo real, donde se extrae información mientras está ocurriendo. Y quizá es esto lo que despista a las pymes. Es todo tan “a lo grande” que parece que no va con ellas, pero puede ayudarles, y mucho, a lo siguiente: Conocer el perfil tipo de sus clientes, lo que se conoce como buyer persona. Intereses, preferencias, hábitos de compra, redes sociales favoritas, etc.Optimizar sus procesos. La interconexión de los datos fortalece la interoperabilidad de departamentos y procedimientos, para que todos trabajen con un objetivo común.Destinar sus recursos de manera más eficiente. No es lo mismo destinar recursos basándose en expectativas o hipótesis que tomar decisiones con el respaldo de los datos.Obtener una visión estratégica del negocio y saber qué partes reforzar. Se acabó el Excel y las bases de datos como únicas fuentes desde donde se extraían los datos. Al contar con fuentes externas, la visión del negocio se amplía y enriquece.Segmentar clientes. No todos tienen las mismas preferencias. Etiquetar clientes según interaccionen con tus propuestas es la base para luego proponer ofertas segmentadas.Diseñar campañas personalizadas. Como consecuencia del punto anterior, cuanto más segmentados estén tus clientes, más posibilidades habrá de personalizar y afinar la venta. Analizar comportamientos de clientes. Saber cuál es su reacción ante promociones, cómo se comportan en el momento de la compra, la interacción con las campañas que lanzas, etc. No se trata del tamaño de la empresa. Se trata de saber utilizar inteligentemente el “ecosistema de datos” de las pymes. Cómo interconectar los datos Todas las empresas, por pequeñas que sean, gestionan diariamente datos: de sus newsletters, de sus proveedores, de sus clientes, de su servicio técnico, del sistema de pagos, de sus redes sociales, de movilidad, de ciclo de vida de los pedidos, de informes internos, etc. Y en ellos hay una fuente de conocimiento muy valiosa acerca de su negocio. El problema surge cuando esos datos no siguen una estructura y trabajan por separado, desconectados, sin aportar valor. Contar con una estrategia de datos es fundamental, porque es cuando la información se pone al servicio del negocio. Para llevar a cabo esta estrategia, las pymes deberían plantearse lo siguiente: Orígenes de datos. Identificar todos los canales de procedencia de datos de la empresa. Tanto de canales digitales como físicos: banners, eventos, CRM, viajes de negocios, redes sociales, etc.Recopilación y medición de datos, desde diferentes fuentes y estableciendo un mismo patrón de medición. ¿Cómo se obtienen los datos? ¿A través de formularios? ¿De campañas de captación de leads? ¿Fichas de clientes? ¿Registros de comercio electrónico? Analizar los datos obtenidos y asignarlos un valor. Cada lead cuenta y tiene un valor porque es un paso que contribuye a cerrar una venta. Asignarles ese valor muestra la importancia del dato en la consecución de la venta.Interconexión de los datos. No debe trabajarse en “modo isla”. Cada dato debería ponerse en relación con el resto de las estrategias en marcha y seguir la trazabilidad. Puedes captar datos de potenciales clientes en tu estrategia de email marketing, que luego pueden ser usados para tus campañas de Facebook Ads como audiencias personalizadas.Segmentar los datos para obtener información valiosa. Esto no significa tan solo poner etiquetas, sino también crear segmentos a partir de comportamientos. Ejemplo: crear un segmento con todos los visitantes a tu ecommerce que han cargado productos al carrito, pero no han llegado a comprar. O crear segmentos a partir de los clientes que compraron en la última campaña con códigos de descuento.Generar informes, en los que se destaquen los principales patrones – de compra, de costes, de movilidad, de penetración en el mercado- , y se anticipen tendencias y oportunidades de venta. Herramientas para analizar los datos ¿Y todo esto lo puede hacer una pyme con herramientas que no sean muy costosas? ¡Sí! Evidentemente, en el mercado hay herramientas especializadas en lo que se ha venido a llamar small data, pero si estás comenzando con tu estrategia de datos, estas son algunas de las herramientas que pueden ayudarte: Google Analytics, especialmente si configuras objetivos, embudos de venta y conversiones personalizadas. Google Search Console. Para comprobar las páginas más enlazadas en tu web y el comportamiento de los usuarios. Mailchimp o cualquier otra plataforma de email marketing que utilices. Podrás recolectar datos y segmentarlos según los comportamientos de las campañas. SurveyMonkey o cualquier otra herramienta de encuestas online. Te permitirá testear productos y servicios, chequear procesos, etc. Google Ads, Facebook e Instagram Ads y, en general, cualquier campaña SEM o social Ads que hagas, con los que podrás ir construyendo tu propia audiencia o público. Para la pyme no se trata tanto de tener una estructura Big como una estructura Smart. Del gran volumen de datos debe seleccionar solo aquellos que son verdaderamente valiosos para la toma de decisiones. ¿Te preocupa la conversión de tu tienda online? Doce consejos para vender másLos «centennials» prefieren el trabajo presencial y los «millennials» el teletrabajo
Algunas newsletters de referencia y las claves para su éxito en una gran empresaAlejandro de Fuenmayor 17 noviembre, 2020 Como explicaba el viernes pasado, las newsletters están viviendo una segunda juventud. En los últimos años hemos visto nacer un montón de boletines que han sido capaces de crear una gran comunidad a su alrededor. Incluso muchos de sus creadores los están monetizando y pueden vivir de esto como su fuente principal de ingresos, bien con la propia newsletter o combinada con otros modelos como el podcasting. Ambos fenómenos están creciendo a la par y rompen una lanza a favor de los creadores de contenidos. También funcionan las newsletters en la estrategia de las grandes empresas. Uno de los principales indicadores de la bonanza de las newsletters es ver cómo grandes compañías muestran su interés por el mismo, sobre todo, cuando sacan la chequera para comprar a los editores independientes de mayor éxito. Recientemente Business Insider lo ha hecho con una de las newsletters de referencia para el mundo sajón, como es Morning Brew, según publicaba The Wall Street Journal. La monetización de los boletines de noticias de autor no solo viene vía publicidad, mecenazgo o ingresos cruzados, sino que algunas de las newsletters y podcast más famosos del panorama español se están plateando dar el salto a una versión de pago (algunos ya lo han hecho). Una selección de newsletters en español Como os prometía, a continuación os dejo una selección de mis newsletters de cabecera en español. De tecnología en general Empezaré por tres más generales: Encabeza la lista la decana de ellas: la Bonilista de David Bonilla que, según él mismo contaba en la Voz de Galicia, “es una guía de emprendimiento que mezcla tecnología y negocios”. Tiene 12.000 suscriptores y una visualización semanal equivalente en cada una de sus publicaciones del domingo, sin contar a quienes llegan a ella a través de la Voz de Galicia, donde se publica a lo largo de la semana. Otra de las newsletters que ha conquistado este año mi corazoncito nerd ha sido Mixx.io. Ésta es diaria sobre noticias de tecnología, y su autor es Alex Barredo, al que podéis escuchar también en formato podcast y en sus monográficos sobre Elon Musk o Apple, con casi 9.000 suscriptores. Hace ya tres años y medio que Charo Marcos decidió montar Kloshletter, la primera newsletter independiente de información general que se edita en España. Trasladaba un producto muy consolidado en el mercado anglosajón pero que por aquí no se estilaba hasta el momento. Tiene ya más de 22.000 suscriptores y una tasa de apertura cercana al 60 por ciento, en línea con las ya citadas. Además, desde hace ya unas semanas y de la mano de Spotify, Klohsletter también está disponible para escuchar a diario. Contenidos más especializados Las tres siguientes recomendaciones son mucho más especializadas y diversas: su contenido pasa por el venture capital o el comercio electrónico, hasta llegar a la inteligencia artificial. Una de las newsletters más exitosas y reconocidas en el ciberespacio español en estos momentos es Suma Positiva, de Samuel Gil, que nació hace dos temporadas con el objetivo de ayudar a crecer al ecosistema emprendedor español, aunque los temas son bastante variopintos. Van desde el desarrollo de producto y analítica o métricas relacionadas con el growth hacking hasta el proceso de envejecimiento de los seres humanos. Con eCommpills pasamos al mundo del comercio electrónico. Ofrece la visión de uno de los mayores expertos del mercado patrio. La newsletter de Jaime Mesa proporciona curiosidades y consejos sobre el comercio electrónico y una de las herramientas más populares del sector, como es Shopify. Y, por último, pero no menos importante, os traigo The Independent Sentinel, la newsletter de Akoios donde Javier Fuentes comparte historias y noticias del mundo de la ciencia de datos así como curiosidades sobre matemáticas y sucesos relacionados con la historia de la ciencia. La newsletter de Akoios no deja de ser un complemento para su estrategia de contenidos que complementa sus publicaciones más técnicas. Objetivos a corto plazo En la mayoría de los casos estos autores disponen de patrocinadores semanales, mecenazgo a través de plataformas, como Patreon, e incluso alguno de ellos está pensando en hacerla de pago. También hay monetización indirecta a través de la comunidad, mediante la captación de leads para sus negocios o de eventos, como es el caso de la Tarugoconf. Algunos de los retos son seguir trabajando para mejorar aún más la calidad y alcanzar niveles de audiencia más altos, incluir más contenidos propios más allá de la prescripción o contar con los medios para desarrollarla hasta ver dónde puede llegar. Buenas prácticas para el éxito de una newsletter He podido hablar con los responsables de estos boletines, que generosamente han compartido alguno de sus secretos y buenas prácticas sobre cómo han llegado a estos volúmenes de suscriptores y tasas de apertura. ¡No os perdáis las claves! «Curación» de temas y contenidos David Bonilla explica que cuando un tema le resulta interesante y cree que puede generar debate lo apunta y lo guarda para desarrollarlo en la newsletter. Es, además, flexible: “Mis envíos se centran en tecnología y negocios digitales, pero me permito tocar cualquier tema -hasta política- si me lo pide el cuerpo.” Otros, como Jaime Mesa y Javier Fuentes, usan una base de datos en Notion sobre la que “curan” el contenido, que luego les sirve como base para trabajar en cada edición. En el caso de Jaime, el filtrado es por descarte: “Me quedo con los mejores y finalmente decido cuáles encajan mejor según la edición, las ganas que tenga de escribir sobre un tema, etc. Entran en juego unas cuantas variables”. Despertar interés y explicar el porqué de las cosas Charo Marcos, periodista de profesión, tiene un enfoque diferente: “Trato de hacer un repaso general a la información más importante del día e intento explicar por qué suceden las cosas. Después me gusta mezclar las noticias imprescindibles con otras que llamo curiosidades inteligentes y tienen que ver con el estilo de vida, el arte, la cultura y un montón de cosas más que despiertan el interés de quienes están abiertos al mundo.“ Newsletters en la estrategia de las grandes empresas Aunque los ejemplos que he puesto están más apegados a la marca personal, las newsletters en la estrategia de las grandes empresas también encajan, por supuesto. No se trata de vender, la clave son los contenidos Todos los autores coinciden en que se trata de una herramienta útil para comunicar a cualquier segmento de clientes. Según David Bonilla, “es un canal más y debe explotarse teniendo en cuenta sus peculiaridades, pero el reto de la comunicación corporativa no es el canal en sí, sino los contenidos. Lo importante es que los envíos sean relevantes para sus clientes, que les aporten valor. No se trata de vender, eso llega después. Ahí está la clave.” Calidad, conexión y engagement Samuel Gil añade una reflexión muy importante en cuanto a la calidad de los contenidos: “La newsletter es totalmente válida para una gran empresa. De hecho, el email marketing es una de las técnicas más empleadas por las compañías. Sin embargo, creo que muchas de ellas no se centran en la calidad de los contenidos, que es lo realmente importante, sino en la cantidad de los mismos, lo cual considero un error que trae consecuencias contrarias a las deseadas”. Para Álex Barredo “cualquier comunicación directa por correo crea una conexión especial. Y tiene que ser algo muy bueno para que la gente se deje inundar su buzón todas las mañanas, así que tiene que crear vinculación para que se mantenga la conexión.” Cómo captar el interés del lector: lecciones aprendidas “La mayor lección es que realmente hay que escribir el boletín que a uno le gustaría recibir”: esta reflexión de Alex Barredo podría ser un primer mandamiento. David Bonilla apunta que la competencia es feroz, “Competimos con todo y con todos por captar la atención del lector entre diez minutos y media hora. Solo se me ocurre hacerlo intentando aportar siempre el mayor valor posible y proporcionándole algo que nadie más le pueda dar.” La honestidad a la hora de seleccionar los contenidos e informar es clave -así lo ve Charo Marcos. “Creo que mi lector se fía de mí y eso es una responsabilidad tremenda. He descubierto que hay mucha gente a la que le interesa estar informada sin ruido ni estridencias. Y ésas son mis pautas.” Samuel Gil coincide con ella: “Tiene que haber autenticidad. No puedo escribir para que resulte interesante y entretenido sobre algo que no me interesa o divierta. O a lo mejor sí, pero no sería sostenible en el tiempo”, asegura. A Jaime Mesa le funciona la cercanía para fidelizar al lector, “La verdad es que simplemente comparto buen contenido, tengo un estilo propio y mezclo mi vida personal y profesional, lo que humaniza la newsletter. A la gente le gusta saber quién hay detrás”. Y una reflexión final de Samuel: “Leí un día que Ben Thompson decía que es muy probable que un lector llegue de un modo u otro a tu blog/newsletter. Pero lo que va a determinar que se quede a largo plazo es que lo segundo y lo tercero que lea (seleccionado al azar) sea de tanta calidad como lo primero.” Interesantes consejos, sin duda, a la hora de contemplar las newsletters en la estrategia de las grandes empresas. Imagen: EpicTop10.com Cómo navegar en la incertidumbre provocada por la pandemiaEl Hogar Digital de Telefónica permite acercar empresas y clientes de forma fácil, cómoda y segura
Video Post #24: Breve Historia de Internet de las Cosas (IoT)Paloma Recuero de los Santos 17 noviembre, 2020 En el vídeo de hoy vamos a hacer un breve repaso a la historia de Internet de las Cosas (Internet of Things_IoT). Pasando de la comunicación máquina a máquina (M2M), máquinas conectadas entre sí a través de una red sin interacción humana, a convertirse en una red de sensores de miles de millones de dispositivos inteligentes que conectan personas, sistemas y otras aplicaciones para recopilar y compartir datos https://youtu.be/j81YaGUSKA0 Si eres de los que prefieren leer, puedes encontrar el post aquí: Breve historia de Internet de las cosas (IoT) Si quieres conocer todos los Vídeos publicados en nuestro blog, pulsa aquí ¡Sigue nuestra Playlist!Vídeo Posts Big Data + IA Data Governance: Los datos como nuevo factor de producciónCómo transformar una compañía (X): Auditar y mitigar sesgos en los algoritmos
Una explicación sencilla sobre SAD DNS y por qué es un desastre (o una bendición)Sergio de los Santos 16 noviembre, 2020 En 2008, Kaminsky sacudió los cimientos de internet. Un fallo de diseño en DNS permitía falsear respuestas y enviar a una víctima a donde el atacante quisiera. 12 años después, se ha encontrado una fórmula similar muy interesante para poder envenenar la caché de los servidores DNS. Peor, si cabe, que la de Kaminsky. Fundamentalmente porque no necesita estar en la misma red de la víctima y porque ha sido anunciada cuando todavía muchos servidores, sistemas operativos y programas no están parcheados. Veamos cómo funciona de forma comprensible. Para poder falsear una petición DNS y devolverle al cliente una mentira, el atacante debe saber el TxID (transaction ID) y el puerto origen UDP. Esto supone una entropía de 32 bits (adivinar dos campos de 16 bits). SAD DNS consiste (básicamente, porque el paper es muy complejo) en inferir el puerto UDP a través de un ingenioso método que se vale de los mensajes de vuelta de error ICMP. Si se deduce el puerto, esto deja de nuevo una entropía de solo el TxID de 16 bits, asumible para un ataque. Una vez se tengan estos dos datos, se construye el paquete y se bombardea al servidor de nombres. ¿Cómo inferir el puerto UDP abierto? Los preliminares necesarios son que por el funcionamiento de UDP, el servidor abre unos puertos UDP de respuesta por los que se comunica con otros servidores de nombres. Conocer esos puertos efímeros que abre en sus comunicaciones es vital porque junto con el TxID suponen todo lo que necesita un atacante para falsear la respuesta. O sea, si un servidor (resolver o forwarder) hace una pregunta a otro servidor, espera un TxID y UDP concretos en su respuesta. Y sea quien sea quien le devuelva un paquete con esos datos, lo tomará como una verdad absoluta. Se le podrá engañar con una resolución de dominio-IP falsa. Solo hace falta que el atacante conozca en este caso el puerto UDP abierto, deduzca el TxID por fuerza bruta y bombardee a su vítima. Cuando contactas con un puerto UDP y le preguntas si está abierto o no, los servidores devuelven un mensaje de “puerto cerrado” en ICMP. Para no saturar con respuestas, tienen un límite global de 1000 por segundo. Un límite global significa que da igual si le preguntan 100 o 10 servidores a la vez, para todos tiene 1000 respuestas en un segundo ante preguntas de puerto abierto, por ejemplo. Esto, que se hizo para no saturar el sistema, es lo que en realidad causa todo este problema. El límite global es 1000 en Linux, 200 en Windows y FreeBSD y 250 en MacOS. Y en realidad, todo el paper se basa en “denunciar” esta fórmula de límite global fijo. Debe ser revisado porque ya se ha alertado con anterioridad de los peligros de esto, pero nunca con un ataque y aplicación tan prácticas. También importante porque no solo el DNS, sino que QUIC y HTTP/3, basados en UDP, pueden ser vulnerables. El ataque es complejo y en cada paso existen detalles que mitigar, pero fundamentalmente los pasos básicos son (con potenciales inexactitudes en aras de la simplicidad): Enviar 1000 sondas UDP al resolvedor víctima con IPs de origen falseadas probando 1000 puertos. En realidad son lotes de 50 cada 20 ms para superar otro límite de respuestas por IP que tiene el sistema operativo Linux.Si los 1000 puertos están cerrados, la víctima devolverá (a las IPs falseadas) 1000 paquetes ICMP de error indicando que no está abierto el puerto. Si está abierto, no pasa nada, lo descarta la aplicación correspondiente en ese puerto. No importa que el atacante no vea los ICMP respuesta (llegan a las IPs falseada). Lo que importa es ver cuánto del límite global de 1000 respuestas por segundo “se gasta” en esa tanda. Antes de dejar pasar ese segundo, el atacante consulta un puerto UDP cualquiera que sepa cerrado y si el servidor le devuelve un ICMP de “puerto cerrado”… es que no se había gastado los 1000 ICPM de “error puerto cerrado” y por tanto… ¡en ese rango de 1000 había al menos un puerto abierto! Bingo. Como el límite de respuestas ICMP es global, una sola respuesta de puerto cerrado significa que no se gastó el límite de 1000 repuestas de “puerto cerrado” por segundo. Alguno había abierto. Esta consulta la hace desde su IP real, no falseada, para recibir de verdad (o no) la respuesta. Así, en tandas de 1000 consultas por segundo y comprobando si gasta o no el límite de paquetes de error puerto cerrado, el atacante puede ir deduciendo qué puertos están abiertos. En poco tiempo tendrá mapeados los puertos abiertos del servidor. Obviamente el atacante lo combina con búsquedas «inteligentes» binarias para optimizar, dividiendo los rangos de puertos «potencialmente abiertos» en cada tanda para ir más rápido y dar así con el dato concreto. Los investigadores también tuvieron que eliminar el “ruido” de otros puertos abiertos o escaneos que se estén haciendo al sistema mientras lo realiza el atacante, y en el paper aclaran algunas fórmulas para conseguirlo. Más fallos y problemas Todo viene de una tormenta perfecta de errores en implementación UDP, en la implementación del límite de 1000 respuestas… La explicación de arriba es “simplista” porque los investigadores detectaron otros problemas de implementación que a veces incluso les beneficiaban y otras consistían en ligeras variaciones del ataque. Porque el fallo no está solo en la implementación del límite global ICMP. Tampoco se libra la implementación de UDP en sí misma. Según el RFC, en un solo socket UDP, las aplicaciones pueden recibir en un mismo socket conexiones de diferentes IPs fuente. Las comprobaciones de a quién se le da qué, lo dejan en el RFC en manos de la aplicación que maneje la conexión entrante. Esto, que se supone que aplicaría a los servidores (son sockets que reciben), también aplica a los clientes. Así según los experimentos en el paper también aplica al cliente UDP que abre puertos para hacer consultas y, por tanto, facilita mucho el ataque, que permite escanear puertos “abiertos” para consultas con cualquier dirección IP de fuente. Y algo muy importante: ¿qué pasa si en la implementación de UDP la aplicación marca como “privado” un puerto UDP de respuesta de forma que solo el que inicia la conexión puede conectarse a él (y otros no puedan ver si está abierto o cerrado)? Esto supondría un problema para el primer paso del ataque en el que se falsifican las IPs de origen y agiliza el proceso. Abrir puertos “públicos” o “privados” depende del servidor DNS. Y solo BIND lo hace bien. Dnsmask, Unbound, no. En estos casos no se pueden falsificar las IP de las rachas (las que se usan para gastar el límite global y que te da igual recibir o no) sino que solo se puede falsificar las rachas con una sola IP origen. Esto haría el escaneo más lento. Pero no hay problema. Si no es así y los puertos son privados, también hay un fallo en Linux para “mitigarlo”. La comprobación del “límite global” se realiza antes de la cuenta del límite por IP. Esto, que en principio se hizo así porque comprobar el límite global es más rápido que el límite por IP, permite en realidad que no se tarde tanto y la técnica siga siendo válida aun con los puertos privados. El paper sigue con recomendaciones para forwardes, resolvers… todo un repaso profundo a la seguridad DNS. ¿Soluciones? Linux ya tiene preparado un parche, pero hay mucha tela de cortar. Desde el DNSSEC, que siempre se recomienda pero nunca termina de despegar, hasta desactivar las respuestas de ICMP… cosa que puede ser compleja. El parche del Kernel hará que ahora no haya un valor fijo de 1000 respuestas por segundo, sino aleatoria de entre 500 y 2000. El atacante así no podrá hacer sus cábalas correctamente para saber si en un segundo se ha gastado ese límite y deducir puertos UDP abiertos. Parece que el origen absoluto del problema es de implementación, no el diseño. En este RFC se describe ese límite de ratio de respuesta, y se deja abierto a un número. Elegirlo fijo y en 1000 como se hizo en el Kernel en 2014 es parte del problema. Por cierto, con este script de BlueCatLabs programado cada minuto, se podrá mitigar el problema en un servidor DNS haciendo a mano lo que hará el parche para SAD DNS. Esperemos entonces parches para todos: los sistemas operativos y los principales servidores DNS. Muchos servidores públicos ya están parcheados pero muchos más no. Resulta particularmente interesante en este ataque que es muy limpio para el atacante, no necesita estar en la red de la víctima. Puede hacerlo todo desde fuera y confundir a los servidores. Un desastre. O una bendición. Porque de esta, se arreglarán bastantes “cabos sueltos” en el protocolo UDP y DNS. Noticias de Ciberseguridad: Boletín semanal 7-13 de noviembreNonces, salts, paddings y otras hierbas aleatorias para aderezar ensaladas criptográficas
¿Te preocupa la conversión de tu tienda online? Doce consejos para vender másRaúl Alonso 16 noviembre, 2020 Solo dos de cada cien personas que visitan tu tienda online compran. Solo uno de los cuatro que suben algún artículo al carrito de tu ecommerce, compra. La cruel estadística recuerda que la marcha del negocio no va a depender tanto del tráfico atraído como de dos KPI tan estratégicos como son la conversión y el abandono del carrito. Dos KPI básicos para tu ecommerce ¿Qué es la conversión? La conversión cuantifica el número de visitantes que se convierten en compradores. Para conocerlo solo hay que dividir el número de visitas web por el de ventas realizadas, siempre en el mismo periodo de tiempo (al día, semana, mes, etc.). También es importante saber que el sector en el que se trabaje impone cierta tendencia. Según los datos de Ecommerce Foundation, que recoge Paypal en su publicación «Doce consejos para ayudar optimizar la conversión del comercio electrónico«, son: Tienda especializada: 2,06%Electrónica: 1,89%Alimentación: 1,78%Grandes almacenes: 1,75%Moda: 1,58%Casa y jardín: 1,41. ¿Qué es el abandono del carrito? Esta nueva división indica cuántos de los clientes que introdujeron al menos un artículo en su carrito de la compra no pasaron por caja. Para entender este KPI, es esencial saber cuáles son las razones que motivaron este abandono: Costes adicionales (envío, impuestos…): 76,3%Se exige crear una cuenta: 37%Pago complejo o largo: 28%Dificultad para visualizar el coste total por adelantado: 23%Errores en el sitio web: 20%El usuario no quiere introducir los datos de la tarjeta: 19%Envío demasiado lento: 18%Política de devoluciones: 11% Cómo mejorar la conversión de tu tienda online No hay venta sin confianza. Se vende más cuando la experiencia de compra es satisfactoria, y el cliente repetirá si satisfaces estas dos demandas. Teniendo en cuenta estos axiomas, revisamos el diseño, el contenido y el proceso de pago de una tienda online, para mejorar su rendimiento en función de las doce recomendaciones que hace Paypal: Mejora el diseño 1. Si no eres móvil, no hay venta Si tu web no se visualiza bien en el teléfono inteligente, estás renunciando a un tercio de las compras. Para evitar esta situación, asegúrate de que el diseño de tu sitio web es responsive, es decir, que está optimizado para la navegación móvil. Además es imprescindible que su estructura esté acorde con la navegación móvil. Por ejemplo, que solicite solo la información imprescindible durante el pago (ten en cuenta que desde el teléfono es más incómodo completar cuestionarios de afiliación). Consejo: No puedes gestionar tu ecommerce desde una única pantalla, normalmente la de tu ordenador. Navega desde diferentes teléfonos y tablets sin olvidar hacerlo por la pasarela de pago. 2. Las webs lentas son penalizadas Google ya anunció que la mitad de las oportunidades de venta se deben a una carga lenta de la web. Hay que convencerse de que la impaciencia es una característica intrínseca del comprador del siglo XXI y el objetivo es conseguir una carga media de página de 1,6 segundos. Consejo: Antes de contratar el hosting de tu web, asegúrate de que el proveedor es rápido y fiable, optimiza el tamaño de las imágenes y simplifica la página de inicio. Este último punto es vital, porque el pequeño tendero digital tiende a contar todo en su home o página principal. 3. Simplifica la navegación y búsqueda Facilita la navegación por tu tienda primando la intuición y la coherencia. Es esencial que la estructura sea clara y se repita en todos los productos y servicios. La función de búsqueda debe responder a los criterios que usa el cliente, para lo que son muy útiles las herramientas SEO de Google. Otro punto esencial es el diseño de los botones de compra y cesta o carrito. Deben ser obvios y estar ubicados en un lugar muy visible. Si tienes dudas sobre cómo convierten, prueba variaciones en diseño, tamaño y color, mide resultados y opta por el más efectivo. Consejo: Diseña tu tienda desde la perspectiva del cliente y familiarízate con su lenguaje de búsquedas. Trabaja el contenido 4. Ofrece imágenes profesionales La gente compra por los ojos, y si la foto no tiene calidad suficiente, no impactará. la hora de decidir la estrategia gráfica, hay que tener presente la importancia de llamar la atención y, en segundo lugar, permitir hacer una inspección ‘física’ similar a la del comprador en tienda, por lo que hay que ofrecer fotos desde diferentes perspectivas. Consejo: Se recomienda incluir una foto en miniatura en la cesta de la compra, “que ayude a que el cliente centre su interés en el valor y no en el coste de lo que va a comprar”, explican desde PayPal. 5. Textos claros, pero atractivos Tras la foto, la descripción del producto ocupa el segundo lugar en la atención del cliente. Debe incluir información clara y objetiva, pero también sensorial y de contexto. El cliente quiere saber cómo se va a sentir vistiendo una camisa de algodón orgánico y además dónde y cómo se produjo, quiere conocer una historia. Si conseguimos seducirle, el comprador buscará la información adicional sobre opciones de envío y costes y, por último, la política de devoluciones: ambas redacciones tienen que ser inequívocas y trasladar confianza. Consejo: Las faltas de ortografía y los errores gramaticales minan la confianza del cliente. Como es imposible que el autor detecte todos, pide a varias personas que revisen los textos antes de subirlos. 6. Ofrece confianza Ya se ha señalado que trasladar confianza es uno de los objetivos del diseño de la tienda online, la duda está en cómo conseguirlo. De momento, conviene tomar nota de estos tres factores: incluir en el footer de plantilla (la franja inferior de tu web) los sellos de confianza de comercio online (hay muchos, pero debes optar por los más reconocibles). El segundo es hacer referencia a las asociaciones profesionales del sector de las que se forma parte. Por último, incluir premios, referencias en prensa y otros tipos de información que trasladen seguridad en la compra. Consejo: La elección de los medios de pago es fundamental para que tu tienda online merezca esa confianza, el 77% de los compradores móviles solo lo hacen cuando reconocen el servicio que van a utilizar. 7. Cuenta lo que los clientes piensan de tu tienda En esta lucha por la credibilidad, tenemos en las opiniones de los clientes uno de los aliados más efectivos. Conviene habilitar un espacio en el que puedan dejar sus opiniones, mejor aún si lo hacen con una fotografía e incluso mostrando su compra, algo que se puede incentivar organizando un concurso o un sistema de recompensas (un descuento para la segunda compra, por ejemplo). Consejo: Las redes sociales son grandes amplificadores de la opinión de los clientes, pero siempre hay que utilizarlas respetando su normativa y, por supuesto, la ley de protección de datos personales. 8. Facilita el contacto Es muy probable que, como consumidor, hayas desesperado tratando de contactar con algún ecommerce. Algo tan sencillo como mostrar un número de teléfono y un horario de consulta mejora la conversión, pero la recomendación es completarla con una dirección de correo electrónico, una dirección postal y un formulario de contacto. Consejo: Habilita un servicio de chat online, tus ventas lo agradecerán. Optimiza el proceso de pago 9. En el precio total no hay lugar para la sorpresa Todos los clientes buscan la información sobre gastos de envío. Asegúrate de que en tu web está visible y bien expresada. Incluye la información sobre gastos de envío o cualquier otra que pudiera haber, por ejemplo, para envío a otros países. Consejo: El envío gratuito anima a la compra. Si tu modelo de tienda online lo permite, adopta este sistema y muéstralo en la web de forma clara. 10. Permite el pago como usuario invitado Ya vimos que la obligatoriedad de crear una cuenta para pagar es la segunda de las causas de la pérdida del carrito de compra. En consecuencia, destierra esa práctica de tu tienda online. Consejo: Si el registro de cliente es importante para tu negocio, incentívalo después del pago, explicando al usuario las ventajas de rellenar el formulario. 11. Simplifica el pago La preocupación por la seguridad, más aún por el fraude, es constante en los consumidores durante las primeras operaciones con un ecommerce. Según Paypal, dos de cada tres consumidores necesitan reconocer la pasarela de pago antes de comprar. Tenlo muy presente a la hora de diseñar el mix de pagos de tu negocio. Consejo: Los sistemas de pago en un único clic mejoran la conversión, siempre que se presenten con la adecuada información. 12. Mantén viva la conversación Ningún comerciante digital está a salvo de la nefasta práctica del carrito abandonado: hay que aprender a convivir con él. Dos formas de minimizar ese problema son tratar de recuperarlo haciendo un seguimiento del cliente por correo, para informarte de si sigue interesado en la compra. O, como segunda opción, enviarle algún código promocional o de descuento que le anime a terminar el proceso, estrategia esta última de la que no se puede abusar. Consejo: El 58,6% de los compradores justifica el abandono de la compra con un “solo estaba navegando/ no estaba listo para comprar”. Conocer el dato del Instituto Baymard no mejora la situación, pero sí ayuda a entender que no todo es achacable a una mala gestión. Social commerce, el futuro del comercio electrónicoLas pymes también se pueden beneficiar del Big Data
Cómo navegar en la incertidumbre provocada por la pandemiaJosé Carlos Martín Marco 16 noviembre, 2020 Recientemente se celebró EnlightED 2020 bajo el título “Aprender, enseñar y trabajar después de 2020”. En el encuentro se ofrecieron algunas claves frente a la incertidumbre que define la actualidad. En este post recojo reflexiones e ideas muy interesantes para capear una situación tan complicada como la que estamos viviendo. Claves frente a la incertidumbre Una de las charlas a la que pude asistir, enmarcada en la jornada dedicada al mundo laboral en la nueva normalidad, fue “Bienestar personal: los retos de estudiar y trabajar desde casa”. En ella participaron Mario Alonso Puig, presidente del Centro de salud, bienestar y felicidad de IE Univeristy y Rory Simpson, director de Aprendizaje en Telefónica. Condujo la conversación Lucía Crespo, directora del programa Universitas y docente de la Universidad Telefónica. Cambiar nuestra forma de vivir Quizá porque ya había tenido ocasión de escuchar anteriormente a los tres por separado me pareció especialmente interesante atender a dicha sesión, cuyo título ya era de por sí atractivo en estos momentos. Pero, aunque inducía a pensar en consejos para aplicar en las esferas del estudio y el trabajo, en su primera intervención el Dr. Mario Alonso Puig amplió el alcance de la sesión a todos los ámbitos de la vida. Esto hizo la charla aún más relevante: “Se trata -dijo- de cambiar nuestra forma de vivir”. La importancia de la actitud El debate giró en torno a qué podemos hacer para afrontar de la mejor manera posible el tremendo reto que representa la pandemia para todos. Se dieron algunas claves frente a la incertidumbre. Una de las ideas principales fue la importancia de la actitud en los momentos de dificultad. El doctor Mario Alonso Puig contó que todo cambio genera incertidumbre y que el ser humano, pese a estar capacitado mentalmente para gestionarla, muchas veces tiene la tentación de dejarse caer en la desesperación y la inacción. Sin embargo, está científicamente probado que enfrentarse a la adversidad contribuye al crecimiento personal. Sin negar la realidad, él recomienda trabajar la resiliencia, nuestra capacidad de resistir y salir fortalecidos. Un trabajo tridimensional para salir reforzados de la adversidad Para ello recomendó trabajar en tres ámbitos que, utilizando la metáfora de hilos de un tapiz, nos permitirán tejer nuestro bienestar. Estas tres esferas son la corporal, mental y anímica. Un cuerpo sano Respecto a la componente corporal, destacó la relevancia del ejercicio físico. Puso especial énfasis en evitar el sedentarismo derivado de una práctica continuada del teletrabajo, tan habitual en estos momentos. También recalcó la importancia de una buena alimentación, sobre todo en picos de estrés en los que nuestro cuerpo está más ávido de consumir azúcar, y cuidar el sueño. La mente en el aquí y el ahora En el plano mental aconsejó que no nos dejemos llevar por conversaciones internas acerca del pasado: qué hicimos y qué debíamos haber hecho. Tampoco sobre situaciones futuras sobre las que no tenemos ningún control. Su receta es trabajar el músculo de la atención: el aquí y el ahora. Entre las claves frente a la incertidumbre está enfocarnos en la tarea del momento. Un buen ánimo En cuanto a la componente anímica invitó a transcender el yo para llegar al nosotros. Para ello hay que trabajar la empatía, el perdón y sobre todo el agradecimiento, como también recalcó al final de la sesión. En el ámbito laboral Preguntado acerca de las claves frente a la incertidumbre de estos tiempos pero desde un plano más corporativo, Rory Simpson hizo hincapié en el liderazgo para encontrar la oportunidad tras la crisis. Utilizó el símil de una tormenta perfecta como catalizador de algunos cambios de los que ya éramos conscientes antes pero que la pandemia ha acelerado. La importancia del aprendizaje continuo En su papel de chief learning officer de Telefónica destacó también el papel del aprendizaje como catalizador de estos cambios. Es una herramienta de supervivencia y crecimiento, que nos permite situarnos en el ojo del huracán desde donde vislumbrar mejor la situación actual. Coincidió con su compañero de mesa en las tres componentes -corporal, mental y anímica- en las que trabajar para mejorar el bienestar individual y como equipos. Y habló de las cuatro inteligencias que se trabajan en los cursos de Telefónica Universitas: el intelecto, el corazón, el cuerpo y el alma. Las habilidades blandas y el bienestar en las organizaciones Destacó Rory el papel de las, a su juicio, mal llamadas soft skills o habilidades blandas. Y es que ambos intervinientes coincidieron en que son las más importantes. Durante la charla también se destacó la importancia del concepto de bienestar dentro de las empresas, con mención a la figura del chief wellness officer, que es el título de un libro del que Rory Simpson es coautor. Y también en el ámbito de la educación superior, que Mario Alonso Puig ilustró con múltiples ejemplos de cursos de alimentación, empatía o protección del medioambiente, que tan buena aceptación tienen entre los alumnos del IE University. La digitalización en nuestra relación con los demás Ambos ponentes destacaron la componente emocional para navegar la incertidumbre. Esto está íntimamente ligado a cómo nos relacionamos con los demás. Lucía Crespo planteó si debemos aprender a relacionarnos de otra forma en este momento. Ambos destacaron el papel fundamental (presente y futuro) de la digitalización y la tecnología en nuestra relación con los demás. La pandemia supone una dificultad añadida para relacionarnos que nos obliga a hacer un esfuerzo extra. Como apuntó Mario Alonso Puig, si hay un qué y un por qué, el cómo llegará. Una tecnología humanista Destacaron, además, el valor de la tecnología para afianzar los valores humanísticos, lo cual enlaza con la misión de Telefónica: “Hacer nuestro mundo más humano, conectando la vida de las personas”. Casi al final de la conversación se incorporaron María Zabala, periodista especializada en comunicación digital y Javier Márquez, vicedecano de Relaciones institucionales e investigación de la Universidad de Comillas, que aportaron dos puntos de vista muy interesantes. María se refirió a cómo ayudar con la incertidumbre en edades tempranas. La respuesta de Mario Alonso Puig fue a través de la conversación, sin que los padres tengan miedo de mostrarse vulnerables con los hijos pero con una actitud resuelta para afrontar la crisis. Javier Márquez, por su parte, profundizó en la importancia de las soft skills y de la preparación necesaria de los alumnos en educación superior. Rory Simpson recalcó la importancia de una formación de contexto frente a contenido. La conversación terminó con una reflexión final de cada participante. Mario Alonso Puig destacó la importancia de vivir en el agradecimiento para desenvolverse en estos momentos lo mejor posible. Rory Simpson citó a Albert Einstein para enfatizar la importancia de la actitud: “la decisión más importante que debemos tomar es si creemos que vivimos en un Universo amigable u hostil”. Rory y Mario son dos referentes y eligen amigable. ¿Cómo navegáis vosotros en estos momentos? Imagen: James Hill La segunda juventud de las newsletters: «back to the basics»Algunas newsletters de referencia y las claves para su éxito en una gran empresa