José María Lissen 4 dudas frecuentes en la estrategia online de una pyme Las pymes españolas son cada vez más conscientes del valor promocional que pueden conseguir con una buena presencia en Internet. La red de redes atrae diariamente a casi 23...
Nacho Palou Ingredientes para las Ciudades Inteligentes del presente Gracias a tecnologías como IoT (Internet de las cosas) y la Inteligencia Artificial, las ciudades pueden ser sensorizadas, mejorar y automatizar procesos, y tomar decisiones de manera más eficiente....
Mario Cantalapiedra Ocho decisiones que se deben tomar en el diseño de un proceso productivo En la base de cualquier actividad empresarial está transformar un bien o servicio aportando un valor añadido. Para ello, la empresa necesita de un proceso productivo por el que...
José Ramón Suárez Rivas El reto de ser aprendices permanentes en el siglo XXI En el Foro de Davos de 2017, Mara Swan (vicepresidenta ejecutiva de Estrategia y talento global de ManpowerGroup) introdujo el término learnability (aprendibilidad) como «la curiosidad y la capacidad...
ElevenPaths #NoticiasCiberseguridad: Boletín de ciberseguridad semanal 9-13 de marzo Ya puedes leer el boletín de noticias de ciberseguridad de esta semana, realizado por nuestros expertos del SCC.
ElevenPaths ElevenPaths Radio #7 – El camino tras un análisis de seguridad Tras un análisis de seguridad es común encontrar alguna vulnerabilidad pero, ¿cuáles son los primeros pasos a dar? Te lo contamos en este podcast.
AI of Things Patrones de Movilidad en Lima y Callao basados en tecnología Big Data Muchas veces pensamos en el Big Data como algo exclusivo para empresas privadas. Pero una de las aplicaciones más claras es la de organismos públicos que desean mejorar la...
Innovation Marketing Team Si te perdiste los webinars de Wayra especial aniversario, puedes volver a verlos Durante los últimos 10 años hemos recorrido un camino repleto de aprendizajes. Por eso, hemos realizado una serie de webinars con nuestros hubs de España, Hispam, Alemania y Reino...
Escondiendo las claves debajo del felpudo: los Gobiernos podrían garantizar la inseguridad universalGonzalo Álvarez Marañón 14 diciembre, 2020 Sonó el timbre de la puerta. «¿Quién llamará a estas horas?», se preguntó Brittney Mills, mientras se levantaba con dificultad del sofá. Sus ocho meses de embarazo empezaban a entorpecer sus movimientos. «Tú no te muevas», le dijo al pasar a su hija de 10 años sentada delante de la TV. Cuando Brittney abrió la puerta, dos balazos la dejaron seca en el suelo. Su hija corrió a esconderse en el baño al oír los disparos. Su bebé murió unas horas más tarde,nunca se encontró al asesino. Las autoridades recurrieron a su iPhone en busca de evidencias incriminatorias, pero no pudieron desbloquearlo. Acudieron a Apple, pero la compañía alegó que no podía entrar en su smartphone porque su contenido estaba cifrado y sin su código de desbloqueo era imposible recuperar las claves. Este caso real, acaecido en abril de 2015 en Baton Rouge, Louisiana, junto a otros muchos, como el del tiroteador Syed Farook, quien asesinó a 14 personas y dejó heridas a 22 en San Bernardino, han enfrentado a las autoridades contra Apple y reabierto un viejo debate: ¿debe la tecnología de cifrado estar disponible para todo el mundo, con el consiguiente riesgo de entorpecer las investigaciones criminales? Puede que no seas consciente de ello, pero usas a todas horas la criptografía más robusta que jamás haya existido Cuando usas apps de mensajería, como Whatsapp, iMessage o Telegram; o aplicaciones de videoconferencia, como Facetime o Zoom; o algunos servicios de correo electrónico, como ProtonMail u OpenPGP; estás usando cifrado de extremo a extremo: la comunicación entre tu dispositivo y el de la otra persona está totalmente cifrada y nadie, ni siquiera el proveedor del servicio, puede enterarse del contenido. Es más, tu información dentro del smartphone está cifrada mediante una clave maestra generada dentro del dispositivo a partir de tu código de desbloqueo y que nunca lo abandona. Igualmente, puedes cifrar tu portátil con una clave maestra derivada de tu contraseña. Al final, resulta que productos de consumo cotidianos incorporan una criptografía tan potente que ya nadie puede romperla. Y claro está, no solo tú usas un smartphone o un portátil, también criminales, terroristas y asesinos. Las autoridades contemplan impotentes cómo en las salas de los tribunales se apilan montañas de smartphones, tablets y ordenadores con evidencia inestimable en su interior… ¡a la que nadie puede acceder! ¿Debería prohibirse la criptografía? ¿Deberían relajarse las medidas de seguridad de los dispositivos tecnológicos actuales? Algunos gobiernos están proponiendo una vía intermedia: custodiar una copia de las claves (key escrow). La idea detrás de la custodia de claves En apariencia, el concepto es bien sencillo: una autoridad de confianza custodia una copia de las claves de cifrado usadas por todos los dispositivos existentes en el país. Es decir, se busca que los malos no tengan acceso a la información de los ciudadanos, pero que los buenos sí la tengan, por supuesto solo en caso excepcional. Existen precedentes ya desde los 90. En aquella época, el gobierno de EEUU aún consideraba la criptografía como munición y, por tanto, su exportación estaba prohibida, salvo que se debilitase a claves de 80 bits. Para la potencia de cálculo de la época no estaba ni tan mal, porque se suponía que nadie más que la NSA podría romperlas. ¿Qué podía salir mal? No hace falta buscar muy lejos. Consideremos el protocolo SSL/TLS. Los navegadores y sitios web se vieron obligados a incluir suites de cifrado con 80 bits de clave. Ya conoces el famoso adagio informático: «si funciona, no lo toques». Así que, 20 años después, TLS seguía soportando las suites debilitadas a pesar de que la restricción de exportación había desaparecido en 2000. Y en 2015 llegaron los ataques FREAK y LogJam, que permitían degradar la seguridad de un sitio web a las suites de cifrado de exportación, volviendo su criptografía tan débil que se rompía en segundos. Irónicamente, los sitios web del FBI y de la NSA también cayeron afectados. Allá por los 90, la NSA también intentó restringir las capacidades criptográficas de los dispositivos de comunicaciones mediante otra vía: el chip Clipper. La idea detrás de Clipper era que cualquier dispositivo telefónico o aparato de comunicaciones que fuese a usar criptografía incorporase el chip Clipper con una clave criptográfica preasignada que luego se entregaría al gobierno bajo custodia. Si alguna agencia gubernamental estimaba necesario intervenir una comunicación, desbloquearía la clave y descifraría la comunicación. Por fortuna, nunca llegó a ver la luz, ya que no fue capaz de cumplir los requisitos exigidos y resultó ser hackeable. Si te pica la curiosidad por la historia de este chip, te recomiendo el capítulo dedicado a su auge y deceso en el libro Cripto, de Stephen Levy. Otra cuestión que surge es: ¿quién custodia la clave? El servidor de claves constituye un punto único de fallo. Si un atacante consigue irrumpir en él, se haría con las claves de toda la población y podría descifrar las comunicaciones de todos los ciudadanos. Obviamente, no parece una buena idea almacenarlas todas en el mismo sitio. Podría obligarse a que cada proveedor de servicio almacenase la de sus clientes, pero ¿cuántos lo harían con seguridad? O podrían repartirse las claves entre varias agencias gubernamentales, de manera que tendrían que aportar cada una su parte de la clave en caso de necesitarse. Por supuesto, implementar un sistema tal de reparto de claves no es para nada sencillo y la clave maestra sigue siendo vulnerable una vez recompuesta. Otra opción sería recurrir a la criptografía con umbral, pero aún está muy verde, lejos de llegar a algoritmos robustos universalmente aceptados. Más aún, aunque existieran dichos algoritmos, la solución elegida obligaría a importantes cambios en los protocolos y aplicaciones criptográficas de todos los productos y servicios. Habría que rescribirlos, con la consiguiente aparición de vulnerabilidades y errores. Además, quedan muchas preguntas en el aire: ¿estos cambios deberán implantarse a nivel de sistema operativo en iOS, Android, Linux, Windows, MacOS, etc.?, ¿todo creador de aplicaciones que usen cifrado estaría obligado a entregar claves bajo custodia?, ¿estarían todos los usuarios obligados a usar estas puertas traseras?, ¿cuánto tiempo tardaría en hacerse la migración?, ¿qué pasaría con las aplicaciones legadas?… Hasta ahora estamos hablando de custodiar la clave como si existiera una única clave por usuario o por dispositivo. La realidad es bien distinta, tanto para cifrado en reposo como para cifrado en tránsito se utilizan multitud de claves que van rotando constantemente, derivadas a partir de claves maestras, que también pueden rotar. No se cifran dos mensajes de WhatsApp con la misma clave. Cada vez que cambias la contraseña o código de acceso a tu dispositivo se actualiza una cadena de claves. En fin, ni siquiera está claro qué clave o claves habría que custodiar ni cómo podrían actualizarse las claves custodiadas para servir de algo en caso de necesitarse. En resumen, citando el completo trabajo de un grupo de criptógrafos de los 90, la custodia de claves impactaría en al menos tres dimensiones: Riesgo: el fallo de los mecanismos de recuperación de claves puede poner en peligro la seguridad de los sistemas actuales de cifrado.Complejidad: aunque sería posible hacer la recuperación de claves razonablemente transparente para los usuarios finales, una infraestructura de recuperación de claves plenamente funcional es un sistema extraordinariamente complejo, con numerosas entidades, claves, requisitos operativos e interacciones nuevas.Costo económico: nadie ha descrito aún, y mucho menos demostrado, un modelo económico viable para dar cuenta de los verdaderos costos de la recuperación de claves. Hasta ahora hemos asumido que el Gobierno solo haría uso de las claves bajo custodia para investigaciones criminales. ¿Qué garantía tienes de que no las usarán contra sus propios ciudadanos? La cosa se complica aún más. ¿Y qué hay de los criminales? Para ellos sería tan sencillo como crear sus propias apps de mensajería o de cifrado de datos con criptografía segura sin revelar a nadie sus claves y santas pascuas. Si obligas a custodiar las claves, solo los criminales usarán claves sin custodiar. En fin, los sistemas de custodia de claves resultan intrínsecamente menos seguros, más costosos y difíciles de usar que los sistemas similares sin una función de recuperación. El despliegue masivo de infraestructuras basadas en la custodia de claves para cumplir las especificaciones de las fuerzas del orden requeriría importantes sacrificios en materia de seguridad y comodidad y un aumento sustancial de los costes para todos los usuarios. Además, la creación de una infraestructura segura de la magnitud y complejidad descomunales que se requerirían para un sistema de esa índole va más allá de la experiencia y la competencia actual en la materia, por lo que bien podría introducir en última instancia riesgos y costes inaceptables. Bastantes fallos de seguridad tienen ya productos y servicios actuales que buscan ser seguros, como para introducir la vulnerabilidad criptográfica por diseño en nuestros futuros productos y servicios. Hasta ahora todos los intentos han fallado miserablemente. Y todo apunta a que seguirían fallando en el futuro. Noticias de Ciberseguridad: Boletín semanal 5-11 de diciembreElevenPaths Radio #11 – Malware en librerías de desarrollo
Industria digital: ¿en qué punto se encuentra España?Raúl Salgado 14 diciembre, 2020 La industria digital en España está “mejor de lo que pensamos, pero peor de lo que debería”. Pedro Mier, presidente de AMETIC, asegura que tenemos unos excelentes profesionales y unas muy buenas empresas, aunque señala un potencial extraordinario de crecimiento y desarrollo. En este sentido, el gobierno planea destinar el 33% de los fondos europeos que España recibirá para su reconstrucción social y económica tras la pandemia, a la transformación digital. Sin embargo, el presidente de la patronal del sector advierte de que “el dinero solo no asegura el éxito y del enorme riesgo de dispersar los esfuerzos en iniciativas inconexas y desalineadas”. La oportunidad es única. Y para aprovecharla al máximo, AMETIC -desde donde su presidente pretende fortalecer el tejido empresarial de la industria digital para crear empleo estable y de calidad, y contribuir a la modernización de España– propone una Agencia para la Recuperación, en aras de pilotar y dirigir las acciones en la dirección adecuada. Pedro Mier remarca que “la industria digital debe crecer con tecnologías del siglo XXI”, para provocar un efecto tractor sobre el resto de la economía. Pedro Mier, presidente de AMETIC ¿Cómo ha impactado el virus en la industria digital española? Lógicamente, nuestra industria ha reaccionado mucho mejor que otras. Las empresas han continuado creciendo y contratando, lo que es un buen síntoma. En caso contrario, habría sido muy preocupante. La pandemia ha puesto de manifiesto la importancia del ecosistema digital, empezando por la conectividad y siguiendo por todas las aplicaciones que permiten la continuidad de la actividad. Pero hay mucho que mejorar para situar a España en el lugar que le corresponde. Mientras que en conectividad de la Administración sacamos muy buenas notas comparativamente con otros países, en el desarrollo de la digitalización del tejido productivo estamos muy por debajo. ¿Por qué? Hay varias causas. La innovación es fundamental para la competitividad, y debemos incrementar el esfuerzo en I+D para situarnos en la media de la UE, donde invierten el doble. En realidad, tenemos que pasar de ser un país usuario de tecnologías digitales a ser un proveedor de soluciones tecnológicas. Y podemos hacerlo. Para ello, hay que mejorar la regulación, facilitar las contrataciones de personal desde fuera del país, superar las limitaciones legales, eliminar los incentivos fiscales perversos… Hay que volcar todo el esfuerzo en conseguir que esta industria crezca. Porque así crecerá el resto de la economía. ¿Qué importancia tiene esta industria para salir de la crisis? Es esencial. En Europa, en general, y particularmente en España; la participación de la industria en el PIB es muy inferior a lo que debería. Eso se nota en cuanto llega una crisis. Por eso, necesitamos que la industria crezca con tecnologías del siglo XXI. Es decir, con inteligencia artificial, robotización, Big Data… ¿Está haciendo España los deberes? La apuesta del Plan que ha presentado España es correcta. El 33% de los fondos europeos se destinarán a la digitalización, cuando la UE pide que sea un 20% como mínimo. No obstante, lo importante es que los fondos se usen adecuadamente. Para ello, desde AMETIC hemos propuesto acciones estratégicas de país para tirar del ecosistema y lograr esa mayor fortaleza industrial. Nuestras propuestas están incluidas en el Plan del Gobierno y creemos que serán muy útiles para lograr el cambio. ¿Por qué piden una Agencia para la Recuperación? Los grandes objetivos se han planteado bien y las dotaciones presupuestarias son suficientes. Pero la clave está en cómo se actúe. La UE y España pretenden que el 70% de los fondos se pongan en marcha en tres años. Por ello, necesitamos un cambio en la legislación para ser más ágiles. Asimismo, los fondos deben gestionarse correctamente, lo que requiere un enfoque empresarial. Nosotros proponemos que en los proyectos tractores haya una acción estratégica coordinada por una agencia o una oficina compuesta por un grupo ligero pero muy competente, proveniente tanto del sector público como del privado, que de alguna manera asegure la canalización o el enfoque de las acciones en esas grandes direcciones. ¿Cómo cree que evolucionará la industria digital en el medio-largo plazo? Según lo bien que seamos capaces de hacerlo. El dinero solo no asegura el éxito. Es una condición necesaria, pero no te garantiza el resultado deseado. Hay que invertir con inteligencia. Por eso es tan importante la gestión de los fondos. La oportunidad que se nos presenta es magnífica. Si somos capaces de enfocarlos bien desde el principio, conseguiremos el resultado. Pero hay un riesgo enorme de dispersar los esfuerzos en mil iniciativas inconexas y desalineadas. ¿Existen muchas diferencias entre la digitalización de las pymes y de las grandes empresas? Digitalizar, hay que digitalizarlo todo. De hecho, las personas ya lo estamos, en la medida en que somos usuarios de smartphones, tablets… Usamos aplicaciones continuamente, muchas de las cuales hace unos años estaban restringidas a determinadas compañías. Hoy en día estas aplicaciones son accesibles para cualquier empresa, independientemente de su tamaño. Pero hay un aspecto de la digitalización que se olvida: el proceso mental previo. Hay que entenderlo. Y eso requiere que los directivos comprendan lo que la digitalización puede y debe aportar a su negocio. De ahí que la formación juegue un papel tan decisivo: desde la alfabetización digital de las personas menos cualificadas hasta la de los máximos responsables. Cómo mejorar la autoestima profesionalInnovar para ser imprescindible, el secreto de Tolsa para seguir creciendo
FinOps: un enfoque multidisciplinar y ágil de gestión de proyectos cloudAlejandro de Fuenmayor 14 diciembre, 2020 Hace ya más de seis años que me estrené en este blog y uno de los primeros post que escribí trataba sobre uno de los palabros de moda por aquel entonces: DevOps. Luego hubo ocasión de familiarizarse con este acrónimo con ayuda de las películas del oeste, de la mano de un compañero. Más tarde llegaron AIOps, DevSecOps o NetDEvOps. Pues bien, si pensabais que vuestra compañía ya había aplicado todas las posibles conjugaciones del Ops, os faltaba el FinOps. Uno de los principales problemas que históricamente han tenido los modelos de pago por uso, principalmente asociados a la provisión cloud, ha sido su gestión económica por el riesgo e incertidumbre asociados. Y es que eso de que la nube siempre es más barata es un mito alrededor de cloud. Realizar inversiones financieras en lo que a activo se refiere siempre ha sido mucho más sencillo para poder medir su rentabilidad. Bastaba con indicadores como el ROI o el coste total de propiedad. Recelo a los modelos de pago por uso Sin embargo, el pago por uso o pago variable, asociado normalmente a un modelo de suscripción, resulta mucho más difícil de gestionar. Las suscripciones multiproducto o con precio variable en catálogo, como suele ser el modelo de créditos, complican la gestión en entorno empresariales grandes o multiproyecto. Solo se establece una línea base de consumo, definida a partir de una arquitectura inicial de proyecto, pero sin limitar la responsabilidad del usuario final en cuanto al uso de ésta. Todos sabemos que los proyectos son entes vivos que se transforman y mutan. Según el área en la que se inscriban o el responsable de ésta, las prioridades pueden llegar a cambiar o desaparecer de la noche a la mañana. De ahí el recelo a los modelos de pago por uso desde el punto de vista empresarial, y sobre todo del sector público. Orígenes del termino FinOps Los orígenes del acrónimo FinOps se remontan a casi una década atrás, cuando algunas empresas como Adobe e Intuit empezaron a utilizarlo. Según relatan J.R. Storment y Mike Fuller en su libro “Cloud FinOps”, años más tarde compañías como Qantas y Tabcorp comenzaron a aplicar una práctica similar. Hacia 2017 BP o Sainsbury’s desarrollaron este mismo nuevo enfoque para la gestión financiera de sus proyectos en la nube. Podríamos decir que lo que hoy conocemos como FinOps nació lentamente en todo el mundo, a medida que los desafíos financieros y de gestión de proyectos cloud se presentaban a escala en cada territorio. A lo que hoy conocemos como FinOps hace años las empresas simplemente lo llamaban «gestión de costos de la nube» u «optimización de los costes de la nube». Más tarde, los proveedores de cloud comenzaron a hablar de «gestión financiera de la nube» y así llegamos a «FinOps». La elección del acrónimo, derivado de DevOps, pone de relieve el vital aspecto multifuncional y ágil de este enfoque de gestión de proyectos cloud. Pero qué es realmente FinOps Desde hace años existe una fundación, auspiciada por la Linux Foundation, para promover esta disciplina, así como la gestión financiera de la nube a través de las mejores prácticas, la formación y los estándares. FinOps es, en definitiva, la práctica de llevar la responsabilidad financiera al modelo de gasto variable de los servicios cloud. Esto permite a los equipos distribuidos hacer concesiones comerciales entre velocidad, coste y calidad. Facilita el equilibrio entre la operación distribuida y el control de costes centralizado. FinOps es el modelo operativo de la nube, que está dando lugar a un cambio que combina sistemas, mejores prácticas y cultura para aumentar la capacidad de una organización de comprender sus costes de la nube y tomar decisiones de negocios meditadas. FinOps pone en valor para las organizaciones el gasto en servicios en la nube. Reúne a los profesionales de tecnología, gestores de negocio y equipos de finanzas y control de gestión con un nuevo conjunto de prácticas y estándares en torno a la gestión financiera en la nube. La búsqueda de la eficiencia como principio rector Básicamente es un principio de libertad presupuestaría, que consiste en usar con cabeza el presupuesto propio para no afectar al del resto, con una medición, análisis y previsión del gasto del proyecto y el impacto sobre otros. Y es que la búsqueda de la eficiencia es uno de los principios rectores de esta filosofía de trabajo. Una necesidad que se pone aún más de manifiesto cuando empezamos a pensar en entornos multicloud. Las tres fases de un proyecto FinOps Según la FinOps Foundation, cualquier proyecto gestionado bajo el enfoque FinOps debe pasar por tres etapas iterativas, que son: informar, optimizar y operar. Informar en busca de una responsabilidad compartida La primera de ellas, informar, busca ofrecer visibilidad para la asignación de recursos al proyecto. Con ella se trata de crear el compromiso del equipo en cuanto a la responsabilidad compartida del presupuesto, al mostrar al resto de los miembros del equipo lo que se está gastando y por qué. Optimizar y consensuar los ajustes Una vez que está claro qué se necesita y el gasto que requiere, llega el momento de los ajustes para conseguir ser más eficientes en operación y gasto. Ésta es la fase de optimizar, en la que los equipos deben tomar las acciones correctas siempre con un ojo puesto en los objetivos iniciales del proyecto. Incluye el ajuste y reasignación de permisos sobre la infraestructura del proyecto, ya que los equipos que despliegan no han de ser los mismos que operan, el equipo de seguridad no tiene las mismas atribuciones que los gestores de base de datos, etc. Una vez que las cosas funcionan los ajustes o mejoras han de ser consensuados. Operar a través de la mejora continua Y, por último, la operación de los servicios, el gran olvidado de cualquier proyecto. En esta fase se ha de buscar la eficiencia, con el objetivo de perfeccionar esos objetivos compartidos que tienen los departamentos de TI, finanzas y negocios para centrar y ampliar los esfuerzos operativos a través de la mejora continua. Básicamente se trata de buscar el mínimo común denominador de los objetivos y necesidades de cada área para optimizarlo al máximo. Y para todo este proceso y búsqueda del equilibrio en la gestión empresarial aplicada a los proyectos de la nube se podría aplicar la Teoría de Juegos no cooperativos de John Nash. Veamos: en la búsqueda de ese equilibrio cada departamento conoce y ha adoptado su mejor estrategia y todos conocen las estrategias de los demás. En consecuencia, ningún departamento gana nada modificando su estrategia mientras los otros mantengan las suyas. Así, cada departamento está ejecutando el mejor «movimiento» que puede dados los movimientos del resto de ellos. Imagen: Sustainable Economy Law Center El camino hacia una empresa ágil, en el BAC 2020Un abordaje innovador de la ciberseguridad: el valor de las vivencias
Noticias de Ciberseguridad: Boletín semanal 5-11 de diciembreElevenPaths 11 diciembre, 2020 Boletín de seguridad de Microsoft Microsoft publicó el pasado 8 de diciembre su boletín mensual de actualizaciones de seguridad, que en esta ocasión incluye parches para 58 vulnerabilidades y un advisory para distintos productos de Microsoft. Nueve de las vulnerabilidades corregidas son críticas, 48 tienen una severidad importante y dos riesgo moderado. Entre el total de parches publicados, destacan 22 actualizaciones que hacen referencia a fallos de ejecución remota de código (RCE), y que afectan a productos como Exchange Server o SharePoint, entre otros. Entre los RCE es destacable el que afecta a Hyper-V (CVE-2020-17095), puesto que es explotable a través de un paquete SMB malicioso y podría comprometer la seguridad de las máquinas virtuales creadas con la aplicación. Más información: https://msrc.microsoft.com/update-guide/releaseNote/2020-Dec Explotación de vulnerabilidades en entornos virtualizados por parte de agentes amenaza rusos La Agencia de Seguridad Nacional (NSA) ha publicado un aviso de ciberseguridad en el que detalla como actores amenaza rusos podrían haber explotado una vulnerabilidad de inyección de comandos en productos de VMware (CVE-2020-4006), logrando así acceder a datos protegidos y afectar a los sistemas. La explotación de esta vulnerabilidad requiere que el atacante tenga acceso a la interfaz de gestión del dispositivo, lo que le permitiría falsificar las credenciales mediante el envío de solicitudes aparentemente auténticas con SAML (Security Assetion Markup Language) y ganar así acceso a los datos protegidos. Entre los productos vulnerables se encuentran VMware Workspace One Access, Access Connector, Identity Manager e Identity Manager Connector. La NSA recomienda a los administradores de sistemas NSS, DoD y DIB la aplicación del parche emitido por el proveedor lo antes posible. En caso de que no sea posible un parche inmediato, los administradores del sistema deben aplicar las siguientes mitigaciones: la detección de indicadores en los logs de actividad, la desactivación del servicio de configuración, la correcta configuración de las medidas de autenticación en servidores y servicios, además de la configuración de contraseñas únicas y fuertes. Más detalles: https://media.defense.gov/2020/Dec/07/2002547071/-1/-1/0/CSA_VMWARE%20ACCESS_U_OO_195976_20.PDF Compañías farmacéuticas reconocen accesos no autorizados La EMA, órgano regulatorio europeo encargado de la aprobación de las vacunas contra la COVID-19, ha anunciado haber sido víctima de un ciberataque y haber comenzado una investigación para esclarecer la vulneración de sus sistemas. En este mismo sentido, las empresas BioNTech y Pfizer han confirmado la detección de un acceso no autorizado a documentación confidencial relacionada con la vacuna que han desarrollado. También la compañía farmacéutica Sinopharm International Corporation, compañía farmacéutica cuya vacuna para la COVID-19 estaría en estos momentos en fase tres de los análisis clínicos, habría sido suplantada para la distribución de una nueva versión del malware Zebrocy, escrito en Go. Este malware se ha vinculado fundamentalmente contra instituciones gubernamentales y organizaciones comerciales dedicadas a asuntos exteriores. En los últimos meses, venimos viendo cómo las empresas farmacéuticas que desarrollan vacunas contra la COVID-19 están siendo objeto de compromisos por parte de agentes amenazas con respaldo estatal (Fancy Bear APT28, Lazarus Group o Cerium, entre otros). La mayoría de estos ataques se inician con campañas de phishing con archivos maliciosos adjuntos, orientadas a la recopilación de credenciales para posteriormente comprometer los sistemas de estas compañías. Toda la información: https://www.ema.europa.eu/en/news/cyberattack-european-medicines-agency Total System Services (TSYS) víctima del ransomware Conti El pasado 8 de diciembre los operadores del ransomware Conti hacían público en su blog de la Dark Web el compromiso de la compañía del sector financiero Total System Services (TSYS), publicando un 15% de la información sustraída. La compañía ha confirmado que contuvo el ataque en cuanto fueron conscientes del mismo, determinando que no se habrían generado interrupciones en el servicio de pagos y que los datos de las tarjetas no habrían sido extraídos. Fabian Wosar, CEO de la compañía de seguridad informática Emsisoft, asegura que los operadores de Conti solo publican la información en su blog cuando, habiendo instado a la víctima a la realización del pago, esta se niega. Se estima que el grupo de cibercriminales que está detrás de los compromisos de Conti, podrían ser los mismos que operan Ryuk, habiendo sido vinculados al grupo denominado WIZARD SPIDER, de origen ruso, por la compañía de ciberseguridad CrowdStrike. Más información: https://krebsonsecurity.com/2020/12/payment-processing-giant-tsys-ransomware-incident-immaterial-to-company/ ElevenPaths Radio 3×04 – Entrevista a Ángel OrtizEscondiendo las claves debajo del felpudo: los Gobiernos podrían garantizar la inseguridad universal
Cómo mejorar la autoestima profesionalAlfonso Alcántara 11 diciembre, 2020 José Luis de Vilallonga, marqués de Castellbell, escritor y actor español, participó en la película Desayuno con diamantes. Para preparar una escena que transcurría durante una fiesta, el director, Blake Edwards, le acompañó a una joyería el día anterior y le compró una pitillera de oro para que pudiera llevarla en esa escena. Durante el rodaje, el actor español sacó ufano la pitillera en cuanto pudo, pero al momento de hacerlo escuchó un tajante “corten” del director. José Luis se quedó extrañado y le preguntó por el motivo del parón. Edwards le respondió: —No te he comprado la pitillera para que la enseñes, sino solo para que la lleves en la chaqueta. Un hombre no se mueve de igual forma teniendo en el bolsillo una pitillera de oro. ¿Qué es la autoestima? ¿Cómo influye en nuestra vida? La autoestima ¿es una causa o una consecuencia del éxito? ¿Nos sentimos más confiados, seguros y valiosos cuanta más confianza, seguridad y valor nos aporta nuestra vida profesional y social? ¿Nos queremos más cuantos más logros alcanzamos, o alcanzamos los logros porque nos queremos mucho? Pareciera que hay profesionales con aparente autoestima que no consiguen lograr muchos de los objetivos que se proponen, mientras que otros que muestran menos confianza en sí mismos avanzan con paso firme en sus carreras. Un primer paso para intentar definir de forma operativa este constructo psicológico pasaría por entender la autoestima como un factor mediatizado por las autoafirmaciones positivas que hacemos, es decir, como un conjunto de verbalizaciones con las que nos describimos como profesionales capaces y como personas valiosas que, en teoría, afectarían a nuestras emociones y a nuestra motivación. Describirte de forma positiva puede ser negativo Parece que los intentos por mejorar nuestra autoestima de una forma directa no funcionan. Joanne Wood, profesora de Psicología en la Universidad de Waterloo en Ontario, se propuso probar en un experimento (1) que las autoafirmaciones positivas y otros diálogos internos similares hacen que las personas se sientan mejor consigo mismas. Los participantes en este estudio, que fueron valorados inicialmente como personas “con autoestima alta”, informaron sentirse un poco mejor después de entablar un diálogo interno positivo. Pero aquellos otros “con baja autoestima” declararon sentirse peor, según la hipótesis de la investigadora, porque percibían mucha distancia entre sus autovaloraciones positivas (por ejemplo, “eres un gran profesional”, “lo vas a conseguir”, “la gente te aprecia”, etc.) y la realidad del largo camino que debían recorrer para alcanzar esos logros y estados. Dicho de otra forma, el intento de animarse describiéndose bien les recordaba lo mal que estaban. Creer en ti mismo empieza por que crean en ti ¿Quién no querría creer en sí mismo? Pero la autoconfianza no depende de verbalizaciones motivacionales ni de la repetición de frases «wonderfulistas» a modo de mantras, sino de haber experimentado y conseguido suficientes cosas buenas en la vida personal y profesional con la suficiente frecuencia. Un estudio (2) ya clásico con chimpancés mostró que el autorreconocimiento en el espejo parece depender, paradójicamente, de la temprana exposición social a otros, porque los individuos nacidos en el laboratorio y criados en aislamiento generalmente no muestran signos de reconocerse en el espejo. No solo nuestra autoestima depende en gran parte de nuestro nivel de inclusión y aceptación social, sino que nuestro propio ser empieza «siendo con otros». Los apoyos sociales son la base de nuestra confianza En una tira cómica de Garfield, Odie, su pequeño perro amigo, entra en pánico al ver un letrero que advierte “cuidado con el perro”. Tras tranquilizarle Garfield diciéndole que el letrero se refiere a él, vemos en la última viñeta a Odie apoyado con suficiencia en el cartel, mientras emite un gruñido de autoestima como perro guardián. La autoestima profesional es una consecuencia de los logros y los apoyos —¿Cómo se supera la inquietud de los primeros partidos? —Ganando. Rafael Nadal. No solo se vive para lograr, pero sin logros no hay vida con autoestima Si nada de lo que hacemos tuviera efecto, nada haríamos. Los logros necesarios para una vida personal y profesional valiosa y con significado pueden ser excepcionales o cotidianos, íntimos o compartidos, materiales o intangibles. En la empresa y en la vida profesional, la verdadera autoestima nace de las propias competencias, que permiten obtener suficientes logros personales y profesionales. Nuestra confianza profesional tiene relación directa con el dominio de herramientas, conocimientos y habilidades, una idea que resume esta metáfora mejor que yo: Un pájaro en un árbol no tiene miedo de que la rama se rompa, porque su confianza no está en la rama sino en sus alas. Y, por supuesto, esa autoestima que nace o parte de las competencias, crece con las relaciones y apoyos, que nos aportan satisfacción, afecto, confianza y oportunidades, no de las retóricas vacías sobre creer en sí mismo, ser uno mismo o quererse mucho. Las crisis profesionales (y personales) que afectan a la autoestima se producen en estos cuatro tipos de escenarios. Fracaso. No conseguimos lo que queremos con la suficiente frecuencia, lo que genera frustración y falta de confianza.Incompetencia. No contamos con las habilidades necesarias para alcanzar los objetivos o completar las tareas.Desmotivación. No nos motiva lo que antes lo hacía y no se han generado motivadores nuevos, lo que genera confusión y desánimo.Apoyos insuficientes. Las relaciones personales y profesionales actuales no ayudan a obtener logros ni generan las necesarias experiencias afectivas. Si quieres mejorar tu confianza en tu empresa y recorrer tu carrera profesional con paso más seguro, encuentra las fórmulas para navegar con efectividad en estos escenarios. Confianza es creer en ti mismo. Arrogancia es creer solo en ti mismo. Daniel Pink. Si quieres autoestima, mejora tu autodisciplina Roy Baumeister, de la Universidad Estatal de Florida, un investigador pionero inicialmente “creyente” en el valor e influencia de la autoestima sobre la vida personal y profesional, realizó un metaanálisis (una revisión de muchos estudios) para comprobar la relación entre la autoestima y los indicadores externos de éxito en la escuela, en el trabajo y en las relaciones. En 2003, Baumeister y sus colegas informaron que no encontraron evidencia de que la alta autoestima hiciera a las personas mejores estudiantes, más exitosas en el trabajo o más saludables. Tras su descubrimiento, el investigador dejó este consejo práctico: Olvídese de la autoestima y concéntrese más en el autocontrol y la autodisciplina. La diferencia entre ego y autoestima: un poco de humor también genera autoconfianza Mafalda realizó un tratado sobre la autoestima cotidiana en una sola viñeta: “Así como hay mucha gente que a mí puede no gustarme, es lógico que también yo puedo no gustarle a un montón de imbéciles». Seguramente, a Mafalda y a cualquier otra persona que hubiera hecho esta declaración, se le tachará de ególatra. Y es que ego es un término que se usa con frecuencia para descalificar a las personas arrogantes, prepotentes o desconsideradas. Pero si nos paramos a pensar, el ego es el motivador más natural y disponible, lo que pasa es que al pobre le han puesto un mal nombre. Y encima se tiende a usar como arma arrojadiza contra profesionales que están más cualificados o motivados que nosotros, o que suponen una amenaza para nuestra carrera o nuestra posición. En todo caso, si alguien te reprocha una excesiva “admiración hacia ti mismo”, recuerda que ego es lo que tienen los demás; tú, siempre autoestima. Y cuando algún jefe, empleado o compañero recrimine tu exceso de autoconfianza, también podrías replicar: —Martínez, yo no tengo ego, tengo una autoestima muy fuerte. (1) Harriet Brown. The Boom and Bust Ego. Enero, 2012. Revisado junio 2016. Psychology Today. (2) Gallup, GG, McClure, MK, Hill, SD y col. Capacidad de autorreconocimiento en chimpancés criados en forma diferencial. Psychol Rec. 21, 69–74 (1971). Tendencias tecnológicas 2021: la década de la innovación radicalIndustria digital: ¿en qué punto se encuentra España?
El camino hacia una empresa ágil, en el BAC 2020Javier Rosado López 11 diciembre, 2020 Hoy en día todos somos conscientes de que vivimos en un entorno más VUCA que nunca: volátil, incierto, complejo y ambiguo. Por ello, las empresas que quieran prosperar tienen que combatir la dificultad del entorno con autonomía, innovación, sencillez y transparencia, pilares básicos de lo que se conoce como Business agility. Esto es, la habilidad de las organizaciones para adaptarse con flexibilidad y responder con rapidez al cambio. Ser una empresa ágil resulta crucial en este momento. Para hablar de ello se celebró de manera virtual a finales del mes pasado el BAC 2020. Fue la cuarta edición del Congreso de la Business Agility Corporation. Esta asociación reúne a las principales empresas del país para trabajar en la adaptación a las nuevas formas de trabajo. El reto se aborda a través de la transformación digital pero ésta no es realmente posible sin una transformación agile, no sin cambiar las formas de pensar y hacer. Agile no es el fin, sino el medio Cuando una organización implementa agile como medio para alcanzar sus objetivos, como primer paso tiene que definir éstos junto a la estrategia. Pero no puede hacerlo como se ha hecho siempre. En un entorno cambiante la estrategia no puede grabarse a fuego durante un semestre o un año. Requiere una revisión más frecuente, como mucho trimestral. Y es que cada día los ciclos son más cortos. Una estrategia flexible no solo ayuda a responder al cambio, también a aprender más rápido. Iniciativas transversales Es clave una estrategia única que gobierne todo y se pueda operativizar en base a métricas. Pero métricas no orientadas a áreas, sino a cadenas de valor, que ayuden a que una compañía esté alineada y cuente con equipos autónomos y autogestionados. Las iniciativas con mayor impacto suelen ser transversales. Una buena forma de conseguir todo esto es con un sistema de OKRs (Objetivos y Resultados Clave), que más que una forma de medición es un sistema de gobernanza. Une estrategia con ejecución, descentraliza la toma de decisiones y mejora el compromiso de los equipos. La importancia de la cultura y la comunicación para una empresa ágil La implementación de agile exige un cambio cultural profundo de toda la organización, más allá de los diferentes marcos de trabajo. Sin eso, cualquier transformación tiene los pies de barro. Algunos de los rasgos de esta nueva cultura son el cliente en el centro, la mejora continua, la evolución hacia un liderazgo servicial, ser una compañía que valore a las personas y las premie por toma la iniciativa, innovar y aceptar riesgos. Resulta fundamental que los líderes entiendan la necesidad de la transformación, sean firmes convencidos de ella, la apoyen y sepan comunicar al resto de la compañía sus beneficios. La comunicación es indispensable, es importante que venga “de arriba” y que explique claramente el porqué y el para qué. Implementación y ejecución Según las estadisticas, entre un 60 y un 70 por ciento de los proyectos fallan en la ejecución. Las metodologías son importantes pero sobre todo lo es el objetivo y saber adaptarse a las necesidades de cada organización. De lo contrario es fácil caer en la famosa “agilidad cosmética”: mucho post-it y términos marketinianos, pero poco más. En el encuentro también se dijo que hay que entender y aceptar que durante este proceso estamos condenados a pasar por un estado “Wagile”, es decir, mitad cascada, mitad agile. Lo importante es entrar y salir rápido de esa zona o no tardarán en aparecer detractores, los eventos se convertirán en reuniones de seguimiento y el área de negocio empezará a cuestionar el modelo. Agile requiere equipos de alto rendimiento No es fácil de conseguir pero se trata de lograr equipos de alto rendimiento, dedicados cien por cien a un solo objetivo. Hablamos de equipos multidisciplinares, autogestionados, autosuficientes, capaces de entregar valor en poco tiempo y con constante feedback por parte del cliente y grupos de interés. Para ello se hacen indispensables figuras como las del Product Owner (PO) y el Scrum Master (SM), impulsores del cambio, capaces de retar al equipo, así como el acompañamiento de los agile coaches en los primeros meses. Formación Es evidente que la formación es clave, pero más aún hacerla en el momento adecuado. Es frecuente pecar al inicio del proyecto de un exceso de formación, lo cual puede generar problemas porque los empleados no pueden aplicar lo que van aprendiendo. Es difícil retener algo que no se utiliza. Habilidades requeridas en una empresa ágil En cualquier caso, las personas deben también responsabilizarse de su propia formación. Algunas de las habilidades más requeridas en este nuevo entorno son la resolución de problemas, el pensamiento crítico, la creatividad, la gestión de personas, el liderazgo informal, el trabajo en equipo, la inteligencia emocional, la orientación al cliente, habilidades de negociación y el intraemprendimiento. Datos y tecnología Al igual que la transformación digital no es suficiente sin transformación agile, ésta se queda incompleta sin la digitalización. La agilidad se tiene que aliar con los datos y la tecnología para provocar el mejor de los cambios. Se trata de proponer cambios sistémicos basados en datos y no tanto en la intuición como ha sido lo normal hasta ahora. Esto permite, entre otras cosas, tomar mejores decisiones en el nivel más eficiente, es decir, el más próximo al cliente. Una compañía ágil también necesita, por tanto, automatizar, digitalizar y aprovechar tecnologías como RPA, cloud, big data e inteligencia artificial, o blockchain. Os dejo los enlaces al primer día del encuentro, la segunda jornada y el día de la clausura. Imagen: Hatoriz Kwansiripat Transformación digital de los centros educativos: cómo abordarlaFinOps: un enfoque multidisciplinar y ágil de gestión de proyectos cloud
Telefónica Innovation Day: nuestro legado en innovaciónInnovation Marketing Team 11 diciembre, 2020 A lo largo de nuestros 96 años de historia, en Telefónica hemos ido construyendo un legado en innovación, considerando esta materia como uno de los elementos clave de nuestro modelo de negocio. En este 2020 donde innovar ha cobrado más sentido que nunca, en Telefónica hemos celebrado por primera vez el Innovation Day, un evento en el que hicimos un breve repaso de nuestros lanzamientos más innovadores y donde hablamos de todas esas tecnologías que están revolucionando el mundo. “Para contar los éxitos, debemos mirar hacia atrás”. Estas fueron las palabras con las que Chema Alonso, Chief Digital Consumer Officer, dio el pistoletazo de salida al evento. Así, hizo un recorrido por la innovación de Telefónica partiendo desde el año 1924 cuando se fundó la Compañía Telefónica Nacional de España (CTNE) para llevar la comunicación a personas y empresas a través del teléfono. En los años 90 fue donde la transformación de la compañía se aceleró. Comenzamos con el lanzamiento de Tesys, la primera red de conmutación de paquetes pública a nivel mundial para llegar al mundo de los datos. Unos años más tarde lanzamos la telefonía móvil e infovía, lo que permitió que cualquier persona pudiese llamar y conectarse a internet con el mismo coste que una llamada local. A finales de esta década llegó la banda ancha basada en ADSL y unos años más tarde, Imagenio, nuestra plataforma de televisión de pago que ha ido evolucionando hasta lo que conocemos actualmente como Movistar Plus. La llegada de LUCA, Wayra, Talentum y Eleven Paths a Telefónica En 2012, Chema Alonso comenzó su andadura en Telefónica uniéndose a Talentum, un programa que perdura en la actualidad y que tiene como objetivo atraer a Telefónica al talento universitario con ideas innovadoras capaces de crear tecnología. También, fundó y dirigió ElevenPaths, filial de Telefónica centrada en ciberseguridad y colaboró con Wayra, un proyecto que permitió conectarnos con startups y al que define como “uno de los más transformadores de la compañía”. Desde Wayra apoyamos al ecosistema emprendedor y, con un portfolio de +500 startups invertidas, llevamos la tecnología de estas startups a nuestros clientes y a los servicios internos que ofrecemos. Con el objetivo de seguir interactuando con el ecosistema emprendedor, durante el Telefónica Innovation Day 2020 anunciamos también el lanzamiento de Wayra X, Wayra Builder y Telefónica Tech Ventures. “No sé si triunfaremos o tendremos que fracasar, pero si que tenemos claro es que para entender el presente necesitamos mirar el pasado”, asegura. En 2016 decidimos dar la vuelta a toda nuestra estrategia digital con la creación de la unidad Chief Data Officer, en la que Chema Alonso estuvo al frente durante cuatro años. En este mismo año creamos LUCA, la unidad de datos de Telefónica pionera en aplicar tecnologías de Inteligencia Artificial, Machine Learning y Deep Learning, entre otras. “El año pasado, en 2019, Telefónica decidió llevar la innovación un paso más allá, llevarla a la transformación de todas las plataformas con las que interactúan nuestros clientes, creando la unidad de Digital Consumer, donde encontramos las unidades de producto, de negocio y de innovación”, explica Chema Alonso. En definitiva, toda la innovación de Telefónica ha sido posible al conectar tres piezas: innovación interna, emprendedores y la propia potencia de negocio de nuestra compañía. “El año pasado, en 2019, Telefónica decidió llevar la innovación un paso más allá, llevarla a la transformación de todas las plataformas con las que interactúan nuestros clientes, creando la unidad de Digital Consumer, donde encontramos las unidades de producto, de negocio y de innovación”, explica Chema Alonso. En definitiva, toda la innovación de Telefónica ha sido posible al conectar tres piezas: innovación interna, emprendedores y la propia potencia de negocio de nuestra compañía. Así vivimos el Telefónica Innovation Day 2020: todas las novedades y nuevos lanzamientosDescubre 5GNow, el proyecto de Core Innovation que impulsa el 5G Edge de Telefónica
Aplicamos tecnología cuántica a casos de uso reales de Blockchain e IoTJosé Luis Núñez Díaz 11 diciembre, 2020 Juntar en un título Tecnología Cuántica, Blockchain e Internet de las Cosas parece una fórmula para generar clicks. Sin embargo, es lo que hemos hecho en Telefónica: demostrar la viabilidad y el valor de interconectar las tres tecnologías. Para ello, participamos en el proyecto Q-Secure Net financiado por EIT Digital. Su objetivo global es proporcionar comunicaciones cuánticas con QKD (Distribución Cuántica de Claves por sus siglas en inglés). Como demostrador de la solución, integramos un caso de uso de QKD en TrustOS, nuestro servicio gestionado de Blockchain. Utilizamos QKD para asegurar el tráfico entre un dispositivo IoT y TrustOS registrando telemetría en Blockchain. Pero antes de ensuciarnos las manos, repasasemos con nivel cuñado para la cena de Navidad los retos que nos planteamos. Empecemos repasando el concepto de QKD. Qué es la distribución cuántica de claves (QKD) Básicamente, QKD utiliza propiedades cuánticas para intercambiar claves criptográficas secretas entre dos puntos. Podemos hacer que la misma secuencia de números aleatorios aparezca simultáneamente en dos lugares separados. Procesando esa secuencia se obtienen una claves completamente aleatorias. Luego esas claves se usan para encriptar los mensajes que se comunican a través de un canal inseguro. Convertimos por tanto ese canal en inviolable. La seguridad se basa en una característica fundamental de la mecánica cuántica: es imposible observar un sistema cuántico sin perturbarlo. Por tanto, ambos extremos de la comunicación tienen la garantía de que nadie ha perturbado la información que reciben. Si alguien lo hiciese, dejaría huella y los destinatarios desestimarían la información «contaminada» hasta reconstruir la información con información «limpia». De esta manera, QKD permite que dos usuarios intercambien una clave segura incluso en presencia de un observador. El intercambio se produce a través de un canal óptico que conecta ambos puntos. Precisamente la cobertura de fibra óptica es uno de los activos de la red de Telefónica. Seguridad en dispositivos IOT Para construir una solución de IoT segura y confiable, debemos empezar garantizando la integridad y la identidad del dispositivo. Es decir, por un lado, hay que verificar que nadie ha manipulado el HW o el SW (integridad). Por otro, debo estar seguro del dispositivo con el que estoy comunicándome (identidad) y autenticarle sin lugar a dudas. Otra característica a tener en cuenta es la confidencialidad de las comunicaciones. Es decir, ningún observador malintencionado que reciba o acceda a las comunicaciones debería descifrar su contenido. Para cada uno de estos problemas existen soluciones más o menos sofisticadas en la industria. La mayoría de ellas pasan por combinaciones de elementos HW seguros y técnicas criptográficas. Sin embargo, la mayoría de dispositivos presentan restricciones en cuanto a capacidad de procesamiento o coste. Estas restricciones hacen inviables técnica o económicamente a algunas de las soluciones. Especialmente si involucran operaciones criptográficas computacionalmente costosas, como el cifrado o la generación de claves temporales, que requieren mucho tiempo. El reto de la gestión de claves criptográficas en los dispositivos Pero incluso con dispositivos suficientemente potentes, existe el problema de crear, distribuir y gestionar las claves secretas en el dispositivo. Los fabricantes deben garantizar que nadie no autorizado acceda a las claves durante toda la cadena de fabricación y distribución. Hay que tener en cuenta que hay que provisionar claves diferentes y únicas en un dispositivo concreto. Una vez almacenadas en el dispositivo tampoco pueden ser accesibles. El escenario más extendido implica la instalación de certificados en el dispositivo y disponer de una infraestructura de clave pública. La integridad en los dispositivos la garantizan sectores seguros de arranque verificando la validez de la firma del SW. El dispositivo utiliza su certificado para firmar las comunicaciones y demostrar su identidad. Respecto a la confidencialidad e integridad de la comunicación suele garantizarse extremo a extremo utilizando protocolos de red tipo TLS. Estos protocolos dependen a su vez de combinar múltiples algoritmos de claves simétricas y asimétricas. Por tanto, parece razonable utilizar claves simétricas para garantizar la seguridad de la información a nivel de las aplicaciones. Resultaría más sencillo y eficiente que gestionar infraestructura de claves públicas. Sin embargo, la gestión de claves simétricas es más problemática, ya que deben distribuirse y almacenarse en los dos extremos. Utilizar QKD para obtener esas claves simétricas mejora la integridad de las mismas al eliminar la necesidad de distribuirlas previamente. Blockchain e Internet de las Cosas Ya contamos en este blog como se realimentan estas dos tecnologías cuando las utilizamos conjuntamente en un proceso de negocio. Hablábamos de la posibilidad de que los dispositivos registren la información de los sensores que gestionan directamente en blockchain. Lo más cerca de la fuente que genera el dato. Pero para que ese dato sea fiable tenemos que garantizar que no se alteró antes de registrarlo en la blockchain. Es decir, como cualquier otro servidor con el que se conecte el dispositivo, necesitamos un canal de comunicaciones seguro. La forma clásica de hacerlo es con protocolos TLS, lo que supone que el dispositivo debe tener instalado un certificado. En su lugar, podemos utilizar un canal inseguro y cifrar la información con una clave simétrica suficientemente segura. Pero en cualquiera de los casos ya se repiten los retos asociados a la gestión de las claves secretas. ¿Cómo mejora QKD las comunicaciones desde el dispositivo? Fundamentalmente, QKD permite eliminar el riesgo de exposición de las claves privadas en el proceso de fabricación. Tampoco hay que informar de las claves al otro extremo con el que vamos a comunicarnos. En este caso los nodos de blockchain. La clave simétrica generada por QKD es completamente aleatoria. Además se genera de forma simultanea en los dos extremos de la comunicación. Los fundamentos de mecánica cuántica y la distribución por el canal óptico garantizan que una comunicación resistente a “espías” (evedroper). Además, la clave tiene el mismo tamaño que el mensaje y se usa una sola vez para encriptar ese mensaje. Esta técnica de encriptado es la que se conoce como one-time-pad (OTP). Si la clave es totalmente aleatoria (como ocurre con QKD) se ha demostrado matemáticamente que el encriptado OTP es irrompible. Por tanto, la clave simétrica obtenida de QKD es más segura, ya que: es resistente a ataques de fuerza bruta, al no basarse en funciones matemáticas difíciles de resolver (como RSA o EC)es resistente a pruebas de claves posibles ya que se tardaría un tiempo exponencial respecto al tamaño de la claveno se intercambian entre los extremos de la comunicación, eliminando el riesgo de fugasno se almacena en el dispositivo de manera permanente, evitando exposiciones no deseadas ¿Podemos usar QKD hoy? A día de hoy, los dispositivos cuánticos en general son caros e inaccesibles para casos de uso masivos. Sin embargo, la tecnología QKD está evolucionando a pasos firmes y grandes. Por ejemplo CV-QKD (QKD con variable continua) hace uso de tecnologías y componentes comerciales de comunicaciones ópticas. También permite que convivan canales cuánticos con clásicos sobre la misma fibra óptica. En 2018, ya anunciábamos una experiencia piloto utilizando CV-QKD y SDN (Software Defined Networking) en redes ópticas comerciales. Más allá del piloto, hoy está integrándose a nivel pan europeo mediante el proyecto openQKD. Según avance la tecnología, bajarán los precios de los dispositivos y van a miniaturizarse cada vez más. De hecho, en proyectos como CIVIQ se está trabajando en embeberlos como accesorios conectados en los puertos de equipos genéricos. Mientras tanto, se sigue trabajando en extender las distancias que pueden separarse los dispositivos conectados con una fibra óptica. No sólo directamente, sino también añadiendo relays o trusted nodes (una red china alcanza los 2000 Km mediante QKD satelital). Este tipo de experiencias nos permitirán aplicar la tecnología en topologías de red cada vez más complejas. Por ejemplo, también utilizamos QKD para garantizar el consenso en una red blockchain. En lugar de recurrir a costosos e ineficientes protocolos como el Proof Of Work. Se trata de casos reales donde la tecnología cuántica resuelve problemas de manera más eficiente que otras tecnologías. Nuestro caso En el demostrador de Q-Secure Net, un dispositivo IoT y TrustOS se conectan a sendos equipos de QKD. Cuando el dispositivo quiere iniciar una comunicación, contacta con TrustOS a través de un canal clásico. Ambos recuperan simultáneamente la clave simétrica generada por los equipos QKD. Luego la utilizan cifrar la información de telemetría de los sensores conectados que envían por el canal. TrustOS recibe la información cifrada que descifra con la misma clave. Si el mensaje descifrado es correcto, le permite a TrustOS verificar la identidad del dispositivo. Como parte de la información enviada, el dispositivo incluye también algún tipo de código de verificación. Este código es un atributo elegido por el dispositivo con el objetivo de verificar su integridad. Por ejemplo, un digest del sector de arranque o una firma del firmware. En sucesivos mensajes, TrustOS almacena ese código en Blockchain, convirtiéndolo en inmutable. Si no cambia entre llamadas podemos asumir que el dispositivo es confiable. Finalmente, TrustOS inicia una transacción para registrar la información enviada en blockchain. Pero, ¿es viable añadir los equipos QKD a los dispositivos? Como decíamos más arriba, en la mayoría de las ocasiones, los dispositivos IOT son muy simples. Por tanto, simplificar la gestión de claves tiene sentido pero no tanto incluir equipamiento complejo y grande como equipos QKD. Incluso cuando pudieran conectarse al puerto de un PC. Sin embargo, muchas arquitecturas de soluciones IoT incluyen concentradores o equipos con una función similar. Son habituales en fabricas, almacenes u hospitales desplegados en el borde de la red con arquitecturas de Edge Computing. Funcionan como agregadores de la conectividad de los dispositivos más simples y ejecutan también cierta lógica. Como parte de esa lógica, ese concentrador aglutina las conexiones con las plataforma IoT o servidores de tercero. Estos equipos pueden ejecutar algorítmica avanzada (pensemos en big data, IA, etc.) que el dispositivo sería incapaz de ejecutar. Gracias a ellos se puede procesar información en tiempo real y enviar ordenes al dispositivo para que actúe en consecuencia. No es descabellado pensar en añadir un equipo QKD en estos concentradores. Su misión sería la gestión de las claves para todos los dispositivos que se conectan a él. De esta manera, haríamos viable la utilización de QKD en este tipo de soluciones. ¿Entonces? No debemos obsesionarnos con conseguir canales de comunicación completamente seguros. Tampoco vamos a utilizar QKD a toda costa. Lo que demostramos es que QKD es ya una alternativa viable para garantizar la seguridad e integridad de las comunicaciones. En casos como Blockchain, donde ya utilizamos la tecnología para agregar garantías a un proceso, el encaje es natural. Toda tecnología que añade confianza adicional en la solución extremo a extremo aporta valor. Y QKD, en este caso, lo hace. La realidad nos dice que este tipo de arquitecturas encaja perfectamente en infraestructuras críticas. Pensamos en hospitales, centrales de energía o de comunicación, equipamiento militar, etc. Estas infraestructuras requieren una seguridad óptima para proteger la integridad, la confidencialidad y la autenticidad de la información. Estos datos ya se están recopilando con dispositivos IoT. A día de hoy permiten hacer más eficientes las operaciones o incrementar el control de los procesos. En estos casos, el extra de confiabilidad de QKD es un plus a tener en cuenta. Y ese plus podemos ya disfrutarlo con la tecnología disponible hoy. En la redacción de este post han colaborado Carlos Alcaide Pastrana, Fernando de la Iglesia Medina, Antonio Pastor Perales y José Luis Núñez Díaz, Dossier del proyecto Q-Secure Net:Download Para mantenerte al día con el área de Internet of Things de Telefónica visita nuestra página web o síguenos en Twitter, LinkedIn y YouTube. Drones que «ven bajo tierra»Video Post #18: Atrévete con Deep Learning. Principios básicos al alcance de todos
Tendencias tecnológicas 2021: la década de la innovación radicalRaúl Alonso 10 diciembre, 2020 Con casi tanta expectación como la del anuncio de la Lotería, cuando finaliza el año los profesionales de TI sintonizan con la consultora Gartner para saber qué muestra su bola de cristal sobre las tendencias tecnológicas del año entrante. Hacemos un repaso a las Top Strategic Technology Trends de 2021, para anticipar qué puede ocurrir en una década que la propia consultora califica de innovadora radical. Un recorrido, en algunos casos, por ideas que hoy pueden sonar marcianas, pero que conviene no echar en saco roto: muchas de ellas serán estratégicas en tu negocio. Como no puede ser de otro modo, el desafío COVID condiciona en esta edición al oráculo tecnológico. Pero el consejo es ponerse en posición de crecimiento, porque la pandemia pasará. Y la recomendación es utilizar estas tendencias de palanca. Trabajar en una estrategia centrada en las personas, que opere con independencia de la ubicación y que garantice el suministro frente a cualquier imprevisto. Las estrategias tecnológicas más influyentes en 2021 Internet del comportamiento La información que Internet pone en manos de las organizaciones va a permitir cada vez más conocer e influir en el comportamiento de los usuarios. Para ello solo hay que pensar en tecnologías como el reconocimiento facial, el geoposicionamiento o el big data. La captura de este “polvo digital”, para transformarlo en información y conocimiento; se realiza con las herramientas del Internet of Behaviors (IoB). Gartner predice que en 2025 más de la mitad de la población mundial estará monitorizada por algún programa de IoB comercial o gubernamental. Y como es lógico, el debate ético sobre cómo debe utilizarse esta nueva realidad está servido. La experiencia total Entramos en el que se anuncia como uno de los mayores factores competitivos para las empresas en los próximos tres años: desarrollar una estrategia de experiencia total (TX) como elemento diferencial y de crecimiento en la fase pospandemia. Para lograrlo, hay que unificar todas las interacciones (todos los contactos) con la empresa, de modo que ya sean presenciales o virtuales, ofrezcan una misma experiencia transformadora al servicio de la venta, pero sobre todo de la satisfacción. Una estrategia que también se debe poner al servicio de la fidelización del talento interno. Tecnología informática para mejorar la privacidad En gran parte impulsado por Europa (y este es apunte del autor), la mayor y mejor legislación de protección de datos presenta un gran reto a los CIO del mundo. De ahí que cada vez más se va a diseñar una tecnología informática que proteja datos y privacidad. El vaticinio de Gartner es que para 2025, la mitad de las grandes organizaciones habrán avanzado en esta línea. El objetivo es crear un entorno de confianza, que debe priorizar las operaciones que implican transferencia de datos personales y usos sensibles como monetización de datos, análisis de fraude o salud. Nube distribuida En los próximos cinco años la tecnología de nube distribuida va a estar cada vez más presente. En opinión de la consultora, estos servicios distribuidos (que se ejecutarán en el lugar donde se necesitan, gracias al edge computing) van a ir sustituyendo a la nube privada. ¿Por qué? Porque son más ágiles y flexibles para aquellas empresas que buscan una baja latencia de respuesta, gracias a la proximidad física con el nacimiento del dato o la actividad comercial. La nube distribuida también aportará ventajas para la optimización de los costes de datos y de su alojamiento. Operaciones desde cualquier lugar Nuevo paso en el derribo de las fronteras geográficas: dar ubicuidad al acceso del empleado a los recursos de la organización, atender las necesidades del cliente desde cualquier lugar y vender en todas partes son los objetivos. Para ello se avanza en el teletrabajo, la atención remota al cliente y los servicios comerciales en infraestructuras distribuidas. Gartner recomienda centrarse en cinco grandes áreas de trabajo para posicionarse en esta tendencia tecnológica: Herramientas de colaboración y productividad.Acceso remoto seguro.Infraestructura en la nube y edge computing.Cuantificación de la experiencia digital.Automatización del soporte remoto. La consultora prevé que en 2023 el 40% de las organizaciones habrá avanzado en este entorno, para ofrecer mejores experiencias virtuales y físicas a clientes y empleados. Malla de ciberseguridad Nuevo concepto acuñado por la consultora. Se refiere a todo dispositivo con el que la organización se dota para protegerse en un entorno de infraestructuras y usuarios cada vez más dispersos. En su opinión, en 2025 la malla de ciberseguridad gestionará más de la mitad de las solicitudes de acceso, utilizando la propia identidad del usuario como llave de acceso. Empresa inteligente componible La pandemia ha demostrado la fragilidad de la eficiencia basada en procesos de negocio estáticos. Una lección duramente aprendida por los responsables de TI, que ahora deben diseñar capacidades, especialmente comerciales, que se adapten a las circunstancias que condicionan la empresa. Ahí entra en juego la empresa inteligente componible. Es aquella capaz de rediseñar el proceso de toma de decisiones, al contar con instrumentos que le permiten medir mejor la información, pero que además se dota de estructuras para responder con agilidad. Todo ello debe servir para mejorar la estrategia digital, crear modelos de negocio, diseñar operaciones autónomas y nuevos productos, servicios y canales. Ingeniería IA (inteligencia artificial) Apenas el 53% de los proyectos con base en inteligencia artificial (IA) pasan a la fase de producción. Para la consultora, este desfase se explica por la falta de una ingeniería IA que permita interpretar y escalar de modo fiable los modelos propuestos. Las metodologías de trabajo DataOps (sistema de operaciones de datos), ModelOps (que coordina las actividades entre la aplicación y el desarrollo del modelo) y DevOps (desarrollo, seguridad y operaciones) deben servir para que la información fluya dentro de la empresa. Solo cuando todos los equipos implicados tienen acceso al dato, la empresa logra esa ingeniería IA que pone en valor las inversiones realizadas y, más importante, se acerca al objetivo. Hiperautomatización “La hiperautomatización es inevitable e irreversible: todo lo que pueda y deba automatizarse, será automatizado”. Con esta contundencia Gartner cierra las que considera tendencias dominantes de la estrategia tecnológica. Un proceso acelerado por una pandemia que antepone lo digital. Seguridad para empresas y negocios: las alarmas que disuaden de los robosCómo mejorar la autoestima profesional
Transformación digital de los centros educativos: cómo abordarlaBelén Espejo González 10 diciembre, 2020 El COVID -19 ha dejado al descubierto las cicatrices del sistema educativo. Se ha visto una doble brecha. Por un lado, la que afecta a las familias más desfavorecidas con dificultades para acceder a la conectividad y los dispositivos necesarios en un nuevo entorno digital. Y, por otro, la de una parte relevante de los centros escolares y de la comunidad educativa sin la capacitación para desenvolverse en la nueva realidad. Se ha hecho evidente la necesidad de la transformación digital de los centros educativos. La situación también ha traído a primer término la necesidad de una educación inclusiva que no deje a nadie atrás y la urgencia de desarrollar esas capacidades digitales. Además de potenciar la implicación de las familias, la comunidad educativa y la sociedad en su conjunto por la trascendencia del tema. Hacia un modelo educativo híbrido La pandemia pone sobre la mesa un reto importante. Se trata de desarrollar, como ya vemos en otros ámbitos de nuestra vida, un modelo educativo híbrido. El objetivo es potenciar al máximo lo mejor de cada mundo: el presencial y el online, al servicio del aprendizaje del alumno, para garantizar su continuidad en cualquier situación. Reinventar la manera de enseñar y aprender Se trata de reinventar la manera de enseñar y aprender para mejorar los resultados. Esto pasa por acceder a contenidos innovadores, desarrollar las capacidades digitales de profesores y alumnos y un cambio de chip. La tecnología como condición sine qua non pero no suficiente Aunque la tecnología en este contexto es un habilitador clave al servicio de un mejor aprendizaje no es un tema “solo” de tecnología. Hay que pensar en contenidos nativos digitales, aulas híbridas, itinerarios formativos personalizados para cada alumno y todas sus posibilidades exponenciales pero no solo en eso. Un tema estructural y cultural Hablamos de una transformación profunda y estructural que exige un cambio cultural y una nueva metodología pedagógica adaptada al entorno digital. Tanto docentes como alumnos deben evolucionar. Los primeros como mentores y artífices de nuevas experiencias y dinámicas educativas. Los segundos deben convertirse en auténticos protagonistas de su propio aprendizaje. Pasos para la transformación digital de los centros educativos El panorama es complejo, no todos los centros se enfrentan a este reto en las mismas condiciones. Tienen diferentes grados de madurez digital. Por eso, el primer paso es definir la identidad digital de cada centro: la huella que impregnará la tecnología en la nueva forma de enseñar y de aprender. Entonces llega la hora de seleccionar la tecnología más indicada para hacerlo posible: Será necesario equipar a los centros educativos con conectividad, medios audiovisuales y nuevas herramientas (dispositivos, plataformas digitales de aprendizaje, soluciones de colaboración para el entorno educativo accesibles desde el centro y desde el hogar). En ese momento es importante definir indicadores objetivos para valorar el grado de avance de la transformación. También, una vez que la tecnología está desplegada, hay que realizar una pequeña prueba de concepto para comprobar el modelo definido y hacer las correcciones precisas antes de un despliegue masivo en el centro. En esta fase resulta clave dedicar tiempo y esfuerzo para gestionar el cambio. Eso asegura la implicación en la adopción de las nuevas herramientas, así como la responsabilidad para un buen uso de las mismas. Cambio pedagógico La transformación digital de los centros educativos exige, por tanto, un cambio pedagógico y tecnológico. En el primer caso es preciso transformar las dinámicas y rutinas de aprendizaje. Esto requiere una nueva metodología, rediseñar los contenidos y transformar procesos educativos como la evaluación académica. También hace falta un reskilling docente y capacitar al resto de la comunidad educativa. Se trata de establecer un modelo estructurado de mejora continua que permita balancear el uso de herramientas tradicionales y virtuales e impulse la transformación cultural del entorno educativo. La importancia de un socio tecnológico Para el cambio tecnológico, Telefónica Empresas es el partner integral de la transformación digital de los centros educativos . Les aporta una metodología que incluye una primera fase de análisis de la situación de partida. Esto será lo que determine las necesidades en cuanto a infraestructuras, herramientas y capacidades digitales. Imagen: Pedro J. Huerta En busca de un software para mejorar la movilidad frente al COVID-19El camino hacia una empresa ágil, en el BAC 2020