“La Sociedad Digital en España 2022”: 5G, clave para la recuperación

Félix Hernández    21 septiembre, 2022

Grandes mensajes de cambio en la presentación de  “La Sociedad Digital en España 2022” el pasado 6 de septiembre, todo un referente. Según Carmen Morenés, directora de Fundación Telefónica, este trabajo “es un manual de consulta obligada” para entender lo que está sucediendo tras la pandemia. La digitalización sigue acelerándose, como vimos en el trabajo del año pasado. Nada ha vuelto a su estadio anterior: 2021 ha significado una consolidación sin precedentes.

Quien quiera puede leer el informe completo, “El 5G, una oportunidad única para la reactivación económica de España” pero también es posible ver en diferido el acto de presentación. En ese caso, recomiendo, además, escuchar el posterior diálogo entre Carme Artigas, secretaria de estado de Digitalización e Inteligencia Artificial y Sergio Oslé, CEO de Telefónica España.

Aportación creciente de la digitalización a la economía

Como ocurre con cada edición de este documento, la de este año también generó muchos titulares. Tantos que podrían ocupar por sí mismos un artículo propio. Las claves están encadenadas: la digitalización es, sin duda, la palanca del crecimiento económico necesario en este momento y hay que aprovechar los fondos europeos para este fin. España dedica el 30 por ciento de ellos específicamente a la digitalización, el mayor porcentaje de entre los países de la UE.

Como ya veíamos en  este blog, la digitalización contribuyó al PIB un 19 por ciento en 2020 y desde entonces ha crecido hasta el 22 por ciento. El reto es que alcance a finales de 2025 el 40 por ciento. Nunca otro sector ha tenido un crecimiento tan relevante.

Puestos de trabajo de alto valor

Además, la economía del dato no solo transformará la economía cuantitativa, sino también cualitativamente, con la creación de puestos de trabajo de alto valor.

En este sentido, España, está bien posicionada en cuanto a infraestructuras. Es líder en conectividad en Europa, en tercera posición según el último conjunto de indicadores europeos y, gracias al Plan Único, se garantizarán 100Mbps en toda España (ya alcanza al 85 por ciento de la población).

5G, clave para la recuperación

5G es, sin duda, una tecnología clave para la recuperación de España por su impacto económico y medioambiental . Ya la llaman la nueva tecnología verde y es un poderoso habilitador que permite una serie de eficiencias en productos y servicios hasta ahora nunca vistas, como explicó Oslé. 5G ha sido diseñado nativamente para conectar “cosas” e incorporar masivamente la computación en la nube de los procesos empresariales.

En nuestra vida diaria tampoco nada ha vuelto a ser como antes del COIVID-19 según “La Sociedad Digital en España 2022”. El teletrabajo se ha consolidado hasta el 8 por ciento y ha demostrado su incremento de la competitividad, el eCommerce ha crecido hasta el 55 por ciento, las finanzas han visto  incrementada la digitalización 23 puntos hasta alcanzar el 45 por ciento de citas online y un 36 por ciento de consultas virtuales…

Y ¡ojo! la Administración electrónica ha crecido un 25 por ciento en el último año y ya hay 14 millones de usuarios de Clave. En salud un 51 por ciento de las citas son online en este momento y un 36 por ciento ha mantenido la consulta virtual.

Reinventar la manera de enseñar y aprender

Es muy relevante la percepción de la digitalización del sector educativo: el 83 por ciento de las familias, un 86 por ciento de los profesores y un 99 por ciento de los directores apuestan por la incorporación de la tecnología al aula y al proceso educativo. Existe, así, un antes y un después en cuanto a la transformación, estamos en  una verdadera encrucijada.

En el ámbito empresarial, sin embargo, queda un mayor recorrido de mejora en digitalización e innovación, en especial en la pyme, mucho más atrasada. Solo un 9 por ciento de las empresas usa big data, un 22 por ciento cloud y solo hay un 9 por ciento de patentes tecnológicas. Estos valores están alejados de la media europea y reflejan una baja innovación en nuestro país. Quizá sea la explicación de el  PIB en España cayera un 9,8 por ciento en la pandemia frente a la media del 2,4 por ciento de caída en el sector digital, mucho más resiliente. Afortunadamente se han dado pasos en firme en el despliegue del ecosistema emprendedor español.

Formación en capacitación y profesiones digitales para protagonizar el cambio

Un primer paso que urge dar es la mejora de habilidades digitales básicas en la población general para que permee la transformación en las organizaciones. En ellas esta capacitación se  ha incrementado 7 puntos, hasta alcanzar al 64 por ciento de la población.

No obstante, persiste el déficit de profesionales digitales, un aspecto relevante, con solo un 3,8 por ciento frente al  4,8 de la UE. La palanca de formación será clave para incorporar tecnologías de vanguardia, las disruptivas: inteligencia artificial, blockchain, computación cuántica, los nuevos chips y el metaverso. Y, de paso, recuperar un aspecto estratégico de soberanía europea en la disponibilidad de estas capacidades que, sumadas a las energéticas y productivas, construyen nuestro futuro. Según palabras de Carme, debemos ser actores y no espectadores de este cambio.

Pero ¡ojo! hay una brecha relevante en términos de participación femenina, que no se reduce, sino que crece. Por ejemplo, en ingeniería informática en los últimos años la presencia de la mujer se redujo del 21 al 13 por ciento. Como señaló Carme Artigas y hemos planteado en el blog, quizá les falte un toque de marketing.

En suma, profesiones y competencias digitales deben ser priorizadas en nuestra digitalización para fomentar la empleabilidad. 

Una “digitalización europea”

“La Sociedad Digital en España 2022” también deja titulares sobre privacidad, ciberamenazas y desinformación, fenómenos digitales perniciosos para el crecimiento (el 25 por ciento del tráfico que circula por la red es cibercrimen o tráfico ilícito). Por ello se está trabajando y construyendo un marco legal europeo, con la firma, por ejemplo, de la Carta de Derechos Digitales o el Data Act. Sergio Oslé mencionó que cada segundo cada uno de nosotros genera 1,8 megas de información personal…  La ciberseguridad de esos datos debe formar parte de nuestra ciudadanía digital.

Y me despido con una última reflexión, apuntada en el informe y por los ponentes de la presentación. No queremos cualquier digitalización. Cualquiera no vale. En ella tienen que estar presentes nuestros valores, los aspectos directores que conforman la convivencia de nuestra sociedad. Debe ser una digitalización “a la europea”: inclusiva, igualitaria, sostenible, transparente y democrática. Somos por lo que fuimos en el pasado. Y seremos también, con ayuda de la digitalización como hoja de ruta impostergable.

Imagen: Fundación Telefónica

Latencia y Edge Computing: ¿Por qué es importante?

Emilio Moreno    20 septiembre, 2022

Durante muchos años hemos vivido una carrera por conseguir en nuestras conexiones velocidades cada vez más altas. Desde aquellos módems que nos obsequiaban con una sinfonía de pitidos, cuyo fin esperábamos ansiosamente para ver finalmente confirmada la velocidad con la que nos conectábamos; el conseguir velocidades más altas ha sido siempre el objetivo a alcanzar.

La incorporación de nuevas tecnologías, como el ADSL, la fibra óptica, las comunicaciones móviles 3G o 4G, y las redes privadas MPLS; ha traído paulatinamente velocidades cada vez más altas. Y en muchos casos, el reclamo comercial ha sido prometer más kilobits, más megabits en una carrera técnica y comercial para que podamos consumir nuevos servicios. Por ejemplo, el consumo de internet móvil no se masificó hasta la llegada del 3G. El caso del vídeo en HD o UHD es impensable sin estos valores más altos de ancho de banda.

Pero el ancho de banda no es el único parámetro que tiene importancia a la hora de consumir servicios digitales. Y aquí es donde aparece la latencia.

La latencia, la gran protagonista

La latencia mide básicamente el tiempo que transcurre en la comunicación entre el cliente que inicia la comunicación y el tiempo que tarda en recibirse la respuesta. El orden de magnitud en la que nos movemos es de milisegundos.

La latencia, aunque no haya sido muy visible, ha estado siempre allí y alguna de sus consecuencias son a veces perceptibles. Cuando las comunicaciones transatlánticas se cursaban a través de satélites en órbita geoestacionarios, a más de 35.000 Km sobre la superficie terrestre, el tiempo empleado por la señal desde la estación terrestre al satélite y de bajada a otra estación terrestre añadía unos retardos suficientes para complicar la interlocución entre personas, con tiempos muertos, colisiones entre los hablantes, etc. Aquí la latencia se mueve en el orden de los cientos de milisegundos.

Otro ejemplo sucede en los Data Centers al replicar datos entre dos ubicaciones. Hay soluciones hardware que para asegurar que la copia se ha realizado correctamente no confirman operaciones de escritura en disco hasta que el sistema remoto no haya confirmado la escritura equivalente en el sistema secundario. Este es el motivo por el que muchos proveedores cuentan con al menos dos Data Centers en una misma zona metropolitana para ofrecer soluciones de réplica síncrona.

Por el contrario, hay otras muchas situaciones en las que la latencia no es relevante, porque los tiempos de respuesta de las comunicaciones son mucho menores que el tiempo de procesado, o la capacidad de respuesta de un ser humano. Por ejemplo, buena parte de la mayoría de las aplicaciones web de consulta no son especialmente sensibles a la latencia.

En las comunicaciones móviles la llegada del 5G ha supuesto un cambio importante respecto a generaciones anteriores. Aunque esta tecnología promete un crecimiento de la velocidad, ha puesto en el centro la latencia. Por un lado, el conseguir valores mucho más reducidos, y por otro, asegurar valores estables, con poca variación y muy controlada. Pero no solo está ocurriendo en las comunicaciones móviles: las redes de fibra también permiten obtener valores de latencia más bajos y estables.

Y es la latencia la que realmente pone en valor Edge Computing. Edge, en inglés, significa “borde” y de manera simplificada quiere decir que estamos llevando las capacidades de cálculo al borde. Al borde de la red.

¿Para qué llevar esta capacidad de cómputo al borde de la red?

La ventaja principal es mejorar la latencia percibida por el consumidor de esta capacidad. Si en lugar de los cientos o miles de kilómetros que tendría que recorrer la señal hasta llegar a un Centro de Datos tradicional, solo tiene que recorrer una distancia muy corta, de pocos kilómetros, la latencia se reduce a valores de muy pocos milisegundos.

¿Pero realmente merece la pena realizar el esfuerzo de desplegar múltiples nodos para acercar la computación a los usuarios finales? Para algunos casos de uso, ciertamente sí.  Y aquí es donde empieza una de las líneas de trabajo más importante: identificar los casos de uso que realmente necesitan un valor de latencia muy bajo.

En esta línea, en Telefónica llevamos ya tiempo trabajando con nuestros clientes y socios en identificar estos casos de uso que, solo en una infraestructura de Edge Computing podrían suceder.  Muchos de ellos son el fruto de las líneas de investigación más avanzada y están en un estado todavía muy preliminar. Podemos mencionar algunos como la realidad aumentada, Industria Inteligente, reconocimiento de imágenes en tiempo real, gaming, gestión de drones, etc.

Por este motivo, las Redes de Nueva Generación (5G y Fibra) combinadas con Edge Computing son la opción ganadora para poder desarrollar de manera óptima las soluciones que son sensibles a la latencia.

Deja un comentario en Latencia y Edge Computing: ¿Por qué es importante?

5 claves para construir una marca personal

Raúl Salgado    20 septiembre, 2022

¿Quién soy? ¿Qué quiero? ¿Qué busco? ¿Cuál es mi valor añadido? ¿En qué me diferencio del resto? ¿Qué imagen quiero proyectar? ¿Cuáles son mis principales fortalezas? ¿Y mis talentos? ¿Cómo pretendo que me perciban los demás? En función de estas preguntas y otras muchas posibles, una persona puede ir forjando su propia marca personal.

La marca personal o personal branding hace referencia a la consideración de uno mismo como una marca comercial, para distinguirse y lograr un mayor éxito en el plano laboral y profesional. Ahora bien, existen dos falsos mitos en torno a este concepto que resultaría conveniente desmontar.

Por un lado, la marca personal no únicamente sirve para redes sociales, sino que es una herramienta al servicio de la carrera que se desarrolla en el ámbito que cada persona necesita, ya sea online o presencial. Por otro, no todo el mundo necesita trabajar su marca personal.

Al menos, es la opinión de Arancha Ruiz, fundadora de Innero Personal Brands, quien la recomienda especialmente para profesionales que desarrollan su labor en mercados de empleo altamente competitivos, donde resulta tan complejo diferenciarse y destacar.

“En entornos laborales donde la progresión profesional sigue reglas definidas, o donde directamente no hay manera de evolucionar, es menos efectiva”, asegura la también autora de Qué busca el headhunter.

Gestión de carrera

Ruiz sostiene que aunque la gestión de carrera defina claramente un camino hacia el éxito, este no siempre significa un ascenso. En esta línea, sugiere hacerlo de forma individualizada, identificando quién es esa persona, quién quiere ser y en qué necesita ayuda.

“La marca personal complementa muy bien la gestión de carrera y ayuda a pasar a la acción. Hace una revisión estratégica de los territorios de marca donde esa persona puede ser relevante y diferente. Y después traza acciones concretas de comunicación y networking. Cuando un profesional aplica ambas combinadas, gana una claridad y una confianza extraordinarias para avanzar y disfrutar de su carrera”, destaca Ruiz, tal y como recoge en otro de sus libros, El mapa de tu talento, en el que ahonda sobre la gestión de carrera.

Y en este contexto, caracterizado por una competencia cada vez mayor entre los profesionales con más talento, Arancha Ruiz destaca un listado con las cinco principales claves de éxito de la gestión de carrera y la marca personal, todas ellas detalladas en el libro “Ahora o nunca”.

1. Elegir el camino profesional más adecuado en cada momento

“La carrera profesional no es un destino, sino un camino del que surgen continuas ramificaciones conforme la persona lo recorre. Encontrar y elegir el mejor sendero es crítico. La ubicación del talento resulta primordial. Y ya no es algo que puedas hacer una vez en la vida, al inicio de tu carrera, y luego te olvidas”.

Ruiz alerta de que si no se revisa constantemente, se corre el peligro de estancarse para siempre. A su juicio, los profesionales de éxito son conscientes de la responsabilidad que tienen respecto a su carrera, lo que les lleva a revisar -y ajustar en consecuencia y de forma constante- su ubicación profesional.

No obstante, aclara que los líderes más destacados e influyentes no lo hacen solos, sino que suelen apoyarse en consultores expertos y certificados por entidades de prestigio.

2. Creer en uno lo suficiente

Pese al riesgo de ser tachados de vanidosos, soberbios o ególatras, los mejores profesionales no se dejan arrastrar por la modestia tóxica.

En su lugar, Ruiz afirma que se identifican más con el atributo de sencillez, aceptando con naturalidad su talento diferencial. “No creen que sea egolatría ni egocentrismo, porque lo ponen al servicio de los demás. El conocido “síndrome del impostor” resta seguridad a personas que creen que están infra-preparadas para el rol que les han asignado”.

Pero la fundadora de Innero Personal Brands alerta de que la falta de confianza también puede matar la ambición. “El miedo al fracaso, a no ser capaz, puede paralizar y relegar a la persona a posiciones inferiores a su capacitación. Los profesionales exitosos no temen a su ambición, sino que la consideran un motor para persistir ante las adversidades. Los hace ir más allá de lo ordinario, convirtiéndolos en extraordinarios”, puntualiza.

3. Focalizarse en las prioridades

Ruiz explica que muchos profesionales caen a menudo en la dispersión. Sufren el “síndrome del explorador”, que tiene tres grandes riesgos asociados: impedir la definición de un estatus, tener o proyectar indecisión y dispersión, y -el más peligroso- sesgar la elección de proyectos profesionales.

“Una persona exploradora puede tomar decisiones dejándose llevar tan solo por sus ansias de aventura y no hacer un buen análisis. Los profesionales exitosos conducen su curiosidad para ganar potencia, no para perderla. Nuevamente, se apoyan en asesores de carrera profesionales, para discernir y valorar, y sobre todo evitar caer en sesgos inconscientes”, agrega.

4. Tejer una firme red de aliados

Whatsapps, correos electrónicos, llamadas, comidas, desayunos, cafés… Los profesionales de mayor éxito tienen en su agenda uno de sus principales activos, creando y mimando ininterrumpidamente su red de contactos.

El objetivo es hacer networking para conectar con aquellos agentes que pueden ayudarlos a alcanzar sus metas. A estas personas, pese a su estatus, no les da reparo pedir ayuda. Pero tampoco sienten recelos a la hora de ofrecerla. Y no solo acuden a sus círculos más inmediatos, “crean un valioso capital social que los enriquece y les da fortaleza toda su vida”, apunta Ruiz.

5. Actúan

Las personas de más éxito observan, escuchan, hablan, analizan, piensan y pasan a la acción. Y durante este tránsito “de las musas al teatro”, aprovechan todas las oportunidades que surgen, y si no, las crean.

“Piden con asertividad, concretan lo que necesitan. Comunican. Trabajan su marca personal. Cuando aprenden a poner estructura y foco en lo que piden, en cómo se presentan a los demás, generan un círculo virtuoso. Su marca personal los ayuda a crecer y colaborar”, concluye Ruiz.

Imagen de Freepik

Se busca gente distinta: razón aquí

Dánae Cortés    20 septiembre, 2022

Vivimos en un mundo en el que los cambios se producen cada vez más rápido. No hemos terminado de adaptarnos a una situación cuando nos arrastra como un tsunami la siguiente novedad.

Solo tenemos que fijarnos en cómo se ha transformado el mundo en los últimos dos años. La pandemia modificó sustancialmente muchos paradigmas que dábamos por buenos e impuso y “normalizó” que todo el que pudo teletrabajara. También la guerra en Ucrania ha hecho que se tambaleen algunas de nuestras creencias, como que el suministro energético está garantizado.

En los últimos tiempos hemos visto que si un barco tiene un problema en el Canal de Suez su impacto en el transporte de mercancías es tal que multitud de empresas deben cambiar sus cadenas de suministros.

«Pensar fuera de la caja», clave en un mundo cada vez más complejo

El mundo es impredecible, inestable y en ocasiones caótico, a pesar de todos nuestros intentos de explicarlo, ordenarlo y comprenderlo. El reto consiste en ser capaces de aprender lo suficientemente rápido para resolver los problemas de cada momento, así como para adaptarnos a esos cambios y convertirlos en oportunidades.

Por otra parte, los problemas también son cada vez más complejos, con más matices y factores relevantes. Esta complejidad requiere creatividad por nuestra parte, la capacidad de mirar lo que sucede desde otras perspectivas y de pensar «fuera de la caja”.

Henry Ford: prácticas de la carnicería a la fábrica de coches

Cuentan que Henry Ford transformó su fábrica de coches y concibió la que fue la primera cadena de montaje después de ver cómo trabajaban unos carniceros en Chicago. Las piezas de carne estaban colgadas de unos ganchos que se movían en un monorraíl. Cada trabajador tenía su sitio y, cuando acababa su tarea, empujaba la pieza hasta el siguiente puesto, de tal forma que los operarios no tenían que moverse.

Así, Henry Ford cambió el paradigma de la fabricación de automóviles aplicando algo que vio en una industria totalmente distinta. A veces, la innovación se encuentra en los lugares más insospechados, si sabemos mirar.

El valor de la gente distinta y los equipos diversos

Quizá no podamos aspirar a tener la clarividencia de Ford. Pero es más fácil conseguirlo como equipo. De ahí la importancia de la diversidad, de tener gente distinta que mire lo que sucede “con otras gafas”, desde otras experiencias, otras culturas y otro lenguaje.

La falta de diversidad nos aboca a un pensamiento convergente y menos creativo. El crisol nos da la posibilidad de retar al estado del arte y encontrar puntos ciegos: opciones que no pensábamos que existían.

En mi estreno en este blog escribía sobre diversidad y la ventaja que esta proporciona a las organizaciones que son capaces de integrarla. Permitidme que hoy vaya un paso más allá: la incorporación de gente distinta debe ser prioritario para las empresas.

La necesidad de huir del pensamiento único para enfrentar los retos

No solo porque ahora esté de moda impulsar la diversidad y cumplir con la agenda 2030; debe ser una prioridad porque, como decía Einstein, no podemos resolver los problemas desde el mismo nivel de consciencia que los provocó. El camino es huir del pensamiento único e impulsar la divergencia.

No soy la única que cree que esta es la dirección adecuada. Ya hay empresas que empiezan a buscar profesionales en sectores distintos, sin relación con su negocio. Gente que les proporcione nuevas formas de enfrentar sus retos, aire fresco e ideas nuevas. Esto claramente marca el inicio de un cambio mucho más profundo.

Trabajar sin fronteras ni silos y una nueva gestión de las personas

El hecho de que las fronteras entre distintas ocupaciones laborales se empiecen a desdibujar y que, de alguna manera, se rompan los silos a los que estamos acostumbrados va a traer consecuencias en la forma de trabajar.

Soft skills ante una mayor complejidad y posibilidad de conflicto

Apostar por el pensamiento divergente y creativo en los equipos tiene un coste en la gestión de dichos equipos. El nivel de complejidad y la posibilidad de conflicto aumentan, debido precisamente a las distintas perspectivas. De ahí que cada vez cobren mayor importancia las mal llamadas soft skills o habilidades blandas.

Una mejor propuesta de valor para atraer al talento

Que las empresas apuesten por «pensar fuera de la caja» tendrá consecuencias también en el mercado laboral. Y es que si los profesionales con talento pueden elegir su siguiente reto en un sector distinto, las posibilidades se multiplican. Las empresas tendrán que mejorar más aún su propuesta de valor para fidelizar a los empleados. Dicha propuesta de valor deberá incluir posibilidades de aprendizaje y progresión profesional, autonomía y poder de decisión para ser realmente atractiva.

Como decía Steve Jobs, no tiene sentido a contratar a los mejores para luego decirles lo que tienen que hacer.

El individuo como piedra angular y su responsabilidad

Y no puedo olvidarme de las consecuencias para quienes formamos parte del mundo laboral. Si el futuro nos trae mucho más trabajo en equipo y mayor colaboración y diversidad, tendremos que aprender a adaptarnos rápidamente. También a relacionarnos de manera correcta con las máquinas.

La jerarquía pierde fuelle en las organizaciones y se abren paso estructuras más planas. El individuo se convierte en la piedra angular y su relevancia aumenta. Pero su responsabilidad también. Cada vez va a ser más difícil esconderse entre la multitud.

Volviendo al inicio de este post, se avecinan aún más cambios en la manera de trabajar, además de los que ya estamos experimentando. Cambios que van a requerir que nos cuestionemos lo que sabemos y también quiénes somos como trabajadores.

Pero ¡ojo! tal vez esa gente distinta de la que hablaba al principio sea alguno de vosotros porque ¿os habéis planteado qué os hace diferentes?

Imagen: Meathead Movers

The Merge: un pequeño paso para Web3, un gran salto para Ethereum

Jorge Ordovás    19 septiembre, 2022

En los últimos tiempos muchas empresas han puesto en su punto de mira la oportunidad que va a suponer Web3 para el futuro de su negocio, en múltiples sectores. Como dice nuestro CEO Jose María Álvarez-Pallete la transformación que habilita ya está aquí, hablamos de un ecosistema diferente, una Internet diferente, mucho más inteligente, que se sustenta en la existencia de una “supercomputadora descentralizada” basada en la tecnología de Blockchain, donde la lógica de negocio se programa mediante smart contracts.

Ethereum es la “cadena de bloques programable” más grande del mundo, la base para este futuro de Internet (Web3), las finanzas (Decentralized Finance, DeFi) o la identidad digital autogestionada (Self Sovereign ID, SSI), entre otros ámbitos.

Algunas cifras de Ethereum y su influencia en el ecosistema Web3

A pesar de la volatilidad del mercado y las incertidumbres macroeconómicas globales (inflación, guerra, crisis energética, etc) el ecosistema Web3 actual con servicios descentralizados como DeFi es una realidad, y lo es gracias a Ethereum.

Esta red ofrece cifras sorprendentes de adopción y utilización que son claras señales de madurez, como las que señala Consensys (una de las empresas más relevantes en el ecosistema) en un informe recientemente publicado:

  • El número de usuarios únicos de la red (direcciones de Ethereum) se ha duplicado, superando los 200 millones en los últimos dos años (son early adopters, sí; pero 200.000.000 son muchos early adopters).
  • Se han generado más de un millón de transacciones diarias durante los últimos 12 meses.
  • El coste por el uso de los servicios existentes en la red (una de las limitaciones más relevantes históricamente para lograr una adopción más amplia) ha disminuido de manera constante desde enero de 2022.
  • Los incentivos para los actores que hacen posible el funcionamiento de la red de Ethereum (los conocidos “mineros”) alcanzaron los 1800 millones de dólares desde mediados de marzo de 2022, el más alto entre las 20 principales cadenas de bloques.

Por otra parte, durante los últimos años se ha desarrollado un ingente ecosistema de aplicaciones, herramientas, infraestructura y protocolos que hacen cada vez más sencillo el desarrollo de soluciones y servicios Web3.

Ecosistema de Web3 (fuente: Coinbase)
Ecosistema de Web3 (fuente: Coinbase)

Ethereum se ha convertido además en el sólido cimiento tecnológico sobre el que se apoyan muchas soluciones de Blockchain denominadas “de segunda capa” (Layer 2 o L2), que ofrecen redes con mayor rendimiento o costes transaccionales más reducidos donde los servicios Web3 pueden desplegarse, sin sacrificar la seguridad o la disponibilidad de la información, puesto que periódicamente utilizan la “primera capa” de Ethereum como repositorio confiable de información.

Una de estas “soluciones L2” más destacadas es la de Polygon, que hoy en día gestiona el mayor volumen transaccional de todas las redes Blockchain existentes, y que ofrece además un ecosistema con impacto negativo en emisiones de carbono, a diferencia del importante impacto que supone el proceso de minería en Ethereum (altamente demandante de energía para su funcionamiento).

Un cambio que reduce el impacto medioambiental

Pero tengo buenas noticias para el medioambiente: esto es así no sólo en redes como Polygon sino también en Ethereum desde el jueves 15 de septiembre a las 8:43 (hora española), momento en el que la red abordó uno de los mayores cambios en su historia, conocido como “The Merge”.

Este cambio consistió en la fusión de la red de Ethereum (con toda la información y servicios existentes) con la “Beacon Chain”, una cadena de bloques que permite gestionar un nuevo mecanismo de consenso denominado “Proof-of-Stake” (prueba de posesión) que sustituye al mecanismo existente hasta el momento, “Proof-of-Work” (prueba de trabajo, o más coloquialmente, minería).

The Merge activado a las 8:43 del 15/9/2022 (consola del cliente de la Beacon Chain)
The Merge activado a las 8:43 del 15/9/2022 (consola del cliente de la Beacon Chain)

Para comprender la magnitud de esta actualización (que supone un hito dentro de un proceso que ha durado años) podemos considerar una analogía: El objetivo era cambiar el motor de la red de Ethereum, reemplazando el existente (que usaba combustibles fósiles altamente contaminantes) por uno eléctrico (reduciendo drásticamente las emisiones de carbono), pero con el reto de hacerlo en pleno vuelo y sin que los pasajeros, la tripulación o el piloto siquiera fueran conscientes del más mínimo detalle del proceso o sufrieran inconveniente alguno.

Esto es lo que los desarrolladores de Ethereum (y todo el ecosistema) han conseguido, un verdadero caso de éxito que podremos contar a nuestros nietos cuando nos pregunten cómo era aquella época en la que empezó la Web3.

The Merge ha permitido, con efecto inmediato, reducir en un 99,95% el consumo de energía necesario para validar las transacciones en Ethereum

Este cambio del mecanismo de consenso de Prueba de trabajo (PoW) a Prueba de participación (PoS), cambia radicalmente el modelo de incentivos para los actores que hacen posible el funcionamiento de la red.

Hasta ahora los mineros debían competir constantemente por generar nuevos bloques en la red (que contienen las transacciones generadas por los usuarios de todos los servicios existentes) necesitando para ello una gran capacidad de computación (que conseguían adquiriendo hardware especializado para realizar este proceso de minería, que a su vez requería un consumo energético muy elevado para su funcionamiento).

Esta inversión que debían realizar los mineros, para conseguir mayor capacidad de computación que sus rivales, se veía incentivada obteniendo una recompensa en criptomonedas (Ether, la criptomoneda nativa de Ethereum) cada vez que generaban un bloque aceptado por la red (el caso de negocio consistía en poner en la balanza los costes de esa infraestructura frente a los ingresos obtenidos, en función de la cotización del Ether en los mercados).

Reducir la huella de carbono aumenta además el atractivo de Ethereum para empresas e instituciones con objetivos ESG

The Merge ha permitido, con efecto inmediato, reducir en un 99,95% el consumo de energía necesario para validar las transacciones en Ethereum, permitiendo así limitar enormemente su huella de carbono y aumentar su atractivo para las empresas e instituciones que tienen claros objetivos ambientales, sociales y de gobernanza, en un momento además especialmente delicado por las preocupaciones a nivel global (y sobre todo en Europa) sobre la escasez de la energía y su alto coste, o el impacto cada vez más evidente del cambio climático.

Prueba de trabajo (PoW) vs. Prueba de participación (PoS)

Así pues, a partir del 15 de septiembre de 2022 ya no hay “mineros” (que por otra parte han tenido tiempo más que suficiente para “pivotar” su modelo de negocio durante los años que ha durado este proceso de paso de PoW a PoS y sacar provecho de la inversión realizada en infraestructura pasando a minar en otras redes).

En PoS hablamos de “validadores”, y estos actores ya no necesitan una gran capacidad de computación para obtener incentivos por generar nuevos bloques. Ahora participan en un “sorteo” donde periódicamente se elige a aquel que propondrá un nuevo bloque y a un conjunto de validadores que darán su visto bueno a dicho bloque.

La probabilidad de ser elegidos para este proceso depende de las “papeletas” que hayan adquirido (para obtener cada “papeleta” deben realizar previamente un depósito o stake que asciende a 32 Ether, algo más de 50.000€ al cambio actual, y que actúa como “fianza”). Los elegidos en cada ronda de este “sorteo” obtienen una recompensa (en Ether) por su actividad, si la realizan de forma eficiente y acorde a las normas establecidas, que se suma a la cantidad inicialmente depositada.

Este mecanismo requiere simplemente disponer de una aplicación permanentemente conectada a la red, preparada para participar en el proceso de propuesta o validación de nuevos bloques cuando se le requiera.

Si cuando es elegida responde con rapidez y realiza su tarea como se espera, obtendrá la recompensa establecida. Si no responde (por ejemplo, porque la aplicación no está ejecutándose en ese momento) o se comporta de forma incorrecta (o lo que es peor, maliciosa) recibirá una penalización, cuyo importe depende del motivo por el cual se ha producido ese comportamiento incorrecto y del impacto que dicha acción ha tenido en la red.

Esta penalización se detrae del depósito de 32 Ether realizado previamente por cada validador, y es lo que incentiva a estos actores para comportarse de forma correcta y honesta, siguiendo las reglas. Si un validador se reitera en su mal comportamiento va a ir viendo decrementado progresivamente su depósito, hasta llegar incluso al punto de ser expulsado (y perder esos 32 Ether, más las recompensas que pudiera haber obtenido hasta ese momento).

Gracias a este mecanismo de incentivos definido en PoS, la teoría de juegos (una rama de las matemáticas y de la economía) predice que los validadores se comportarán de forma honesta, garantizando de esa forma el correcto funcionamiento de la red, porque maximizarán así su beneficio (de la misma forma que sucedía en el caso de los mineros si seguían las reglas en el caso de PoW). Business is business.

Sin embargo, no todo ha resultado tan positivo como parece tras The Merge. Este hito en la evolución de Ethereum tenía también como objetivo no sólo la reducción en el impacto medioambiental, sino también el incremento en la seguridad y la descentralización de la red con respecto a la situación a la que se había llegado a lo largo de estos años debido a la concentración de la minería en unas pocas manos, que suponía un riesgo potencial (varios mineros con un alto volumen computacional de la red podrían ponerse de acuerdo y provocar problemas en su funcionamiento).

The Merge ha sido solo el primero paso hacia el futuro de Ethereum

Como podemos ver en el siguiente gráfico, esa concentración no ha hecho sino acrecentarse con el paso a PoS, acumulando tan sólo cinco actores (entre ellos casas de cambio como Coinbase, Kraken o Binance) más del 75% de la probabilidad de ser elegidos para la generación de nuevos bloques:

Distribución de validadores en Ethereum según staking (fuente: https://beaconcha.in/charts)
Distribución de validadores en Ethereum según staking (fuente: https://beaconcha.in/charts)

Mirando al futuro, en el roadmap de Ethereum el hito de The Merge es tan sólo un primer paso, estando planificada toda una secuencia de actualizaciones para volver aún más segura y escalable la red sobre la que se está construyendo la Web3, este nuevo ecosistema que veremos desarrollarse plenamente a lo largo de los próximos años (algo en lo que estamos trabajando muy activamente en Telefónica).

Que la fuerza acompañe a Vitalik Buterin (el creador de Ethereum) y todos los desarrolladores en su misión. Y que nosotros lo veamos.

Deja un comentario en The Merge: un pequeño paso para Web3, un gran salto para Ethereum

Cómo destacar tu producto o servicio con una presentación de Powerpoint

Fernando Rodríguez Cabello    19 septiembre, 2022

Powerpoint, la aplicación estrella para las presentaciones, ha cumplido 38 años. Lo que nació en 1984 como un rudimentario programa de ordenador para proyectar presentaciones gráficas se ha convertido en una herramienta utilizada por millones de personas en todo el mundo.

La empresa que lo inventó fue comprada por Microsoft. Y desde junio de 2011 Powerpoint forma parte del paquete ofimático Microsoft 365.

Inicialmente se concibió para que lo utilizaran profesores, vendedores y profesionales de oficina. Pero hoy en día lo emplean todo tipo de usuarios, tanto en el ámbito laboral como en el educativo y personal.

Es una herramienta muy útil en conferencias, eventos y presentaciones de producto. Entre sus múltiples funcionalidades destacan la diversidad de plantillas, la posibilidad de insertar objetos 3D, las transiciones de una diapositiva a otra, las animaciones de elementos, etc.

Otra funcionalidad de Powerpoint -que mucha gente desconoce y que tiene muchas aplicaciones- es la posibilidad de grabar una presentación con explicaciones de voz y texto.

Te contamos todo eso y más en la siguiente infografía:

Powerpoint: trucos y funcionalidades
Infografía de Fernando Rodríguez Cabello

Artículo relacionado:

Imagen de DCStudio en Freepik

Innovación: la importancia de conjugar la mentalidad y los medios, como Antonio de Nebrija

Virginia Cabrera    19 septiembre, 2022

Con frecuencia se asocia innovación a  digitalización pero el hombre ha innovado desde el principio de los tiempos. Si no lo hubiera hecho, todavía estaríamos cortando la carne con bifaces de sílex. Ahora bien,¿son todas las personas capaces de innovar? Antonio de Nebrija lo fue, sin duda.

Los tres ingredientes de una mente innovadora

Todos tenemos la capacidad, pero la neurociencia ha demostrado que la innovación solo se produce cuando se cultivan estos tres ingredientes:

  • Curiosidad. Una curiosidad infinita por casi todo lleva a saltar de un tema a otro y permite encontrar pistas e ideas extrapolables entre distintos campo de trabajo.
  • Rebeldía. El “¿y por qué no?” nos empuja a salir de “lo que aún sigue valiendo” para buscar incansablemente nuevas maneras de hacer las cosas. La rebeldía conlleva una energía que nos hace no parar de buscar y también nos empuja a conseguir la comprensión y eventualmente la ayuda de otros, “convenciéndolos” de por qué y cómo se pueden hacer las cosas aún mejor.  
  • Acción. Es necesario probar con hechos lo que creemos que será una buena idea. Si no, resulta imposible valorar el impacto de lo que proponemos. La innovación necesita de reacciones, cuantas más mejor. Es imprescindible no desfallecer en la acción constante de probar, equivocarse, rehacer e intentarlo de nuevo para convertir una idea en algo realmente al servicio de los demás.

La innovación también pasa por las Humanidades

Fijémonos en una figura excepcional: un español de quien este año se conmemora el V centenario de su fallecimiento: Elio Antonio de Nebrija. Aunque ha pasado a la historia por ser el autor de la primera gramática de la lengua española, fue una persona a la que interesaba casi todo. Su obra abordó campos como la cosmología, la medicina, el derecho y la pedagogía. Era tan rebelde que algunos lo tachaban de soberbio y su constancia hizo que su actividad profesional se extendiera durante más de medio siglo.

A estas cualidades hay que sumar sus ansias de contribuir a crear un mundo mejor (uno no hace una gramática o un diccionario para sí mismo). Es famoso el prólogo de su gramática, en el que, además de una dedicatoria a la reina Isabel, expresa sus motivos para reglamentar el castellano. Y, al revisitar su obra, es admirable el enorme partido que sacó de los medios de los que disponía (se le recuerda por instalar la primera imprenta de Salamanca).

Los medios de los que disponemos hoy en día están a años luz de aquellos. Algunos incluso vivimos “abrumados” por tanta tecnología. Asociamos de manera automática, como decía al comienzo de este artículo, digitalización con innovación y confiamos peligrosamente en que una cosa lleve a la otra. Además, al mismo tiempo, son muchos los que se sienten un tanto fuera de juego al pensar que es imprescindible ser ingeniero o tecnólogo para poder innovar. Pero nada más lejos de la realidad.

La tecnología, al servicio de nuestra mente creativa

Pero las herramientas sirven para “extender” nuestras capacidades, la tecnología per se no nos anima a emprender ningún viaje. Saber que una compañía aérea abre una nueva ruta a Pekín no hará que visitemos China si no hay una atracción previa por este país. Del mismo modo que si existe ese interés tampoco debería hacernos desistir la “lejanía”. Como el hecho de no saber pilotar un avión o carecer de conocimientos de aeronáutica no nos impide embarcarnos en un avión si así lo deseamos o hay necesidad.

Curiosidad, rebeldía y acción, amplificadas

En la actualidad el reto es, sin duda, aprender a poner la tecnología al servicio de nuestra “mente creativa”, servirnos de ella para desarrollar esa creatividad. Y voy a recordar sus ingredientes clave: curiosidad, rebeldía y acción, para mostrar en qué momento con tanto potencial estamos.

  • Para saciar nuestra curiosidad, podemos conectar, a través de Internet, con cualquier persona, acceder a cantidades ingentes de información o “visitar digitalmente” cualquier biblioteca o museo del mundo… Y, gracias a 5G, cada vez de forma más inmediata. Tenemos el mundo en tiempo real en nuestros smartphones. Incluso podemos interactuar a distancia con máquinas y dispositivos gracias al Internet de las cosas (IoT)
  • Para elevar el tono de nuestra rebeldía y del  “¿y por qué no?” existen aplicaciones profesionales que, gracias a cloud computing, llegan a casi todos. ¿Quién no puede editar un video o grabar un audio con calidad profesional? Nunca fue tan fácil lanzar un mensaje al mundo o montar una campaña de recogida de fondos  (xxx). ¿Y qué decir de las posibilidades de trabajar en equipo? contamos con herramientas de colaboración y entornos de trabajo y educación digitales que hacen fácil e intuitivo el trabajo remoto y la educación a distancia. ¡Casi nada!
  • Y la tecnología facilita, además, lo de pasar a la acción. Es posible adquirir productos o servicios en cualquier parte del mundo gracias al eCommerce. Podemos “fabricar” casi cualquier cosa a un coste razonable apoyándonos en la impresión 3D. Y “simular” entornos y experiencias sin más limite que nuestra imaginación, gracias a la realidad extendida, virtual y aumentada.

Pero no solo lo tenemos fácil para hacer, es que lo tenemos “chupado” para analizar y medir, para ver “por dónde vamos”, ajustar la ruta y descartar bifurcaciones que nos hagan caminar en círculos. Contamos con la ayuda de big data y la inteligencia artificial para ayudarnos a extraer patrones y conocimiento de montañas de datos. Esto “abarata” el error y aligera el proceso.

La actitud marca la diferencia

Tenemos, en definitiva, las herramientas más poderosas de la historia. Pero si algo he aprendido en treinta años de trayectoria profesional introduciendo la tecnología para mejorar la eficiencia de las organizaciones, es que ninguna herramienta, por potente que sea, garantiza el ´éxito. Son siempre las actitudes con las que nos acercamos a ellas las que ponen en juego nuestra mente creativa o no.

Por ello, mi recomendación es buscar siempre el equilibrio entre el uso de la tecnología y el desarrollo de nuestra mentalidad.

  • Hay que desterrar perjuicios y miedos en relación con la tecnología. Es importante dejar de lado el “siempre lo he hecho así” o “ me apaño con lo que tengo” para abrirnos a explorar nuevas metodologías y herramientas.
  • Es necesario trabajar proactivamente para despertar en nosotros mismos y en quienes nos rodean los “ingredientes” de la mente creativa (curiosidad, rebeldía y acción). Se consigue aprendiendo de todo y de todos, colaborando y cocreando, buscando sin descanso referentes e inspiración y trabajando para tratar de mejora la vida de los demás.

El MOOC de MiriadaX “Antonio Nebrija, apología del saber”  

Y, hablando de referentes, os invito a redescubrir y a conectar con la personalidad de Elio Antonio Nebrija, a quien ya he mencionado.

Se trata de un personaje único, con una mentalidad innovadora y curiosa como pocas (nunca se circunscribió a la filología de la lengua castellana ni a su naturaleza como lingüista, lexicógrafo o traductor).

Fue rebelde hasta el súmmum – tuvo que llegar a vérselas con la Inquisición, de la que se salvó gracias a lo que hoy llamaríamos su “red de colaboradores”, entre los que se encontraban el Cardenal Cisneros y la propia reina Isabel la Católica).

Tremendamente  activo, se prodigó como docente, poeta, historiador, cronista real, impresor y editor.

Que creyera en las personas sin cortapisas ayudó a su hija a convertirse en una de las primeras mujeres que impartió clase en una universidad en España. Y es que, a pesar de que tuvo seis hijos varones, fue Francesca, su única hija, a quien él formó y alentó) la que lo sustituyó en la cátedra de retórica que él ocupaba en la Universidad de Alcalá.

¿Os imagináis adónde hubiera llegado Nebrija con los medios actuales?

Para mí ha sido un honor participar en el MOOC “Antonio Nebrija, apología del saber” junto con figuras de la talla de Luis García Montero, Lola Pons o Iñaki Gabilondo. Podéis disfrutar de este curso gratuito en la plataforma MiríadaX, de Telefónica, hasta el 27 de octubre.

Creed en vosotros y en los demás. Sigamos la estela de Nebrija para poner, entre todos, el  enorme potencial de la tecnología que tenemos a nuestro alcance al servicio de un mundo mejor.,

Imagen: Giorgio Muratone

Boletín semanal de ciberseguridad, 9 — 16 de septiembre

Telefónica Tech    16 septiembre, 2022

Microsoft corrige dos 0-day y otras 63 vulnerabilidades en su Patch Tuesday

Microsoft ha corregido, en su Patch Tuesday correspondiente al mes de septiembre, 63 vulnerabilidades entre las que se encuentran dos 0-day, uno de ellos activamente explotado y 5 fallos críticos que permitirían la ejecución remota de código.

El 0-day activamente explotado, identificado como CVE-2022-37969 y CVSS 7.8, fue descubierto por investigadores de DBAPPSecurity, Mandiant, CrowdStrike y Zscaler y afecta al sistema de archivos de registro común (CLFS), permitiendo que un atacante pueda obtener privilegios de sistema.

Por otro lado, el segundo 0-day que no ha sido explotado, se ha catalogado como CVE-2022-23960 y con CVSS 5.6, y hace referencia a una vulnerabilidad de restricción de especulación en la caché.

En cuanto a las vulnerabilidades críticas, 2 se encuentran en Microsoft Dynamics CRM (CVE-2022-35805 y CVE-2022-34700), otras 2 en IKE (CVE-2022-34722 y CVE-2022-34721) y, por último, un fallo en Windows TCP/IP (CVE-2022-34718), todos ellos permitirían la ejecución remota de código.

Más info

* * *

Análisis del keylogger OriginLogger

El investigador Jeff White, de la Unit 42 de Palo Alto, ha publicado los resultados de su reciente análisis sobre el keylogger OriginLogger, considerado heredero de Agent Tesla.

Utilizado para el robo de credenciales, capturas de pantalla y todo tipo de información del dispositivo, se encuentra a la venta en sitios especializados en la difusión de malware.

Su cadena de infección se inicia a través de diferentes tipos de droppers, si bien normalmente se trata de un documento de Microsoft Office con macros maliciosas, que redirigen a una página de la que se descarga un archivo con un script ofuscado, utilizado para descargar un payload que servirá para crear persistencia y programar diferentes tareas.

El payload contendrá además código PowerShell y dos binarios cifrados, uno de los cuales es un loader y el otro el payload real de OriginLogger.

Otra de las características que hacen a OriginLogger una versión separada de Agent Tesla es la variedad de métodos de exfiltración de información, usando protocolos y servidores SMTP y FTP, páginas web con paneles propios o canales y bots de Telegram.

Más info

* * *

Lampion malware distribuido en nueva campaña de phishing

Investigadores de Cofense han analizado una campaña de phishing distribuida por email, en la que el adjunto contiene un script que descarga y ejecuta el malware Lampion.

Dicho malware, descubierto en 2019, corresponde con un troyano bancario que busca robar la información del dispositivo infectado, conecta con su servidor command-and-control (C2) y es capaz de superponer una página encima de los formularios de login bancarios para hacerse con la información del usuario.

Sobre la campaña, se distribuye mediante el envío a través de cuentas corporativas sustraídas de distintos correos fraudulentos, que adjuntan pruebas de pago maliciosas alojadas en WeTransfer y urgen a que sean descargadas.

Una vez que el receptor del email fraudulento se descarga el documento malicioso y lo abre, se ejecutan varios scripts VBS y la cadena de ataque comienza.

Cabe destacar que, Lampion se centra principalmente en objetivos de habla hispana, abusando de los servicios en la nube para alojar el malware, incluyendo Google Drive y pCloud.

Más info

* * *

Boletines de seguridad de SAP

SAP ha publicado 16 notas de seguridad en su Security Patch Day de septiembre, en las que corrige 55 vulnerabilidades de Chromium y otras de alta prioridad.

En primer lugar, SAP emite actualizaciones de seguridad para el navegador Google Chromium que afecta a varias versiones de SAP Business Client.

Por otro lado, entre las vulnerabilidades de alta prioridad corregidas, se encuentra una vulnerabilidad XSS que afecta a SAP Knowledge Warehouse, identificada como CVE-2021-42063 y con CVSS 8.8.

Asimismo, entre las más críticas se encuentra CVE-2022-35292, con CVSS de 7.8, que afecta a la ruta del servicio en SAP Business One y que permitiría la escalada de privilegios a SYSTEM.

La segunda nota de prioridad corresponde al servicio SAP BusinessObjects, afectado con dos vulnerabilidades, una de ellas, con CVE-2022-39014 y CVSS 7.7, haría posible que un atacante lograra acceder a información confidencial sin cifrar; mientras que, la otra vulnerabilidad designada con CVE-2022-28214 y CVSS 7.8, corrige ante la posibilidad de la divulgación de información en el servicio.

Finalmente, se publica una actualización relacionada con la vulnerabilidad, CVE-2022-35291 y CVSS 8.1, que afecta a SuccessFactors, mediante la cual se reanuda la funcionalidad de archivos adjuntos.

Más info →  

* * *

Análisis sobre las actividades de Webworm​

El equipo de investigación de amenazas de Symantec ha publicado en el día de ayer un post en el que se detallan las actividades del grupo denominado Webworm, cuyas TTPs y artefactos en uso serían los mismos que los del actor amenaza conocido como Space Pirates, lo que lleva a los investigadores a creer que podrían ser el mismo grupo.

Según la investigación, el grupo llevaría activo desde 2017 y se habría dedicado a lanzar ataques y campañas de espionaje contra agencias gubernamentales y compañías de los sectores IT, aeroespacial y energético, especialmente en países asiáticos.

Entre sus recursos habituales, se encuentran versiones modificadas de los troyanos de acceso remoto Trochilus, Gh0st RAT y 9002 RAT, usados como puerta trasera y difundidos mediante loaders ocultos en documentos falsos.

Por último, cabe destacar que los RAT utilizados por Webworm siguen siendo difíciles de detectar por las herramientas de seguridad, debido a que sus trucos de evasión, ofuscación y antianálisis siguen siendo notables.

Más info

Del maíz híbrido de Iowa a la Ley de Difusión de la Innovación

Mercedes Oriol Vico    16 septiembre, 2022

En abril de 1493, la primera expedición de Cristóbal Colón trajo a España maíz y dejó maravillados a los Reyes Católicos. Desde entonces, pasaron más de cuatro siglos para que fuese estudiado en Estados Unidos, con el fin de conseguir mejorar su grano y, con ello, la economía de los agricultores.

A principios del siglo XX, los investigadores genetistas George H. Shull, Edward M. East y Donald F. Jones abordaron por primera vez el “vigor híbrido” del maíz. Y en 1920 la Connecticut Agricultural Experimental Station, donde trabajaba Jones, comercializó el primer híbrido de maíz.

Aunque en los años 30 los agricultores americanos comenzaron a comprar las semillas híbridas de maíz, el sociólogo Bryce Ryan y el estudiante Neal Groos realizaron un estudio en la Universidad Estatal de Iowa para analizar por qué los agricultores de aquel estado no elegían las semillas híbridas de maíz, que entonces eran las más económicas.

Todo empezó con el maíz híbrido…

Los resultados de esta investigación, que se centró en 259 agricultores de las comunidades de Scranton y Jefferson (Iowa), fue que los agricultores de estas dos comunidades tardaron alrededor de 13 años en adoptar el maíz híbrido, a pesar de que esta innovación agrícola les permitía aumentar los rendimientos de su cosecha en un 20 % y era resistente a la sequía.

Durante esos mismos años, un joven Everett Rogers había detectado lo mismo que Ryan y Groos en la conducta de su padre, que tenía una granja en Caroll (otra comunidad del oeste de Iowa), y de otros agricultores vecinos.

Tal y como explicó este profesor y sociólogo estadounidense de la comunicación, en una de sus últimas conferencias: “Estaba desconcertado, porque mi padre y nuestros vecinos prestaran tan poca atención a lo que suponía la inversión en la última tecnología agrícola”.

Rogers senior no quedaría convencido de las palabras de su hijo hasta que sufrió en su propias carnes los efectos de la sequía de Iowa de 1936, que acabaron con su cosecha de maíz, mientras que su vecino, que sí había optado por la semilla de maíz híbrida, la mantenía floreciente.

¿Qué tienen que ver aquellos nuevos granos con la difusión?

A partir de este hecho y tras varias investigaciones más como profesor universitario, Everett Rogers centró su carrera y su vida en conocer el proceso de difusión de las innovaciones. Así, publicó en 1962 su libro Diffusion of Innovations, por el que recibió el premio “Paul Converse” de la American Marketing Association (AMA), en 2004, meses antes de su fallecimiento.

Ya existían distintos estudios sobre la difusión en campos concretos como el educativo, el farmacéutico o el propio agrícola. De hecho, el año en el que Free Press editó este best seller, se publicaron 405 trabajos sobre difusión, pero ninguno sobre modelos de uso generalizado, como el de Rogers. Este principio estaba compuesto por patrones y conceptos estandarizados, categorías de adoptantes y el proceso de decisión sobre la innovación, pensado para que se pudiera aplicar a todo tipo de innovaciones, personas, organizaciones, ámbitos y campos de conocimiento, lugares y culturas.

Entre sus definiciones clave está la de difusión, como proceso por el que una innovación se comunica a través de determinados canales a lo largo del tiempo entre los miembros de un sistema social. Y también la de innovación, como idea, práctica u objeto que es percibido como nuevo por un individuo, organización u otra unidad de adopción. También define el concepto de masa crítica, como el punto en el que suficientes personas han adoptado una innovación para que la tasa de adopción adicional de la innovación se vuelva autosuficiente.

Proceso de decisión para la adopción tecnológica

Los cuatro elementos que Everett Rogers consideraba que influían en la difusión de nuevas ideas a través de las culturas, eran:

  • Las innovaciones en sí: una nueva idea, práctica u objeto percibido como nuevos.
  • Los canales de comunicación: mecanismos para comunicar los mensajes.
  • El tiempo, que influye en la toma de decisiones y el ritmo de adopción.
  • Los sistemas sociales o grupos que participan en la resolución conjunta de problemas en torno a un objetivo común.

Por otra parte, estimaba que el proceso de decisión sobre la innovación se desarrolla en cinco fases:

  • Conocimiento: representa la exposición a la nueva idea.
  • Persuasión: el individuo se interesa por la idea y busca información o detalles.
  • Decisión: el individuo sopesa el valor de la idea y decide si la adopta o la rechaza.
  • Implementación: el individuo adopta la idea a un ritmo variable en función de la situación y, además, puede seguir buscando más información.
  • Confirmación: el individuo resuelve su decisión de continuar con la innovación y puede aprovecharla al máximo.

Objetivo: llegar a innovadores, líderes de opinión y mayoría temprana

Uno de los aspectos más reconocidos y aplicados de la Ley o Teoría de la Difusión de Innovaciones de Rogers son las categorías de adoptantes (sobre todo, el término de early adopters). Con ellas distinguía el grado de apertura de personas u organizaciones ante la adopción de una innovación (y el tiempo relativo de adopción), su predisposición y su actitud frente al avance tecnológico.

Curva de Rogers

Cinco grupos con los que este sociólogo tenía claro que la comunicación debía ser específica, mediante campañas concretas, mensajes personalizados o acciones particularizadas y diseñadas para cada uno de ellos, dando prioridad a los tres primeros.

1. Innovadores (innovators)

Primeros individuos u organizaciones en adoptar la innovación, que comparten rasgos comunes. Asumen riesgos, son personas entusiastas, de clase social alta, con perspicacia financiera, sociables, en contacto con otros innovadores o científicos. Este primer grupo ejerce influencia sobre otras personas con roles de líderes, pero no en el resto del sistema. Suponen un 2,5 %.

2. Adoptantes tempranos (early adopters)

Suelen ejercer de líderes de opinión, respetados por otros públicos. Adoptan la innovación de manera rápida, aunque más meditada que los innovadores, y son eslabón de persuasión a otros grupos para que adopten la innovación. Suponen un 13,5 %.

3. Mayoría temprana (early majority)

Tardan más en adoptar nuevas ideas que los grupos anteriores, tras analizar la toma de decisión, en la que influye la persuasión que les llega desde los adoptantes tempranos y los innovadores. Una vez que adoptan la innovación como colectivo, son el punto de inflexión fundamental en la cuota de mercado de cualquier innovación. Suponen un 34 %.

4. Mayoría tardía (late majority)

Muy resistentes al cambio, adoptan una innovación, con gran escepticismo, después de que la mayoría de la sociedad haya apostado por ella. Suponen un 34 %.

5. Rezagados (laggards)

Último grupo poblacional en asumir el cambio (incluso lo descartan). Son muy tradicionales y contrarios al cambio. De edad superior a la de otros grupos, suelen tener un círculo de contactos limitados, un nivel formativo más bajo y escasos recursos. Suponen un 16 %.

Características de las innovaciones

Para la adopción o el rechazo de la innovación, Rogers identificó las siguientes características intrínsecas de las innovaciones que influyen en las percepciones y decisiones de los adoptantes potenciales y en el tiempo de adopción:

  • Ventaja relativa: el cambio se considera una mejora.
  • Compatibilidad: facilidad para incorporar la innovación en la vida del adoptante.
  • Grado de complejidad: dificultad para adoptar o utilizar la innovación.
  • Probabilidad: posibilidad de probar la innovación o experimentar con la misma.
  • Observabilidad: visibilidad de la innovación, de sus usos y de los resultados, a través del impacto en los adoptantes, tanto positivo como negativo.

Punto de arranque para identificar potenciales clientes

Aunque se trata de un modelo que acaba de cumplir 60 años, cuenta con críticas de revisiones más modernas, y las circunstancias y los medios del siglo XXI han evolucionado respecto a los de entonces. El modelo ha servido -y sigue sirviendo- como orientador para conocer los potenciales consumidores y públicos a los que cualquier pyme o startup puede recurrir para conocer hacia qué segmento debe dirigirse para lograr que su producto o servicio innovador llegue a comercializarse y, ojalá, alcanzar esa masa crítica de la que nos hablaba Everett Rogers.

Siguiendo los consejos de este maestro, las personas emprendedoras podrán reducir esfuerzos identificando a sus grupos de innovadores y adoptantes tempranos. Ellos serán quienes representen el liderazgo de opinión para otros públicos, en los que, sin duda, marcarán tendencia. La comunicación directa con los early adopters y la recopilación de la información que proporcionen será fundamental para llegar al resto de clientes potenciales.

El coche EV-1, Internet y el sida en San Francisco

Tres de las aplicaciones del modelo de difusión de innovaciones que estudió y en las que, directa o indirectamente, participó el propio Everett Rogers, de las que todavía podemos extraer aprendizajes, son la introducción del vehículo eléctrico de General Motors (GM) a mediados de la década de 1990, y la rápida difusión de Internet y reducción de la brecha digital desde 1997 hasta 2004. Una tercera, dentro de la innovación social, fue la desaceleración de la epidemia de sida en San Francisco a principios de la década de 1980.

Los tres casos ponen de relieve la importancia de dirigirse a los distintos grupos adoptantes (lo que hoy llamaríamos grupos objetivo –target groups-), a través de acciones personalizadas, lo que nos permitirá dar a conocer nuestra innovación al público que nos interesa.

Por ser Internet de sobra conocido, nos centraremos en las otras dos.

El caso del coche eléctrico EV-1

En el caso del vehículo eléctrico, el grupo de innovadores lo representó la propia GM, que se vio obligada, como el resto de sus competidores, por la regulación Zero Emision Vehicle Mandatory, a vender al menos el 10 % de sus automóviles como no contaminantes.

General Motors invirtió dos mil millones de dólares en diseñar, fabricar y lanzar al mercado estadounidense el modelo de coche eléctrico EV-1, un sedán biplaza aerodinámico, muy elegante, silencioso y con una autonomía de hasta 160 km con una sola carga. La compañía fabricó más de 1.100 unidades que comercializó mediante la modalidad de leasing, a partir de unos 400 dólares al mes.

Esta innovación automovilística se dio a conocer a los early adopters, a través de anuncios en periódicos locales para reclutar conductores de prueba (expertos en autos) en 18 ciudades. En concreto, se les ofrecía una prueba de conducción del EV-1 de 30 minutos, con un ingeniero de GM, a cambio de una sesión de preguntas y respuestas de otros 30 minutos.

Además, a cada piloto de prueba se le entregaba una foto del coche en color de 8×10 y 50 tarjetas de béisbol, con la foto en un lado y los datos de rendimiento del coche en el otro, y se les pidió que las distribuyeran entre sus amigos (potenciales early majority) y que colgaran la foto en su lugar de trabajo o donde quisieran.

Campaña de innovación automovilística en cascada

Aunque el fabricante seleccionó a 200 líderes de opinión, solo de Sacramento recibió más de 7.000 postulantes en la primera semana de la campaña de comunicación. GM siguió seleccionando más conductores de prueba (líderes de opinión) para continuar con el proceso de difusión.

A pesar de que el proceso de difusión de la innovación logró un éxito absoluto en un nicho de mercado tan novedoso, no pudo continuar el proceso para la adopción y comercialización generalizada del nuevo coche eléctrico y alcanzar su masa crítica. Parece ser que no fue su momento, aunque hay otras opiniones al respecto. Solo se consiguieron modestos alquileres del EV-1 y, tras la modificación de la ZEV Regulatory en 2003, que ya no obligaba a las compañías a fabricar coches eléctricos, sino híbridos o de biocombustible, GM recuperó casi todas las unidades, en contra de los clientes (quienes llegaron a hacer funerales al EV-1) y los hizo chatarra, incluso los nuevos que no había llegado a alquilar.

En este caso, la difusión de la innovación superó a otros aspectos técnicos que no acompañaron, y que Rogers explicó: “La tecnología de las baterías limitaba la autonomía, la infraestructura de apoyo nunca se desarrolló (como los puntos de carga en las gasolineras, comercios, calles, etc.)”. A esto se sumó el cambio legislativo y la competencia de Toyota, que con su modelo híbrido Prius fue despuntando en el mercado.

Exitosa campaña de innovación social que se replicó en todo el mundo

Cuando en 1981 se detectaron los primeros casos de sida en Estados Unidos, pronto se lanzó la campaña Stop Sida en tres centros metropolitanos, siendo San Francisco uno de ellos, puesto que contaba con un 40 % población masculina gay. Tal y como comentaba Rogers, “las personas que diseñaron la campaña Stop Sida siguieron mi libro como una biblia”.

Desde el movimiento Stop AIDS (innovators), se realizaron reuniones informativas, formativas y de trabajo organizadas por hombres homosexuales seropositivos (innovators), en las que hablaban de su experiencia personal sobre los medios de transmisión, a grupos de unos diez o doce líderes de opinión (early adopters), que impactaron en 7.000 hombres gays que fueron capacitados (early majority) -de los 142.000 que había-, y que indirectamente llegaron a 30.000 (masa crítica).

Gracias a esta exitosa campaña, que se extendió por todo el mundo, el número de infecciones anuales por VIH año se redujo de 8.000 en 1983 a 650 en 1985, y las muertes anuales por esta enfermedad se redujeron de 1.600 a 250 en los últimos años.

¡Salgan y rompan las reglas!

Seguir modelos que ayuden a cumplir sueños y alcanzar objetivos de las personas emprendedoras hace que sus ideas se extiendan y lleguen a la sociedad, pero para ello, lo importante es que cobren vida.

Como defiende Carl Bass, ex presidente y CEO de Autodesk en su alegato por «Las nuevas reglas de la innovación», los individuos que rompen las reglas suelen ser quienes asumen riesgos y deben ser quienes llevan a cabo las nuevas innovaciones.

Para este directivo, los que tienen éxito en romper las reglas, en realidad lo que están haciendo es crear las nuevas reglas y, en un ciclo interminable, esas nuevas reglas tendrán que romperse también. Bass asegura que, aunque los retos a los que nos enfrentamos son desalentadores, es optimista sobre la capacidad humana para resolverlos: “Nunca ha habido una mayor necesidad o un mejor momento para innovar. Así que: ¡salgan y rompan las reglas!”.

Imagen de Freepik

Text to image, cuando la inteligencia artificial se mezcla con el arte

Jorge A. Hernández    16 septiembre, 2022

Que la inteligencia artificial sirva para los negocios e investigación científica es algo bien conocido durante décadas, pero recientemente los avances en las plataformas de texto a imagen (text to image) han logrado colocar en tela de juicio lo que es el arte.

En septiembre de 2022, la feria estatal de Colorado, en Estados Unidos, dio el premio en la categoría de artes digitales a la obra Theatre d’Opera Spatial. Lo extraño del fallo es que los autores de esta obra no eran del todo humanos.

Más en detalle, era el trabajo del joven Jason Allen, quién usó la plataforma de inteligencia artificial Midjourney, un detalle que nunca ocultó pero que los jurados no lograron entender. 

De hecho, Allen nunca ocultó en redes sociales su trabajo pero la polémica generada alrededor del mismo hizo que muchos empezaran a hablar de qué era un artista y qué era arte. Es decir, Midjourney no creó la obra sola, la plataforma siguió instrucciones, pero para muchos hubo fraude.

Otras alternativas

Como si no fuera suficiente con este lío, existen varias plataformas de inteligencia artificial que hacen lo mismo. Por una parte, está Dall E-2, desarrollado por Open AI, destaca por su calidad fotorrealista.  

Por cierto, Open AI es una entidad sin ánimo de lucro que pretende impulsar el uso de la inteligencia artificial usando código abierto, y tiene entre sus fundadores a personajes como Elon Musk y Sam Altman.

También está Stable Difussion que es considerado un punto medio entre el realismo de Dall E 2 y las obras más surrealistas de Midjourney.  Es el trabajo de Stability A y fue tristemente célebre porque sus versiones anteriores fueron usadas para hacer deepfakes de celebridades.

Pero nada de esto ha detenido el crecimiento de estas plataformas, algunas con modelos freemium, y otras en desarrollo, han logrado crecer tanto que ya se han creado buscadores web especialmente diseñados para exponer este tipo de obras, como es el caso de LexicaArt.

Otros artistas ya han logrado crear comics donde los textos y las imágenes son creadas por inteligencias artificiales y más allá aún, un desarrollador alemán está trabajando en una película donde todo: voces, escenarios y actores son creados por una inteligencia artificial.

Por supuesto, apenas está comenzando esta nueva revolución de imágenes creadas por inteligencias artificiales pero su impacto no solo en el arte, también en el diseño de obras y productos, apenas está empezando a comprenderse en el mercado.

Imagen de bedneyimages en Freepik