Blanca Montoya Gago El papel de los PERTE en la sociedad del futuro Los proyectos estratégicos para la recuperación y transformación económica (PERTE) son una nueva figura dentro del Plan de Recuperación, Transformación y Resiliencia. Se definen como iniciativas que suponen un...
Ismael Ruíz Cómo saber en solo un minuto qué errores SEO estás cometiendo En el mundo de los negocios, pequeños o grandes, o estás presente en el ámbito online o no existes. Pero no basta con tener una web, tu site debe...
David García ¿Salvará Rust el mundo? (II) Segunda entrega en la que descubrimos cómo Rust, el lenguaje de programación de código abierto centrado en la seguridad, mejora el panorama en cuanto a vulnerabilidades basadas en errores...
Mario Cantalapiedra Un plan B para gestionar los riesgos en la empresa La Real Academia Española define el término riesgo como la “contingencia o proximidad de un daño”. Por su parte, la Federación mundial de organismos nacionales de normalización (ISO), en...
Deepak Daswani No pain, no gain. A hackear este 2021 «No pain, no gain», probablemente hayas escuchado esta frase en más de una ocasión. Una expresión recurrente que se utiliza hasta la saciedad en diferentes entornos, en una época...
Área de Innovación y Laboratorio de Telefónica Tech ¿Te atreves a crear un plugin de TheTHE? Concurso #EquinoxRoom111 Anímate y participa en nuestro concurso creando tu propio plugin en TheTHE, nuestra herramienta para equipos de Threat Hunting.
Innovation Marketing Team 4YFN: Tecnología que adelanta al futuro La octava edición de 4 Years From Now (4YFN), el evento de emprendimiento que se celebra de manera paralela al Mobile World Congress (MWC), ha vuelto a brillar después de...
Matilde de Almeida El Hall of Fame de las startups de Telefónica Open Innovation ¿Qué es Telefónica Open Innovation? El rol del área de Innovación Abierta es ser el enlace entre Telefónica y el ecosistema emprendedor. Buscamos conectar a la empresa con emprendimiento local y...
Los 4 mejores lenguajes de programación para principiantesTelefónica Tech 24 marzo, 2021 ¿Este año te has propuesto nuevos retos pero no sabes por dónde empezar? ¿Qué te parecería convertirte en todo un experto de la programación? Sabemos que así, en frío, puede sonar un poco complicado y arduo. «¿Yo, programando? No lo veo», estarás pensando. Pero créenos si te decimos que con la selección de cursos de programación que hemos hecho para ti, no habrá excusa que valga para que en unos meses no te conviertas en todo un entendido de este mundo. ¿Te atreves? Pues vamos allá: Python Desde hace un par de años no has dejado de escuchar su nombre, pero ¿qué tiene Python que lo hace tan atractivo para quienes se inician en programación? Sin duda, una de sus principales ventajas es que, además de tratarse de un software libre (y gratuito, sin necesidad de pagar licencia por su uso), es un leguaje de código abierto (open source). Dos características que otorgan a Python un estatus de mayor libertad y transparencia facilitando así la creación de una gran comunidad a su alrededor. Algo que, para una persona que da sus primeros pasos en la programación es todo un tesoro, pudiendo preguntar dudas y aprendiendo con compañeros online. Además, comparado con otros lenguajes de programación, la sintaxis de Python es bastante sencilla y familiar. Usando la lógica podemos llegar a interpretar partes del código y, por si las moscas no queremos olvidar nada. JavaScript Si has estado buscando ofertas de trabajo, estamos seguros de que este nombre te suena: JavaScript. Es el rey de los lenguajes de programación en la búsqueda de perfiles de empleo, así que ¿a qué esperas para dar el salto? La demanda de este lenguaje no cesa y su integración en diversas aplicaciones hacen de él el perfecto compañero para iniciarse en esta aventura de desarrollo web. Es un buen punto de inicio ya que, al ser un lenguaje de tipado débil, no es nada difícil de aprender y te dará el bagaje imprescindible para seguir estudiando programación más compleja. Además, JavaScript nos permite ejecutarlo de manera nativa desde cualquier navegador. Un punto más a favor suyo. Ruby Quizás este lenguaje no es tan conocido como los dos previos, pero Ruby será también otro importante aliado. Se trata de un lenguaje de programación de código abierto bastante simple y sencillo de leer y escribir, lo que lo hace muy accesible para principiantes. Orientado a objetos dinámicos, este lenguaje se usa en especial para el desarrollo web. Gracias a Rails, un framework de aplicación web que funciona con este lenguaje de programación, aprenderlo es muy sencillo y las horas de clase se te pasarán volando. Lenguaje C Este es el último de los lenguajes de programación que te presentamos. Como el anterior, no es tan conocido a nivel usuario, pero lo recomendamos por su variabilidad y es que se puede usar para crear prácticamente de todo, desde móviles hasta servidores pasando por apps de escritorio o aplicaciones de videoconsola. ¿Qué más se puede pedir? Eso sí, para realizar todo esto deberás contar con Visual Studio, un aliado en la simplificación y cercanía de este lenguaje, aunque existen también compiladores open-source. El puzle por el que ofrecen un trillón de dólares a quien lo resuelvaEpisodio 1 | Code Talks by Ideas Locas – ‘ATTPwn: Emulación de adversarios’
Optimizando los hiperparámetros de una red neuronal con TensorBoardEnrique Blanco 24 marzo, 2021 Al crear modelos de Machine Learning se deben investigar múltiples parámetros como el número de nodos de las capas, diferentes optimizadores, valores de tasas de aprendizaje, distintas tasas de dropout, etc. Por lo tanto, un paso importante en el flujo de trabajo del Machine Learning es identificar los mejores hiperparámetros para el problema que se está abordando, lo que a menudo implica un gran número de pruebas. Este proceso se conoce como Optimización de hiperparámetros. Para poder realizarlo, TensorFlow 2.0 proporciona el panel de HParams en TensorBoard, que nos permitirá visualizar el comportamiento de nuestro modelo en función de los valores que definen nuestro modelo en nuestro dashboard. Hace unos meses escribimos un breve post sobre TensorBoard, un kit de herramientas de TensorFlow que permite monitorizar métricas como la precisión y la función de pérdida durante el entrenamiento de modelos profundos. En este anterior artículo investigamos, dentro de las funcionalidades más básicas de TensorBoard, cómo se podía monitorizar las métricas de un modelo de Machine Learning, la evolución de los pesos y sesgos de nuestra arquitectura, visualizar el grafo de nuestro modelo e incluso realizar un sencillo análisis de matriz de confusión de nuestro modelo una vez estuviera entrenado. En el presente post vamos a probar a encontrar los hiperparámetros de una red neuronal recurrente dedicada a multivariate time series forecasting. Para más detalles sobre cómo abordar un problema de este tipo, puede leer el siguiente enlace. Figura 1. Grafo del modelo recurrente usado para la predicción de time series en el dashboard de TensorBoard. Definiendo los valores de los hiperparámetros a probar Con TensorBoard, se puede realizar un seguimiento de la precisión y la pérdida del modelo en cada época; y también con diferentes valores de hiperparámetros. La precisión de seguimiento para diferentes los diferentes valores nos ayudará a ajustar el modelo más rápido. A continuación, se muestra un ejemplo de cómo listar los intervalos de valores para cada hiperparámetro. # ## Create hyperparameters HP_INPUT_WIDTH = hp.HParam('num_input_width', hp.Discrete([12, 24, 48, 96])) HP_OUTPUT_WIDTH = hp.HParam('num_output_width', hp.Discrete([6, 12, 24, 48])) HP_RNN_UNITS = hp.HParam('num_rnn_units', hp.Discrete([30, 40, 60, 80, 100])) HP_DROPOUT = hp.HParam('dropout', hp.Discrete([0.05, 0.1, 0.2])) HP_OPTIMIZER = hp.HParam('optimizer', hp.Discrete(['adam'])) HP_LEARNING_RATE = hp.HParam('learning_rate', hp.Discrete([0.001])) METRIC_ACCURACY = 'accuracy' Creando, compilando y ajustando el modelo Suponiendo que ya tenemos realizada la partición de nuestro dataset de time series en train, test y/o validación y que ese dataset está convenientemente preprocesado, definimos la arquitectura del modelo (haciendo uso de Keras) junto con algunos callbacks como EarlyStopping o el propio callback de TensorBoard que nos permitirá loguear el desempeño de nuestra red para cada combinación posible de hiperparámetros. def create_model(hparams): # Define model architecture input_shape = (hparams[HP_INPUT_WIDTH], num_features) inp = tf.keras.layers.Input(input_shape) x = tf.keras.layers.LSTM(hparams[HP_RNN_UNITS], return_sequences=False)(inp) x = tf.keras.layers.Flatten()(x) x = get_dropout(x, p=hparams[HP_DROPOUT], mc=True) # Shape => [batch, 1, out_steps*features] x = tf.keras.layers.Dense(hparams[HP_OUTPUT_WIDTH]*num_features, kernel_initializer=tf.keras.initializers.VarianceScaling())(x) out = tf.keras.layers.Reshape([hparams[HP_OUTPUT_WIDTH], num_features])(x) # Build model model = tf.keras.models.Model(inputs=inp, outputs=out) # Setting the optimizer and learning rate optimizer = hparams[HP_OPTIMIZER] learning_rate = hparams[HP_LEARNING_RATE] if optimizer == 'adam': optimizer = tf.optimizers.Adam(learning_rate=learning_rate) else: raise ValueError("Unexpected optimizer name: %r" % (optimizer_name,)) # Define Early Stopping early_stopping = tf.keras.callbacks.EarlyStopping(monitor='val_loss', patience=3, mode='min') # Define path where TensorBoard logs will be stored log_dir = os.path.join(tensorboard_path, 'lstm_verbose', datetime.datetime.now().strftime("%Y%m%d-%H%M%S")) with tf.summary.create_file_writer(log_dir).as_default(): hp.hparams_config( hparams= [ HP_INPUT_WIDTH, HP_OUTPUT_WIDTH, HP_RNN_UNITS, HP_DROPOUT, HP_OPTIMIZER, HP_LEARNING_RATE ], metrics=[hp.Metric(METRIC_ACCURACY, display_name='accuracy')], ) # We compile the model model.compile(loss=tf.losses.MeanSquaredError(), optimizer=optimizer, metrics=[ tf.metrics.MeanAbsoluteError(), tf.keras.metrics.MeanSquaredError(), 'accuracy' ]) # Define a Window Generator to feed the neural network multi_window = WindowGenerator(input_width=hparams[HP_INPUT_WIDTH], label_width=hparams[HP_OUTPUT_WIDTH], shift=hparams[HP_OUTPUT_WIDTH]) # Fitting the model history = model.fit(multi_window.train, epochs=max_epochs, validation_data=multi_window.val, callbacks=[early_stopping,\ tf.keras.callbacks.TensorBoard(log_dir), hp.KerasCallback(log_dir, hparams)]) return history.history['val_accuracy'][-1] Para cada ejecución del modelo, necesitamos registrar el resumen de hparams con el hiperparámetro y la precisión de las épocas finales. Necesitamos convertir la precisión de validación de la última época en un valor escalar. def run(run_dir, hparams): with tf.summary.create_file_writer(run_dir).as_default(): hp.hparams(hparams) # record the values used in this trial accuracy = create_model(hparams) # converting to tf scalar accuracy = tf.reshape(tf.convert_to_tensor(accuracy), []).numpy() tf.summary.scalar(METRIC_ACCURACY, accuracy, step=1) Ejecutando el modelo con diferentes valores de hiperparámetros En este paso se usa Grid Search para probar todas las combinaciones posibles. session_num = 0 for num_input_units in HP_INPUT_WIDTH.domain.values: for num_output_units in HP_OUTPUT_WIDTH.domain.values: for num_rnn_units in HP_RNN_UNITS.domain.values: for dropout_rate in HP_DROPOUT.domain.values: for optimizer in HP_OPTIMIZER.domain.values: for learning_rate in HP_LEARNING_RATE.domain.values: hparams = { HP_INPUT_WIDTH: num_input_units, HP_OUTPUT_WIDTH: num_output_units, HP_RNN_UNITS: num_rnn_units, HP_DROPOUT: dropout_rate, HP_OPTIMIZER: optimizer, HP_LEARNING_RATE: learning_rate, } run_name = "run-%d" % session_num print('--- Starting trial: %s' % run_name) print({h.name: hparams[h] for h in hparams}) run(os.path.join(tensorboard_path, 'lstm_mc_hgs_verbose', datetime.datetime.now().strftime("%Y%m%d-%H%M%S")), hparams) session_num += 1 Visualizando los resultados de la búsqueda Ejecutamos en un terminal (tras haber activado nuestro entorno virtual de Python) y ejecutamos el siguiente comando: tensorboard --logdir "/logs/lstm_verbose/" --port 6006 Si nos vamos a http://localhost:6006/ podremos acceder al dashboard de TensorBoard. Si se ha logueado todo correctamente, en el dashboard se tendrá disponible una pestaña llamada HParams, que muestra las ejecuciones individuales para cada combinación de hiperparámetros ordenadas de acuerdo a los valores de METRIC_ACCURACY especificada arriba. Figura 2. Resumen de experimentos realizados con estrategia de Grid Search en HParams con TensorBoard. Figura 3. Parallel Coordinates View de HParams en el dashboard de TensorBoard. Figura 4. Scatter Plot Matrix View de HParams en el dashboard de TensorBoard. Como se ve en la figura anterior, el panel izquierdo del panel proporciona capacidades de filtrado que están activas en todas las vistas en el panel de HParams: Filtrar qué hiperparámetros/métricas se muestran en el panel;Filtrar qué valores de hiperparámetros/métricas se muestran en el panel;Filtrar por estado de ejecución (en ejecución o terminadas);Ordenar por hiperparámetro/métrica en la vista de tabla;Número de grupos de sesiones para mostrar (útil para el rendimiento cuando hay muchos experimentos). El panel de HParams tiene tres vistas diferentes, con diversa información útil: La vista de tabla (Figura 2) enumera las ejecuciones, sus hiperparámetros y sus métricas.La pestaña de coordenadas paralelas (Figura 3) muestra cada tramo como una línea que pasa por un eje para cada hiperparámetro y métrica. La vista de gráfico de dispersión (Figura 4) muestra gráficos que comparan cada hiperparámetro/métrica con cada métrica. Esto puede ayudar a identificar correlaciones. Conclusión Os invitamos a intentar realizar un experimento similar al expuesto en este post con la red convolucional que construimos en Supervisa tu entrenamiento de redes neuronales con TensorBoard para Fashion MNIST, probando a modificar el número de filtros, el tamaño de kernel, el número de unidades en las capas densas finales y/o distintos optimizadores distintos de Adam. Para más detalle sobre Hyperparameter Tuning, puede consultar el tutorial de TensorFlow. Para mantenerte al día con LUCA visita nuestra página web, suscríbete a LUCA Data Speaks o síguenos en Twitter, LinkedIn y YouTube. Gobierno del dato: el caos, un orden por descifrarVideo Post #25: ¿Cómo hacer las preguntas adecuadas en Ciencia de Datos?
Floorfy, la «startup» española que reinventa la búsqueda de viviendaRaúl Alonso 23 marzo, 2021 Una adivinanza: ¿Qué hace un ingeniero informático millennial para elegir el mejor piso de entre los cientos que le muestra un portal inmobiliario? Respuesta: inventar una herramienta de recorrido virtual que le permita ver muchos pisos en un único día sin moverse del sofá y, de paso, crear una de las startups que conviene no perder de vista. En 2016, Sergi Jiménez, junto al resto del equipo fundador de Floorfy, convirtieron su necesidad en virtud. Cinco años después, su tecnología es utilizada en quince mercados, y ha conseguido más de tres millones de visitas a pisos y otros inmuebles en venta o alquiler en lo que llevamos de 2021. “Floorfy es una plataforma digital que permite a profesionales inmobiliarios virtualizar propiedades automáticamente y comercializarlas con nuestro sistema de videollamadas o de visitas virtuales en directo”, explica Martín Morillo, socio y responsable de Marketing de la empresa. Un software que en España ya les ha permitido cerrar acuerdos con operadores como Cerberus, Idealista, Fotocasa, Bidx1 o Housell. Valor real para el profesional y el usuario Además de los tours 3D, esta herramienta propone otras utilidades como planos acotados, imágenes 2D en HD o vídeos comerciales, siempre creados a partir de unas simples capturas en 360º. «Generamos todo el contenido virtual y la experiencia inmersiva deseada para comercializar inmuebles de forma online”, puntualiza Morillo. Pero muy probablemente lo dicho hasta ahora no explique tanto su éxito como la rapidez y sencillez de manejo de la herramienta. Bastan diez minutos para virtualizar el inmueble, y de ese banco de imágenes se pueden crear las diferentes experiencias de un modo muy automatizado y asequible a cualquier perfil de usuario, según explican sus creadores. Es así como los agentes inmobiliarios, promotoras o portales especializados ofrecen a sus clientes la posibilidad de conocer diferentes pisos con todo lujo de detalles, reservando la visita física solo para el que interesa. Un ahorro de tiempo que todas las partes implicadas agradecen, sin olvidar la ventaja adicional que implica en tiempos de distanciamiento físico. La especialización como motor de innovación La propuesta resulta tentadora en otros sectores donde también podría reforzar su argumentario de venta, pero Floorfy se mantiene firme en su apuesta por la especialización. “Nuestra tesis es que si nos centramos en resolver un problema muy bien, y nos adaptamos al mercado a la vez que evoluciona, podremos mantener un crecimiento importante año tras año”. Y la apuesta parece acertada. La empresa creció el 60% en un año complejo como 2020, porcentaje que esperan superar en el presente ejercicio. Y para afrontar el reto, la plantilla ya alcanza las 40 personas, reforzándose día a día. Un equipo volcado en entender a su cliente y a su mercado. Es precisamente ese expertise el escudo que la empresa levanta para defender su posición frente a competencia e imitadores. “Es la capacidad de innovar lo que nos ha diferenciado hasta ahora, y lo que nos continuará diferenciando. Una capacidad alimentada por tener una posición única en todo el sector. Ayudamos a profesionales inmobiliarios independientes, agencias, franquicias, fondos, bancos, portales, brokers y agregadores. Todo esto permite una visión única, detectar los problemas más comunes y resolverlos de forma simple y global”. Internacionalización low cost De hecho, Floorfy ya bucea en las necesidades de los quince países en los que está presente, demostrando que el tamaño no impide el proceso de internacionalización en la era digital. “Está claro que cualquier empresa siempre crecerá primero en su círculo de confianza cercano”, explica Morillo. “Pero si hace bien el trabajo de localización en cada mercado, y no se limita a traducir su web, nunca tendrá límites geográficos”. Una presencia que además se ha realizado sin endeudar a la empresa o vender participaciones. Para ello, su equipo apuesta por una gestión de modelo bootstrapping. Esto es, «permite que cualquier inversión o decisión sea mucho más analizada, si bien es cierto que el crecimiento es más lento y sano, tanto en facturación como en desarrollo de nuevas funcionalidades”. Socios estratégicos y ronda de financiación Pero esta política de cautela no ha impedido al proyecto rodearse de socios estratégicos, como Wayra y Telefónica. “Son dos excelentes socios estratégicos con lo que establecemos sinergias. Por un lado está la agilidad y visión innovadora de nuestra startup y, por otro, la confianza y fuerza comercial de Telefónica. El resultado es un tándem ganador, dado que los clientes de Telefónica también se benefician directamente de desarrollos tecnológicos pioneros en su sector”, asegura el responsable de Marketing del proyecto. Pero ahora llega el momento de pisar el acelerador. La pandemia ha obligado a acelerar la digitalización del sector inmobiliario y Floorfy debe responder: “Una ronda de inversión nos permitiría tomar ventaja de este momento no solo en España o en Europa, sino en otros continentes donde ya tenemos presencia, como Latinoamérica, América del Norte y África. Las perspectivas son optimistas, y a la espera de nuevas noticias, el equipo sigue centrado en su misión: “Seguir ayudando a que la experiencia de compraventa o alquiler de inmuebles sea más sencilla, intuitiva y ágil”. «La innovación es cosa de todos, no solo del área de I+D»Episodio 1 | Code Talks by Ideas Locas – ‘ATTPwn: Emulación de adversarios’
GitOps como única fuente de verdad en el desarrollo de aplicaciones cloud nativeAlejandro de Fuenmayor 23 marzo, 2021 Probablemente os hayáis encontrado alguna vez en la tesitura de estar programando o trabajando con una hoja de cálculo y que, de repente, algo se tuerza. Pasar de ir todo conforme a los planes y estar cerca de la implementación a que no funcione. Uno entonces empieza a revisar, de arriba abajo, de derecha a izquierda pero, por mucho que revise, añada o quite, el problema sigue ahí. Se pierde tanto tiempo que sería el equivalente a rehacer desde cero, que es lo que al final se acaba haciendo… Ahí radica la utilidad de GitOps para aplicaciones nativas en la nube. Y es que la situación que describía es perfectamente extrapolable a cualquier proyecto de transformación digital. Con la dificultad añadida de que esa gestión o trabajo no es individual, sino colectivo. El proceso implica a diferentes departamentos, incluso a agentes externos a la organización. En mi día a día profesional reconozco pocas cosas de las que aprendí en la escuela o la universidad. Todo a nuestro alrededor -la sociedad, las ciudades- también ha cambiado tremendamente en los últimos años. Incluso el liderazgo económico y empresarial. Y, cómo no, el mundo de la tecnología, que, además, impulsa y realimenta todos los demás cambios. GitOps para simplificar y acelerar las implementaciones de aplicaciones Hace tiempo que dejamos de tratar a nuestros sistemas como infraestructuras inmutables.. Esto supuso un cambio de paradigma para muchos departamentos de sistemas y uno de sus retos actuales es disponer de “una única fuente de verdad”. Me explico: a la hora de analizar y proponer mejoras en los servicios TIC es muy útil contar con un repositorio que defina qué es lo que hay desplegado y todas las versiones de código e infraestructura que se han ido utilizando (las fotos intermedias). GitOps se ha establecido como el modelo operativo para el desarrollo y construcción de aplicaciones nativas en la nube desde la aparición de los contenedores como pieza central de la implementación de iniciativas agile en los departamentos de sistemas. GitOps tiene como motor de sus operaciones, cómo no podía ser de otra manera, a Git, la herramienta de gestión de versiones desarrollada por Linus Torvald. Sí, el padre de Linux, uno de los mayores fenómenos alrededor del movimiento del software libre. Y, por supuesto, Git, como sistema de control de versiones distribuido, se basa en una licencia de código abierto, que permite gestionar el despliegue de código con la velocidad y eficiencia que los departamentos de sistemas requieren en el entorno VUCA actual. Una visión extremo a extremo Desde el nacimiento de Kubernetes como herramienta para la gestión de contenedores y microservicios, el modelo GitOps ha definido diferentes buenas prácticas en lo que a la administración de clústeres de Kubernetes y entrega de aplicaciones se refiere. Git se usa como una fuente única de verdad para la infraestructura declarativa y las aplicaciones. Permite monitorizar cada uno de los elementos desplegados en el clúster y alerta de diferencias entre el código del repositorio Git y la infraestructura y aplicaciones desplegadas. La metodología GitOps, junto a diferentes modelos de trabajo como implementación y distribución continua (CI/CD), permite disponer de una visión extremo a extremo de todo el proceso de creación y despliegue de infraestructura y aplicaciones. Esto garantiza la reducción de los tiempos de entrega de nuevas versiones, elimina errores y permite sistemas mucho más robustos, en lo que a pruebas unitarias y de seguridad se refiere. Pilares de una correcta implementación de GitOps A continuación os dejo los cuatro principios que hay que tener en cuenta para implementar de forma correcta la metodología GitOps: Todos los sistemas han de estar descritos de forma declarativaLas versiones del estado ideal de la plataforma serán custodiadas en GitLa gestión de cambios se automatizará y centralizará en un único sistema/herramienta.Y, por último, pero no menos importante, hay que monitorizar y gestiona los entornos mediante agentes para alertas ante cualquier anomalía entre el estado deseado y los recursos desplegados. GitOps es una solución para incrementar la productividad de los recursos, aumentar la estabilidad de los sistemas, dotarlos de escalabilidad “ilimitada”, mejorar la experiencia de los desarrolladores o alcanzar mejores estándares de seguridad. Imagen; spacemoeba El talento como la fuerza motriz que impulsa a la organización y la cohesionaMiríadax: la formación exponencial que requiere la era digital
Gobierno del dato: el caos, un orden por descifrarJavier Blanco Romero 23 marzo, 2021 Decía el bueno de José Saramago que el caos es un orden por descifrar. La dulce belleza de lo poético permite romper de un plumazo el propio caos. Las descripciones pomposas de Gobierno del Dato se me atragantan, en el slide 3 me aburro. Es por ello, que: “Gobernar los datos es encontrar ese orden dentro de ese caos de datos.” Administraciones «data-driven» Convertir las administraciones en administraciones con Orden o data driven Gobernados, es enfrentarse a un laberinto dinámico que se expande y contrae donde sus pasadizos son los deseos de las personas plasmados en datos y tecnología. Entender el caos del laberinto de la administración, pasa por no meterse en él, verlo en retrospectiva, necesidad principal del CDO. La solución se ve siempre mejor desde fuera del problema, nunca desde dentro. Estar pegado a la administración, pero no dentro de ella. Solucionar y reconvertir administraciones pasa por comerse el pastel a trozos pequeños, viendo cuantas entradas tiene ese laberinto, si crecen o disminuyen, si las entradas se mueven o simplemente tienen dueño, conocer la esencia del laberinto. Estudiar la dinámica fluida interna del laberinto de las administraciones pasa no solo por crear, si no por destruir y crear de nuevo pasadizos entendibles que aporten valor para el ciudadano. “Soluciones hay muchas. Y el ingenio y la simplicidad es esa esencia del éxito.” Hace poco en un webinar nos preguntaban que libros leer sobre Gobierno del Dato aparte del recomendable DAMA-DMBOK. La primera respuesta fue sin meditar, espontanea, ver las diferentes ISO puede ser un buen comienzo, visto ahora, una respuesta a considerar, pero si no sabes nada, quizá no lo más sintético sin duda. Ese espíritu de escalera. «l’esprit de l’escalier« Otro grande, Denis Diderot nos daba el arma con su espíritu de escalera que tras la calma y la meditación sobrevenía la mejor respuesta. Conclusión Leer y conocer normativas ISO está bien, pero si vas a empezar por ahí vas a abrir laberintos nuevos. Sin duda, para saber que es gobierno del dato, recomendaría lectura como la del bueno de José Saramago que nos saludaba hoy a la entrada de este post en su “hombre duplicado”, donde nos enfrenta al planteamiento ético y moral de saber que no eres tú el único en este mundo, que hay una imagen duplicada de tu yo, quizá ese yo, hoy sean ese torrente de datos que fluyen por las venas de la red. Luego, si quieres continuar con lectura más precisa y metiendo esa cuña publicitaría, no dejaría escapar la serie de noticias de Gobierno del Dato, trípticos, infografías y Web que disponemos desde Telefónica. Pasa un buen día y que los laberintos sean un caos donde el orden tu puedas encontrar, jamás los intentes dominar, o te dominarán ellos a ti pues trabajan con el ruido y el ruido produce desenfoque. Post recomendados: Los datos como nuevo factor de producciónProducto Telefónica Data GovernanceEl arte de comunicar en tiempos de cambioLa calidad del dato como marca personalTransformación Digital y Gobierno del dato tras el COVID-19La teoría Gestalt en Gobierno del Dato Para mantenerte al día con LUCA visita nuestra página web, suscríbete a LUCA Data Speaks o síguenos en Twitter, LinkedIn y YouTube. Artificial Intelligence of Things, o cómo las cosas planean hacernos la vida más sencillaOptimizando los hiperparámetros de una red neuronal con TensorBoard
Artificial Intelligence of Things, o cómo las cosas planean hacernos la vida más sencillaBernardo Campillo Soto 23 marzo, 2021 Al igual que en aquel cuento de los hermanos Grimm dos duendecillos se aliaron para ayudar al zapatero a tener una vida mejor, la inteligencia artificial y las tecnologías IoT y Big Data suman sus fuerzas en el concepto Artificial Intelligence of Things, para que “las cosas planeen cómo ayudarnos y hacernos la vida más segura, eficiente, sostenible y humana”. Tomás se despertó esa mañana con cierto malestar; simplemente parecía que no había dormido bien. Puede que fuera el cambio de estación o que algunas preocupaciones habían conseguido ocupar más espacio del deseado en su cabeza esa noche. Efectivamente, su wearable le informaba de que su sueño no había sido de calidad. Afortunadamente, Tomás sabía que al poco toda su casa se confabularía para hacerle sentir mejor: la temperatura ambiente se ajustaría a los mejores valores para él y su malestar, la temperatura de su café y sus tostadas estarían justo como él las prefería en este momento, incluso el volumen de su televisión se ajustaría a que las noticias le llegaran de manera más placentera. Tras estos cuidados oficiados por su casa y una ducha rápida se disponía, mucho más animado, a afrontar otro apasionante día de trabajo. Y era apasionante porque Tomás era muy consciente de cómo la tecnología estaba transformando el mundo en muchísimos sentidos. No es solo que su casa se ocupara de él de una manera casi invisible, sino que todo su entorno social y profesional se estaba transformando a pasos agigantados. En el camino a su oficina recordó cómo soluciones tecnológicas de hace solo unos años se centraban en sensorizar maquinaria, elementos físicos, herramientas, vehículos, etc. con el objetivo de ser capaces de “ver” lo que de verdad estaba pasando y actuar en consecuencia. Hace unos años, en los tiempos del dashboard Era un tiempo en el que tener un panel de control (dashboard) era una muy lícita aspiración de gran parte de negocios. Las fábricas, la gestión de flotas de vehículos de todo tipo, los comercios o espacios de atención al cliente, las propias ciudades o el campo y la minería… todos ellos se empezaban a transformar digitalmente a través del uso de lo que conocíamos como Internet de las Cosas (Internet of Things, IoT). Los operarios observaban la realidad (e.g. ese motor que vibra más de lo normal, por dónde deberían pasar mis repartidores para ser más eficiente, cómo se ha conservado un medicamento o alimento en una cadena de frío) y ejecutaban acciones correctoras. Pero ahora era otra cosa. En paralelo a la explosión del IoT había surgido otra gran revolución tecnológica: El uso de datos como fuente de conocimiento y de decisión. La capacidad de un tratamiento cada vez más rápido y más complejo de grandes volúmenes de datos (el consabido BigData), junto con nuevas técnicas de aprendizaje artificial, todas con nombres que evocan algo que creíamos puramente humano hasta ahora (e.g. Machine Learning, Deep Learing, Generative Learning, etc.) nos posicionaba ante un salto cuántico. Tras él, las cosas, esas cosas inanimadas pero conectadas, empezaban a aprender y a decidir de manera más autónoma, más eficiente, más segura y más sostenible. Ahora todo era otra cosa. El siguiente paso: la Inteligencia Artificial… de las cosas Ahora todo era algo más. Ahora teníamos que hablar del siguiente paso: la Inteligencia Artificial de las Cosas (AI of Things). Las cosas eran capaces de aprender, compartir información entre ellas y tomar decisiones de manera casi desatendida. El dashboard no era más que una representación de la realidad y de cómo las cosas se ayudaban entre ellas para gestionar de manera más eficiente un negocio, ayudando de manera desinteresada (no podía ser menos viniendo de las cosas) a todo tipo de negocios. Y no es que todas ellas tengan que ser un super cerebro o implementar una potencia de cálculo mayor en varios órdenes de magnitud, sino que este ecosistema de cambio se apoya en otros pilares tecnológicos que van naciendo de manera adyacente a esa combinación de IoT y BigData/AI. Aquí la partida se apoya en cosas como: la inmediatez de las nuevas tecnologías de conectividad (e.g. 5G) que aportan grandes anchos de banda y latencias mínimas,la flexibilidad y escalabilidad de modelos de despliegue en la Cloud junto con la distribución de capacidades de cálculo más cerca de las propias cosas (e.g. Edge Computing),modelos cada vez más avanzados de analítica predictiva (i.e. las cosas saben lo que va a pasar) y prescriptiva (i.e. las cosas nos indican qué hacer para que ciertas cosas pasen o no).o modelos de computación distribuida (swarm intelligence, inteligencia de enjambre) en los que, de manera similar a una colonia de hormigas o de abejas, pequeñas piezas de información distribuida entre muchos sujetos (en este caso, nuestras cosas conectadas) son capaces de generar un valor superior. Y así es como Tomás pasó el agradable trayecto de camino a su oficina. Su coche conectado hablaba con otros coches y elementos de la ciudad para generar ese modelo de tráfico conectado que tan cómoda había hecho la ciudad en los últimos tiempos. Su oficina ya era consciente de su llegada y de la presencia de sus compañeros y clientes en el edificio para dar inicio a la primera reunión del día justo a tiempo. Por supuesto, la sala se adaptó automáticamente a las necesidades y preferencias de iluminación y sonoridad que sus ocupantes tenían en un perfil. Y Tomás pudo explicar a sus clientes cómo sus nuevas propuestas de AI of Things les iban a permitir ahorrar miles de dólares: mediante motores que se ayudan entre sí para ajustar su rendimiento y eficiencia; piden mantenimiento con mucha antelación ante fallos que no van a poder reparar, y hasta indican cómo evolucionar el layout de la planta de fabricación para adaptarse a los cambios en la demanda. Una conexión que acerca e inspira nuevas y mejores soluciones para todos En estos años Tomás y su entorno se habían enfocado unir las capacidades de IoT y la Inteligencia Artificial para ofrecer una tecnología que conecta aún más las cosas con las personas; en una conexión que acerca e inspira nuevas y mejores soluciones para todos: Desde fábricas conectadas más inteligentes y flexibles, a soluciones de movilidad basadas en datos recabados por miles de coches. Desde soluciones de cuidado de pacientes utilizando métricas predictivas a mejorar la calidad de los cultivos de manera eficiente.Desde la personalización de toda experiencia de cliente a las mejoras en la sostenibilidad integral de las ciudades… Habían trabajado muy duro (y siguen haciéndolo) para impulsar esa inteligencia conectada a las cosas con el fin de ayudar a las organizaciones a tomar decisiones que mejoren la vida de las personas. O como él lo veía, esto de AI of Things era como dejar que las cosas planeen cómo ayudarnos y hacernos la vida más segura, eficiente, sostenible y humana, en todos los ámbitos. Más humana, sí, porque, precisamente es así, como las cosas planean ayudarnos a que nos dediquemos a lo que de verdad nos importan, lo que nos diferencia y conforma nuestra verdadera esencia: inventar, construir, ser creativos, emocionar y emocionarnos, hacer reír… En definitiva, a vivir. Resucita la fiebre del blockchain, hablemos de Tokens No Fungibles (NFT)Gobierno del dato: el caos, un orden por descifrar
El puzle por el que ofrecen un trillón de dólares a quien lo resuelvaGonzalo Álvarez Marañón 22 marzo, 2021 ¿Eres aficionado a los puzles matemáticos? Pues aquí tienes uno muy lucrativo… ¡pero duro de roer! Si descubres un método para romper los hashes utilizados en Blockchain, ¡podrías hacerte con todos los futuros Bitcoins aún por minar! El criptominado se basa en un concepto llamado “prueba de trabajo” (y en el azar). Los mineros con mayores recursos computacionales a su alcance (y a quienes más favorece el azar) son recompensados con nuevos bitcoins. En este artículo explicaremos el origen de las pruebas de trabajo, ligado a la batalla contra el spam, y cómo se utilizan hoy en Bitcoin. Si los spammers tuvieran que pagar por cada correo que envían, otro gallo cantaría Eso mismo pensó Adam Back en 1997. Reputado criptógrafo y hacker, había leído un artículo publicado en 1992 por Cynthia Dwork y Moni Naor sobre cómo combatir el spam obligando a realizar costosos cálculos matemáticos. Este artículo le inspiró para diseñar su propuesta de pago por envío de correo: si quieres enviar spam, vas a tener que pagar, pero no con dinero, pagarás con sudor de computación (si te recordaba a “Fama”, eres muy mayor). El spammer tendrá que resolver un puzle criptográfico de dificultad variable y no enviará su correo hasta que dé con la solución. Resolver el puzle será muy complicado, pero verificar la solución, muy sencillo. En otras palabras, o pruebas que has trabajado duro, o no hay spam que valga. Y así nació Hashcash. La propuesta de Back exige añadir la cabecera X-Hashcash: al protocolo SMTP, de manera que, si un mensaje llega a una pasarela de correo o a un cliente de correo sin dicha cabecera, será rechazado inmediatamente. ¿Y con qué token hay que rellenar esta cabecera? En primer lugar, se requiere una función de hash segura. Aunque Hashcash proponía SHA-1, hoy se utilizaría otro algoritmo, como por ejemplo SHA-256 o SHA-3. En segundo lugar, Hashcash usa los siguientes parámetros: Un factor de trabajo w, tal que 0 <= w <= L, siendo L el tamaño de la salida de la función de hash (en bits). Se utiliza para modular la dificultad del puzle.Un número de versión, ver.Un parámetro de marca de tiempo: time.Un identificador de recurso: resource.Un número de como mínimo 64 bits elegido aleatoriamente: trial. El token de Hashcash se compone uniendo dichos campos por el carácter ‘:’, de la siguiente forma: token = ver:time:resource:trial El puzle consiste en calcular repetidamente el hash del token hasta que los w bits más significativos sean 0, incrementando en uno el valor de trial cada vez que no se acierte. Evidentemente, cuanto mayor sea el valor de w, más difícil será el puzle. Por fortuna para el receptor, verificar que la solución al puzle es correcta es tan trivial como calcular el hash del token. Además, no importa cuántos puzles resuelvas, resolver uno nuevo siempre te llevará en promedio el mismo tiempo: la dificultad se mantiene constante para un valor dado de w. Y si la potencia de cómputo mejora con el tiempo, basta con incrementar w y otra vez a sudar. Por supuesto, los tokens solo se consideran válidos si no se repiten, porque entonces, resuelto uno, bastaría con anexionarlo a todos los mensajes de spam. Una forma económica de resolver el problema de cómo almacenar un histórico de los tokens consiste en configurar un período de expiración, calculado gracias al parámetro time. Aunque esta idea no llegó a cuajar para luchar contra el spam, terminó inspirando a Satoshi Nakamoto para diseñar la prueba de trabajo de Bitcoin. Los criptomineros acuñarán bitcoins con el sudor de sus ASICs En la mina se excava la tierra en busca de un recurso escaso y muy valioso. En Bitcoin, el recurso escaso es la capacidad de cómputo. Los nodos de la red de Bitcoin compiten unos contra otros en una carrera frenética por ser el primero en resolver un puzle criptográfico, llamado «prueba de trabajo», basado en Hashcash. Explicado de forma muy simplificada, se toma el hash del nuevo bloque, c, que se desea incorporar a la cadena de bloques, se concatena con un nonce, x, y se calcula el hash del conjunto. Si el valor del hash resultante comienza por un número predeterminado de ceros, es decir, es menor que un cierto target, entonces ¡has ganado la carrera! En caso contrario, súmale uno al nonce y vuelta a empezar. La función de hash utilizada en Bitcoin es SHA256, pasada dos veces consecutivas. Expresado matemáticamente: SHA256( SHA256( c | x ) ) < target( d ) La dificultad de este puzle puede adaptarse dinámicamente, variando el número d de ceros iniciales que debe tener el hash. Así, una dificultad de 1 significa que el hash debe tener (al menos) un cero a la izquierda, mientras que una dificultad de 10 significa que el valor hash tendrá al menos 10 ceros a la izquierda. Cuanto más alto sea el nivel de dificultad, más ceros a la izquierda serán necesarios y más complicado será el puzle, ya que la dificultad crece exponencialmente con el número de ceros. Obviamente, cuanto más complicado sea el rompecabezas de hash, más potencia de cálculo o tiempo se necesita para resolverlo. Bitcoin establece la dificultad de manera que globalmente se cree un nuevo bloque cada 10 minutos en promedio. El primer minero en resolver el puzle recibe una recompensa en forma de bitcoins y cobra las tasas aplicadas a las transacciones contenidas en el bloque. La recompensa para el ganador está programada desde el principio. Inicialmente se recompensaba al criptominero ganador con 50 bitcoins por cada nuevo bloque. Esta recompensa se reduce a la mitad cada 210.000 bloques, es decir, aproximadamente cada 4 años. Debido a la reducción a la mitad de la recompensa por bloque, la cantidad total de bitcoins en circulación nunca superará los 21 millones de bitcoins. Estos incentivos económicos deben compensar el gasto de recursos computacionales o nadie minaría bitcoins. ¡¡¡Soy mineroooooo!!! En sus inicios, para minar bitcoins bastaba con un ordenador con una CPU decente. Pero los jugosos incentivos hicieron aumentar rápidamente la dificultad del mecanismo de prueba de trabajo. Las CPUs fueron pronto sustituidas por GPUs, éstas a su vez por FPGAs y, a medida que los bitcoins se revalorizaban, pasaron a utilizarse circuitos integrados de aplicación específica (ASICs). No sé si todos los criptomineros que adquieren estos equipos se hacen de oro, pero sus fabricantes ciertamente sí que han encontrado su particular filón. La barrera de entrada para minar es hoy tan elevada, que desde hace muchos años la comunidad de mineros está dominada por un pequeño número de grupos de minería de “grandes jugadores”. Como resultado, el grupo supuestamente grande y diverso de pares que colectivamente mantiene la integridad del sistema se convierte a la postre en un grupo muy pequeño de entidades, cada una de las cuales posee un enorme poder computacional en forma de hardware especializado, albergado en gigantescas granjas, repartidas las mayores por China, Rusia, Islandia, Suiza y EEUU. Estos grupos exclusivos forman una suerte de oligopolio que divide entre ellos la responsabilidad de mantener la integridad del sistema. Queda abierta la puerta a abusos de poder, como, por ejemplo, omitir transacciones específicas o discriminar a usuarios específicos. Al final, Bitcoin y Blockchain no son tan descentralizados como se esperaba en su concepción original porque la integridad del sistema no está distribuida entre un número enorme de entidades, sino que se concentra en unas pocas entidades muy poderosas, estableciéndose una especie de centralidad oculta que socava la naturaleza distribuida de todo el sistema. El reverso tenebroso de las pruebas de trabajo Y no olvidemos un problemilla asociado a las pruebas de trabajo. Dado que resolver los puzles criptográficos requiere un gasto inmenso de potencia computacional, el proceso de minería/validación resulta prohibitivamente caro, tanto en términos de electricidad como de disipación de calor. Este consumo tiene un impacto increíblemente perjudicial para el medio ambiente. En un trabajo publicado en 2019, The Carbon Footprint of Bitcoin, sus autores afirman que la minería de Bitcoin representa el 0,2% de todo el consumo de electricidad en el mundo y que produce tanto dióxido de carbono como una metrópolis del tamaño de Kansas City (unos 500.000 habitantes). Otra investigación publicada en Nature en 2018, Quantification of energy and carbon costs for mining cryptocurrencies, calculó que la minería de Bitcoin, Ethereum, Litecoin y Monero combinadas produjo durante un período de 30 meses el equivalente a entre 3 y 13 millones de toneladas de dióxido de carbono. Y viendo el precio al alza de todas estas criptomonedas, a pesar de su volatilidad, todo apunta a que el consumo de energía (y de emisiones) seguirá creciendo. Una vez más se demuestra que cuando la criptografía salta de las pizarras de los criptógrafos al mundo real, las cosas se complican. A fin de cuentas, Bitcoin no se ejecuta sobre papel, sino sobre procesadores. Y a más trabajo, mayor consumo. NextDefense: la solución definitiva de ciberdefensa para cualquier organizaciónLos 4 mejores lenguajes de programación para principiantes
«La innovación es cosa de todos, no solo del área de I+D»Raúl Salgado 22 marzo, 2021 “Todo el mundo puede innovar”, afirma rotundamente José Manuel Leceta, autor de “Innovación fractal: navegando la complejidad”, un libro en el que muestra su convencimiento de que quien entienda las dinámicas de cambio que inducen la innovación y el emprendimiento estará en mejores condiciones de comprender un poco mejor nuestro entorno. Ingeniero de Telecomunicaciones con estudios en Dirección Estratégica, Economía de redes, Relaciones Internacionales y gestión de la Innovación, está considerado un experto mundial en políticas y estrategias para la innovación y el emprendimiento. Sus tesis y análisis parten de la necesidad de gestionar la complementariedad para afrontar todo tipo de dificultades. “Quien quiera hacer algo grande debe reconocer sus límites. Hay que completar las competencias en los equipos. En la diversidad debemos buscar la oportunidad para entender mejor lo que está pasando”, asegura. Leceta explica los errores conceptuales que merman la innovación en una obra escrita de manera heterodoxa y que debe su título a los fractales: objetos que responden a un patrón y se reproducen a diferentes niveles. Innovación versus ideación Para Leceta innovar es explotar con éxito nuevas ideas. Es decir, para que haya innovación debe combinarse la novedad y el impacto. De lo contrario se hablaría de ideación, de ideas que no encuentran mercado. Toda innovación supone una novedad, pero no toda novedad es una innovación. En este sentido, destaca la importancia de la voluntad y el coraje para materializarlas y llevarlas a la práctica; actitudes y cualidades que marcan la diferencia entre las personas y las máquinas. José Manuel Leceta Tanto cuando habla como cuando escribe, el que fuera director del EIT (Instituto europeo de Innovación y Tecnología) desmonta algunos mitos en torno a la innovación, que muchos siguen percibiendo erróneamente como un subproducto de la ciencia circunscrito a expertos y tecnólogos. Innovar es apostar por la gente Pero nada más lejos de la realidad, porque la innovación es cosa de todos; innovar es, a fin de cuentas, apostar por la gente. El autor sostiene que la innovación no es exclusivamente tecnológica y que en las compañías no depende únicamente del Departamento de I+D. Así pues, podría ser organizativa, comercial… “Todo el mundo puede tener una buena idea, aunque innova quien siente la necesidad de hacerlo”, puntualiza. Una afirmación válida tanto para las empresas como para la sociedad en su conjunto. Y que debería calar a gran escala, porque nos jugamos el futuro. De hecho, Leceta otorga más importancia a que los ciudadanos nos concienciemos al respecto y a que esta consideración ascienda de abajo hacia arriba que al lugar que ocupe este asunto en la agenda política. El autor opina que no se puede decretar ni ordenar a nadie que innove. Y que lo que se debe hacer es crear las condiciones para facilitar la innovación. Innovar es tan importante como la salud o la educación “Cuando todos lo asumamos, cuando la gente lo vea como algo tan importante como la salud o la educación, habrá políticos que quieran hacer bandera”, añade. Crítico con el modelo lineal y defensor de que todos innovamos en abierto, Leceta opina que esto no concierne únicamente a las universidades, sino que se trata de un asunto social. Máxime teniendo en cuenta el actual contexto de captación y reparto de los fondos europeos concedidos para la reconstrucción tras la pandemia. En cierta manera, estas ayudas han auspiciado los temas relacionados con la innovación a la primera línea del debate político y mediático. Muchos expertos han abogado por fiscalizar la gestión de esa partida presupuestaria para ejecutarla con éxito y generar efectos tractores sobre otros sectores económicos. En esta línea, Leceta pide una estrategia y definir el marco para esclarecer, por ejemplo, si las iniciativas serán públicas o privadas, centrales o autonómicas… Unos interrogantes que si bien derivan en un incremento de la competencia, también generan muchas expectativas. Pero “lo peor que se puede hacer en innovación es pedir ideas y luego no hacer nada con ellas. Hay que apostar por los sectores del futuro de manera decidida”, apostilla. Emular los casos de éxito Con respecto a España, el autor indica que existe mucho talento y grandes focos de innovación. Y remarca la reinvención de muchos empresarios y modelos de negocio. Como ejemplo pone a Inditex, a la que califica como una gran compañía innovadora. “Hay que poner en valor estos casos para que otras empresas puedan emularlos”, añade. Ahora bien, ¿qué necesita España para convertirse en la California del Sur de Europa, para acunar su propio Silicon Valley? “Tenemos que hacer que la innovación sea un tema de todos. Así de fácil y de complicado. Debemos superar el modelo lineal y ofrecer una respuesta sistémica que englobe al talento, la regulación, el liderazgo, la cultura…”. Un ejemplo de que la innovación no solo es ciencia es la respuesta frente al virus. “Ahora disponemos de las vacunas, pero necesitamos el músculo industrial para distribuir, inyectar… Y eso se llama innovación”, agrega. Oportunidad para repensarse José Manuel Leceta siempre ha trabajado en la frontera entre lo público y lo privado, por lo que podría considerarse un “emprendedor público” y un explorador nato. Y es que, desde su punto de vista, “la innovación tiene mucho de exploración y de determinación”. Leceta piensa que esta crisis es una oportunidad para repensarse, hacer las cosas mejor, tener confianza y darnos a todos la importancia que merecemos. Y cita a Ortega para apostillar que cada persona arroja una luz única. Por ello, frente a la actual polarización, insta a tender puentes y buscar nexos que nos unan y acaben con los maniqueísmos existentes entre universidades y empresas, ciencias y letras, etc. Cree que escribir sirve para pensar y encontrar el espacio para ordenar las ideas y entenderse a uno mismo. Tras defender su tesis doctoral, ahora prepara un segundo libro -que valdría como continuación a “Innovación fractal: navegando la complejidad”-, para hablar del alma de la máquina. Cómo triunfar con tu negocio en ClubhouseFloorfy, la «startup» española que reinventa la búsqueda de vivienda
El talento como la fuerza motriz que impulsa a la organización y la cohesionaMercedes Núñez 22 marzo, 2021 «Debemos ver el cambio cultural como una evolución progresiva más que como un proceso cada cierto tiempo» En los últimos tiempos el mundo ha cambiado mucho y las relaciones empresa-trabajador no tanto. He tenido el placer de charlar con José Antonio Llorente, socio fundador y presidente de la consultora Llorente y Cuenca (LLYC) sobre la oportunidad de reinventar los modelos laborales para sortear la amenaza de una desalineación del talento con los objetivos de las compañía. Destaca la importancia de la comunicación y un buen uso de la tecnología. También hablamos de la transformación de los líderes, los “empleados activistas” o conceptos como la life experience o el reverse mentoring, que aparecen en su informe “Tendencia de talento 2021”. -Talento viene de talentum, moneda de cuenta de griegos y romanos. Hoy sigue siendo la unidad de peso de las organizaciones, la que determina su valor y las diferencia de otras… El talento lo es todo en las empresas y, a medida que avanza la tecnología, aún más. Es la fuerza motriz, creativa, la que impulsa a la organización y la cohesiona. La inteligencia artificial tiene que acompañarse de la inteligencia humana, que tiene un componente de sensibilidad insustituible. -¿Hay en las organizaciones cierta resistencia involuntaria a dar su espacio al talento por el cambio que implica en la forma de hacer muchas cosas? Involuntaria y voluntaria. Tenemos que reaprender constantemente y dejar de entender el cambio cultural como un proceso que hacemos cada cierto tiempo para verlo más como una evolución progresiva. Debemos ser continuos aprendices, la presión del upskilling y reskilling irá en aumento. Todo esto es complejo y, por supuesto, generará resistencias naturales al cambio. Por eso la comunicación tiene una importancia transversal en estos procesos. La comunicación, prioritaria para las compañías -La comunicación, la escucha activa y la personalización en el seno de las compañías están cobrando más importancia que nunca. La comunicación con el talento ha sido clave durante el último año y todo indica que lo será aún más en el futuro inmediato con modelos híbridos, reskilling, priorización de la seguridad, etc. Las compañías tenemos que poner en nuestro top de prioridades la comunicación y el engagement con los empleados porque son la base para poder conseguir cualquiera de nuestros objetivos de negocio. Recorrido de mejora en la selección y la colaboración con el talento -La dificultad para encontrar talento se liga siempre a una falta de preparación. Ésta existe y urge resolverla pero, aparte de la evidente responsabilidad personal, en vuestro informe apuntáis también a un recorrido de mejora por parte de las empresas. Háblanos de ello. En primer lugar las compañías tenemos que determinar qué skills consideramos que van a ser claves para nuestro negocio. Una vez definidas, es necesario que combinemos los procesos de formación internos con procesos de selección que vayan más allá de los currículos y tengan en cuenta aspectos actitudinales, valores compartidos, etc. También va a ser clave que se le propongan modelos de colaboración más abiertos al talento. Si realmente queremos trabajar con el mejor talento no podemos limitarnos a ofrecerle ser uno más de la plantilla o no ser nada en absoluto, porque esto cada vez dejará a más profesionales fuera de los procesos. El match entre expectativas y promesa de valor -Se dice que a la hora de atraer talento es muy importante el desafío del proyecto, el propósito de la organización, la flexibilidad, la autonomía… ¿Cuál es la clave? La clave es el match entre expectativas y promesa de valor. Y promesa de valor no es solo lo que ponemos en nuestra web de captación de talento. Porque hoy en día todos tenemos la posibilidad de ir más allá, de preguntar, investigar, conseguir referencias, ver proyectos, etc. Precisamente hace unos meses lanzamos desde LLYC Perfect Match, el primer estudio que utiliza inteligencia artificial para analizar la marca de los cien mayores empleadores en España y confrontarlo con la opinión de jóvenes candidatos. En él se ve cómo lo que construimos desde la parte del employer branding choca a menudo con la percepción de aquellos a los que queremos atraer. La tecnología como aliada -¿La transformación digital contribuye a conseguir talento? La tecnología es una gran aliada en todos los ámbitos si la utilizamos con sentido y responsabilidad. No solo desde la perspectiva de automatización de procesos, que nos permite centrarnos en otros ámbitos de mayor valor añadido, sino también desde el análisis y la medición, que permiten construir estrategias mucho más efectivas. Hacia un líder más humano, auténtico y empático -Por si no fuera bastante complicado identificar, atraer y fidelizar al talento, en el entorno actual las organizaciones deben saber multiplicarlo también. De los líderes se espera que sean ilusionantes y capaces de convertir a sus compañías en incubadoras de “innovación colectiva”. ¿Qué falla en este sentido? Lo que entendemos por líder no ha dejado de evolucionar y eso implica también la necesidad de desarrollar nuevas habilidades. Está claro que un líder más tradicional y transaccional se parece poco a otro transformador y creativo. Lo analizamos el año pasado en nuestro proyecto Future leaders. Con técnicas de procesamiento lingüístico anticipamos cómo van a ser los líderes del futuro y la diferencia en su manera de ser y comunicar con los líderes actuales. La pandemia no ha hecho más que acelerar este proceso de cambio de los líderes en todos los ámbitos. Se está produciendo una necesaria humanización en la que la autenticidad o la empatía priman sobre el control o la desconfianza. Del FOMO a extraer un aprendizaje del camino recorrido -Los managers son claves en la experiencia de empleado e indirectamente también en la de cliente. ¿Qué desafío representa la gestión en remoto de equipos? Durante este último año en la mayoría de los casos hemos demostrado que podemos ser eficaces. Pero aún no somos conscientes de lo que nos hemos podido dejar por el camino en términos de tejido social de los equipos. El impulso inicial de la mayoría de líderes fue acentuar nuestro FOMO (Fear of missing out) y cargar a los equipos con reuniones y herramientas de control. Superado esto, la clave no es solo desarrollar las habilidades blandas, sino también aprender de lo que ha ido surgiendo en el camino. A veces es tan sencillo como preguntar a los equipos si las herramientas o procesos que hemos ido introduciendo les son útiles o todo lo contrario. -¿Crees que la pandemia ha servido para poner al empleado en el centro de las empresas y nos deja organizaciones más humanas?, ¿favorecerá esto equipos de mayor rendimiento? Sin duda la clave estará en ser capaces de mantener a los equipos alineados con modelos de management mucho más flexibles, basados en la confianza y la empatía. Si estamos seguros de estar fichando al mejor talento, entonces hay que proyectar la confianza de que serán capaces de tomar las mejores decisiones. Y eso debería repercutir, como mínimo, en un elevado rendimiento, estable y sostenible. Life experience: ¿dónde está la frontera entre vida profesional y personal? -Hemos pasado de la encuesta de clima a la experiencia del empleado y de ahí al life experience, que anunciáis en vuestro informe. ¿De qué se trata? Las diferencias entre vida profesional y vida personal las tiene que marcar el empleado pero, desde la perspectiva de la empresa, pretender tener en cuenta solo la parte de la vida del empleado en la que “está trabajando” es irreal. No solo por los problemas de desconexión digital o por la desincronización entre equipos. También por el hecho de que habilidades que van a ser claves en el futuro como la creatividad no tienen interruptores que permitan decir “ahora estoy creando y ahora no”. Por eso pensamos que tiene más sentido plantearlo desde la visión del life experience, donde entran nuevos elementos relevantes para el talento como ¿estoy teniendo en cuenta el bienestar físico y mental de mis empleados?, ¿configuro los objetivos poniendo ese bienestar en la ecuación? o ¿genero suficientes espacios para que ellos puedan manejar su propia eficacia? Lazos de relación con los «empleados activistas» -Es el momento de organizaciones con propósito, consumidores coherentes y también “empleados activistas”. ¿Qué reto representan? De nuevo se trata de verlo como una oportunidad y no solo como un riesgo. Cada vez somos más conscientes del impacto que nuestras acciones tienen en el mundo en el que vivimos y, por tanto, es normal que, en un contexto de conversación digital acelerada, el activismo de los empleados en diferentes causas (medioambiente, diversidad, etc.) vaya en aumento. Lo peor que podemos hacer es no escuchar a esos empleados que se están agrupando para presionar de manera organizada a sus compañías para que se comprometan con estas causas. Al contrario, hay que establecer lazos de relación con el fenómeno que permitan extraer aprendizajes y mejorar juntos. El talento resiliente -En vuestro informe reivindicáis que la combinación de talento joven y senior puede dar resultados exponenciales, ¿verdad? Si hablamos de empresas resilientes no tendría sentido no hacerlo de talento resiliente y ahí la experiencia es clave. Durante mucho tiempo, y no solo en el ámbito de la gestión del talento, la seniority ha jugado en inferioridad de condiciones, pero esto está cambiando. La diversidad también es esto y es necesario que lo incentivemos desde las compañías. Nosotros estamos trabajando con algunos clientes proyectos muy interesantes de reverse mentoring, en el que se encuentran el talento más joven y el más senior para extraer aprendizajes compartidos. El reto de Recursos Humanos: “Ahora, las personas”GitOps como única fuente de verdad en el desarrollo de aplicaciones cloud native
Resucita la fiebre del blockchain, hablemos de Tokens No Fungibles (NFT)Diego Escalona Rodríguez 22 marzo, 2021 Probablemente, durante las últimas semanas, hayas oído hablar acerca de una nueva tendencia en el mundo de blockchain. Un nuevo fenómeno que está acaparando los titulares de diversos medios. Cromos digitales de futbolistas, cartas con jugadas icónicas de la NBA, obras de arte digitales, o incluso el primer tweet publicado por el fundador de Twitter. Se trata de tokens no-fungibles, más conocidos por su forma abreviada: NFT (del inglés, Non-Fungible Token), que se están vendiendo por millones de dólares en Internet. Gatitos digitales A priori, cuando hablamos de “nueva tendencia”, podemos creer que se trata de concepto muy reciente o novedoso. La realidad es que no lo es tanto. Los NFT llevan con nosotros ya varios años. En concreto, existen desde 2017. Una de las primeras apariciones fue CryptoKitties, un popular juego basado en la tecnología blockchain que permite a los usuarios comprar, criar y vender gatitos digitales. Sí, hablamos de gatitos digitales… Para muchos el intercambio de gatitos en el mundo virtual puede parecer un tanto siniestro, incluso absurdo. Lo importante es el trasfondo de este simple juego, ya que, por primera vez, posibilita el intercambio de valor digital de forma descentralizada, de usuario a usuario, sin intermediarios ni censura, donde cada usuario es dueño y propietario de su activo digital. El valor de cada gatito lo establece su dueño, y en gran medida, depende de la demanda del mercado y de su propia “rareza”. Cada uno de estos gatitos tiene un ADN y una serie de atributos que lo hacen único, y por tanto exclusivo, coleccionable. Una de las ventas más altas de la plataforma alcanzó los 246 Ether (la criptomoneda de Ethereum), que por aquel entonces equivalían a 125.000 dólares. Hoy en día se estima que su precio haya multiplicado por cuatro. «Cromos» de baloncesto Tras la fuerte acogida de Cryptokitties, que llegó hasta a colapsar la red principal de Ethereum, han surgido muchas nuevas variantes de este juego tan popular. Sus mismos creadores, Dapper Labs, han lanzado junto con la NBA una plataforma llamada Top Shot donde los ítems coleccionables son jugadas icónicas del baloncesto americano: un mate, un triple, o cualquier otro momento especial. Estos ítems tienen formato audiovisual y cada uno está respaldado por un NFT. Uno de estos coleccionables, un mate de Lebron James, superó la franja de los 200.000 dólares en una subasta. Figura 1: Coleccionables de TopShot https://nbatopshot.com/marketplace El baloncesto no es el único deporte presente en el coleccionismo digital. En el mundo del fútbol, nos encontramos la plataforma Sorare, centrada en cromos digitales de cualquier tipo de liga de fútbol. En este caso, se trata de cartas caracterizadas con la fotografía y datos del futbolista, cuya cifra record supera los 290.000 dólares por una venta del cromo digital de Cristiano Ronaldo. Muy lejos del precio que costaba un paquete de cromos cuando tratabamos de completar el album de la liga. Otros como la Fórmula 1, donde se está “tokenizando” cosas que ni te imaginarías, como un tramo del emblemático circuito de Mónaco, una pieza de monoplaza e incluso los cascos y guantes de cada piloto. La multinacional Nike apuesta por patentar su propio sistema de zapatillas tokenizadas respaldada por NFT, a las que ha bautizado como CryptoKicks. Con esta solución además de establecer un vínculo con sus clientes, trata de garantizar la autenticidad de las zapatillas y erradicar las falsificaciones del mercado. Arte digital Los artistas tampoco se quedan fuera de esta fantasía. El grupo de música Kings of Leon ha presentado su nuevo álbum en formato NFT. Y un artista conocido como Beeple ha vendido su obra de arte digital titulada “Everydays: The First 5,000 Days” en una subasta histórica por 69,3 millones de dólares. La mayoría de las plataformas crean un ecosistema completo alrededor de los tokens, no solo ganando dinero por la venta, si no por medio de competiciones, retos y dinámicas. Además, las posibilidades se multiplican cuando hablamos de un contexto descentralizado, donde cualquier aplicación puede “hablar” con otra para intercambiar tokens de distinta naturaleza. Existen marketplaces como OpenSea donde se oferta todo el catálogo de NFT, donde puedes comprar cualquiera y llevártelo a otra aplicación que sea compatible. Por ejemplo, puedes comprar el cromo de un futbolista y utilizarlo en Sorare para formar tu propio equipo de futbol. También, puedes encontrar cosas tan locas como una obra de arte del famoso artista callejero Bansky, quemada para ser convertida en un NFT. Figura 2: Subasta de “Morons” (Bansky) en OpenSea La fiebre de los NFT está viviendo un momento histórico. Todo cuanto nos rodea está convirtiéndose al mundo virtual en forma de activo digital. Y aquí lo importante no es la trazabilidad de dicho activo, como ya hemos hablado en algún otro artículo, si no el valor transferible que adquiere por el simple hecho de existir en la red, en un mercado lleno de inversores y coleccionistas. Lo que hay detrás de un token no fungible (NFT) Un token es un activo digital que representa cualquier cosa del mundo físico o abstracto y que adquiere valor en una red de blockchain. Hablamos de que es “no fungible” cuando no se puede repetir, es decir, es algo único y exclusivo como, por ejemplo, la propiedad de tu casa. Si la transfieres, dejas de poseerla y no puede ser reemplazada por otra igual. Por contra, un token es “fungible” cuando tiene un igual, un gemelo por el que puede ser reemplazado. Por ejemplo, el dinero es un bien fungible: una moneda de 50 céntimos es igual que cualquiera del mismo valor y podría ser remplazada. Toda la lógica de un token está codificada en un contrato inteligente, o Smart Contract. En este contrato se establecen los atributos que lo definen: el nombre, la descripción, el propietario, etc… y, además, contiene los métodos o acciones que va a poder desempeñar: la transferencia de propiedad, la consulta de dueño, la consulta de atributos, entre otras. Actualmente la mayoría de NFT funcionan en la red pública de Ethereum. De hecho, el contrato inteligente que les da forma no es más que un estándar (ERC-721) desarrollado por la comunidad para propiciar la interoperabilidad entre aplicaciones, para que todas “hablen el mismo idioma”. ¿Qué pasa cuando compras un NFT? Desde tu wallet se manda una propuesta de transacción al contrato inteligente. Esta propuesta incluye el identificador del token, el precio de compra y el nuevo propietario. Una vez validada por toda la red, la transacción se registra en la cadena de bloques, es decir, se deja constancia del cambio de propietario y el valor transferido al vendedor. A partir de este momento, tu eres el dueño del token. Tu decides si transferirlo, venderlo, conservarlo o utilizarlo en otras aplicaciones. El contrato inteligente asegura que nadie va a poder actuar en tu nombre, ni modificarlo. Cualquier usuario puede verificar que el token te pertenece, ya que toda la información queda anclada en la cadena de bloques de forma inmutable y transparente. Las aplicaciones hacen esta misma consulta, para mostrar a cada usuario su cartera de coleccionables. Llegados a este punto, podemos pensar que se trata del mecanismo perfecto para digitalizar, identificar y autenticar cualquier activo. Sin embargo, existen muchos retos por delante como, por ejemplo, las altas comisiones de la red de Ethereum, que en algunos casos supera con creces el propio valor del NFT; y la interoperabilidad entre redes blockchain, crucial para el futuro de esta tecnología y en lo que estamos trabajando en el equipo de Blockchain de Telefónica. Y muchos otros desafíos tecnológicos y regulatorios más. El estrecho vínculo entre el mundo físico y digital es cada vez más una realidad. Blockchain se convierte en la tecnología perfecta para crear e intercambiar valor digital en la red, transformando por completo la forma en la que nos relacionamos. Para mantenerte al día con el área de Internet of Things de Telefónica visita nuestra página web o síguenos en Twitter, LinkedIn y YouTube GOOD TECH TIMESArtificial Intelligence of Things, o cómo las cosas planean hacernos la vida más sencilla