Big Data y sostenibilidad, una relación clave para el futuro

Jorge A. Hernández    5 abril, 2023

Generalmente asociada con las grandes empresas, la Big Data tiene un potencial gigantesco para la creación de mejores políticas ambientales y sociales. Conozca esta tendencia de sostenibilidad y tecnología.

Con un mercado estimado en más de 273 mil millones de dólares para 2026, la Big Data es una tecnología transversal que afecta a innumerables verticales de mercado y organizaciones gubernamentales e independientes. Dentro de ellas, las encargadas de estimular la sostenibilidad.

Un ejemplo de esta tendencia lo dan las Naciones Unidas que, desde 2015, incluye a la Big Data como una de las grandes herramientas para alcanzar los Objetivos de Desarrollo Sostenible (ODS) o Sustainable Development Goals (SDG).

Según documentos de la ONU esta tecnología podría arrojar luz sobre disparidades sociales que antes permanecían ocultas. Porque la Big Data es una tecnología crítica para dar visibilidad en un mundo plagado de datos.

Algunos ejemplos

Uno de los casos más conocidos de Big Data con gran impacto ambiental es la movilidad en las grandes ciudades. Gracias a esta tecnología es posible construir mejores rutas de transporte y conocer qué partes de la ciudad son más complicadas, generando mayores demoras y consumo de combustible.

Pero esta es apenas una muestra del potencial del Big Data como un componente vital en la construcción de las smart cities. En Colombia, por ejemplo, la información generada por su capital (Bogotá) es recibida y analizada en la agencia de analítica distrital (Agata) para ser usada en la construcción de políticas locales.

Otro ejemplo positivo es la recolección de basura en los centros urbanos. Por medio del Big Data es posible conocer en qué sitios se acumulan mayor cantidad de desperdicios para determinar rutas más frecuentes. La Big Data también se usa para determinar el cubrimiento educativo, de seguridad y salud.

Calidad de datos y naturaleza

Obviamente la Big Data no trabaja sola y solo es tan eficaz como la cantidad y calidad de datos con la que es alimentada. Una información que puede venir de fuentes tan diversas como imágenes satelitales hasta sensores (IoT) en los campos agrícolas. Además esta información debe ser suministrada a procesos de analítica e Inteligencia Artificial para detectar patrones y anomalías, entre otras posibilidades.

Y así como el Big Data puede dar mayor visibilidad de lo que pasa realmente en las ciudades, lo mismo ocurre con el planeta. Esto incluye la deforestación, el nivel de agua en los océanos y el deshielo de los casquetes polares, entre otras variables.

Esta información es más importante que nunca porque el planeta se encuentra en un delicado balance con cientos de especies en peligro de extinción y miles de bosques perdidos cada año. Pero ahora, gracias al Big Data podemos darle cifras a esta cruda realidad para tomar medidas en serio que nos ayuden a construir un planeta mejor.

Si quiere conocer o adquirir las soluciones de Big Data que Movistar Empresas tiene para impulsar la transformación digital de tu negocio ingrese aquí.

Foto de rawpixel

¿Qué son y cómo impactan al mundo las Generative Adversarial Networks (GAN)?

Jorge A. Hernández    5 abril, 2023

Alguna vez se ha preguntado ¿cómo fue posible el desarrollo de plataformas de Inteligencia Artificial tan disruptivas como Midjourney o Dall-E?  La respuesta tiene mucho que ver con una sigla: GAN o Generative Adversarial Networks.

En los últimos 24 meses hemos sido testigos de una explosión en el uso de la Inteligencia Artificial que ha sido protagonizada por una variante llamada IA Generativa, que debe su nombre precisamente a su capacidad de generar cosas que no existían.

En otras palabras, se trata de una IA generadora de contenido. Pero esta tendencia ya existía, lo que la ha hecho saltar al escenario recientemente ha sido una técnica llamada redes generativas antagónicas (GAN) que consiste en poner a dos inteligencias artificiales a competir entre sí.

Gracias a este método, desarrollado inicialmente por el científico informático estadounidense Ian Goodfellow, en 2014, nacieron las plataformas que ahora están en boca de todos. Los sistemas para crear imágenes a partir de texto como Midjourney y Stable Diffusion o para crear música, a partir de textos, como MusicLM, entre otros.

¿Cómo funciona?

Para entender un poco lo revolucionario de estas redes GAN debemos recordar el sistema tradicional de entrenamiento supervisado de las inteligencias artificiales. En este método se introducen datos, en un modelo de cómputo, y estos generan un producto (output) que es comparado con una base de datos.

Las redes GAN no necesitan de esta supervisión y se entrenan entre sí, memorizando constantemente. De esta forma, se crean dos IA donde una será llamada el “Generador”, que hará lo posible por engañar a su colega que será conocida como el “Discriminador”.

Estas dos redes enfrentadas crean un círculo virtuoso donde cada una mejorará constantemente. En caso de que el discriminador rechace un objeto, el generador aprenderá de la experiencia y creará una pieza superior. De igual forma, si lo engañan, el generador creará nuevos parámetros para ser más exigente.

¿Para qué sirve?

Aunque su fama reciente se ha dado por la generación de textos a imágenes, los usos posibles de las GAN apenas se están conociendo. Por ejemplo, en criptografía, al enfrentar a dos IA se pueden crear sistemas de seguridad más avanzados que los actuales.

Otro uso, ya en manos de muchos, es la mejora de resolución de las imágenes. ¿Recuerda esas aplicaciones para arreglar las fotos viejas desenfocadas o con mala calidad de imagen?  De eso se trata.

Otro uso es en la predicción de fotogramas de vídeo permitiendo experiencias más inmersivas en videojuegos o en realidad virtual.

Pero tal vez su mayor potencial sea en la creación de contenido, dando herramientas nunca vistas a los creadores para generar vídeos, historietas, novelas y canciones que podrían transformar la industria del entretenimiento. Lo único cierto, es que hasta ahora estamos comenzando.

Si quiere conocer o adquirir las soluciones digitales que Movistar Empresas tiene para impulsar la transformación digital de tu negocio ingrese aquí.

Foto de rawpixel

Repensar el consenso para un Blockchain más sostenible: de PoW a PoS

Jorge Ordovás    5 abril, 2023

Mantener un registro de información en redes públicas de Blockchain (como Bitcoin, Ethereum u otras) implica resolver el denominado “Problema de los generales bizantinos”: varios contingentes de un mismo ejército cercan una ciudad enemiga, y tienen que ponerse de acuerdo, en un entorno hostil (donde los emisarios que se envíen entre los distintos campamentos podrían ser asesinados por el enemigo, y perderse los mensajes; o peor, con potenciales traidores entre ellos, que pueden matar a los emisarios, o alterar las órdenes recibidas) para atacar de forma coordinada la ciudad.

Si consiguen que la suma de la mayoría de las fuerzas de que disponen ataque a la vez, podrán ganar la batalla (pero si no consiguen un número mínimo de fuerzas que ataquen de forma coordinada, perderán).

Cómo coordinarse cuando no existe una autoridad centralizada

En el ámbito de las redes públicas de Blockchain el reto es cómo poner de acuerdo a los distintos usuarios de la red, conectados entre sí por un medio inseguro (conexiones P2P a través de Internet) en el que es posible que la información no viaje uniformemente (o incluso sea alterada, o se pierda por el camino) para que tomen de forma coordinada una decisión (cual será el siguiente bloque de la cadena, y por tanto, qué transacciones se reconocen como válidas) sin que exista una autoridad centralizada que dirija el proceso.

La clave para resolver este problema es aplicar teoría de juegos, implementando un mecanismo denominado “prueba de trabajo” (Proof of Work o PoW). Su objetivo es incentivar el comportamiento de unos actores, los mineros, para que utilicen su capacidad de cómputo generando nuevos bloques que contienen información aceptada de forma consensuada por toda la red, siguiendo las reglas definidas en una competición que implica realizar cálculos muy costosos computacionalmente.

A cambio de esa labor los mineros reciben una compensación (en el caso de Bitcoin obtienen 6,25 bitcoins más las comisiones de las transacciones incluidas en los bloques que generan).

El “problema del 51%”

Potencialmente un minero que tuviera una mayoría de la capacidad de computación global de estas redes (por ejemplo, por disponer de ordenadores cuánticos…) podría alterar su funcionamiento provocando sucesos no esperados (ralentizar la confirmación de nuevas transacciones, bloquear los pagos relacionados con una entidad específica, o provocar bifurcaciones de la cadena de bloques de forma premeditada que le permitiera gastar dos veces una misma criptomoneda a cambio de bienes o servicios ya consumidos). A esta situación se le conoce como “problema del 51%”.

En la práctica, sin embargo, si un minero consiguiera esta capacidad de cómputo y la utilizara para generar comportamientos anómalos como los identificados el principal perjudicado sería él mismo, puesto que provocaría una crisis en la red que pondría en riesgo seguir obteniendo más recompensas por generar nuevos bloques, por no hablar del probable crash en el mercado que haría derrumbarse el precio de la criptomoneda existente en dicha red (y por tanto, los ingresos que obtiene por su actividad).

Resulta mucho más productivo para este minero seguir las reglas definidas y obtener ese rendimiento que “hacer trampas” y arriesgar el retorno de su inversión en la infraestructura necesaria para conseguir esa capacidad de computación.

El impacto medioambiental de las tecnologías Blockchain

Para que este resultado se garantice, el “efecto red” es clave (la cantidad de mineros trabajando en la red para competir por la generación de nuevos bloques). Cuanto mayor sea el coste para conseguir un porcentaje relevante de la capacidad de cómputo de la red, mayor será el incentivo para dedicar dicha infraestructura al cumplimiento de las reglas establecidas en dicha red.

Y ahí es donde nos encontramos con un problema: el impacto medioambiental de estas tecnologías, a medida que se ha incrementado la capacidad computacional de redes como Bitcoin, que requieren de hardware especializado y consumen grandes cantidades de electricidad para su funcionamiento.

En la gráfica se puede observar cómo la curva que representa la capacidad computacional de la red de Bitcoin a lo largo del tiempo no para de crecer, superando en la actualidad 200 trillones de operaciones por segundo.

Gráfico: Capacidad computacional de la red de Bitcoin, en https://www.blockchain.com/charts/hash-rate
Gráfico: Capacidad computacional de la red de Bitcoin, en https://www.blockchain.com/charts/hash-rate

Si bien hay un debate abierto sobre este impacto de la minería en redes públicas de Blockchain, comparativamente con otras actividades que también demandan un uso intensivo de infraestructura y generan también una importante huella medioambiental, y pese a que hay cada vez más proyectos que tratan de aprovechar energías renovables para la minería, existe un problema real derivado de la necesidad de energía para sostener el proceso de PoW y se plantean distintas iniciativas para modificar radicalmente la forma en que una red de Blockchain alcanza el consenso, destacando la alternativa que denominamos Prueba de Participación (Proof of Stake o PoS).

Cada vez más proyectos Blockchain tratan de reducir el consumo de energía y aprovechar fuentes de origen renovable

El objetivo de sustituir PoW por PoS en redes públicas de Blockchain es conseguir un mecanismo que sea tan seguro como la minería, pero que no esté basado en la necesidad de capacidad de cómputo para participar en el proceso de validación de nuevos bloques, sino en un proceso aleatorio en el que cuanta más criptomoneda de la red se posea, más probabilidades existen de ser elegido para generar un nuevo bloque (y recibir una recompensa por ello).

El caso más relevante de transición de PoW a PoS es el de Ethereum, la red pública por excelencia para el uso de smart contracts en servicios descentralizados. Desde el inicio de Ethereum en 2015 ya se contemplaba a futuro esta transición, pero no se ha iniciado hasta el año 2020.

Beacon Chain, nuevo mecanismo de consenso para Ethereum

En este año se empezó a desplegar una red denominada Beacon Chain que es la encargada de gestionar este nuevo mecanismo de consenso en Ethereum. Esta red, en pruebas desde agosto de 2020, se integrará con la red principal de Ethereum en los próximos meses, en un evento denominado The Merge que transformará la manera en que esta red alcanza el consenso en la generación de nuevos bloques sin afectar a todos los smart contracts, datos y servicios basados en ellos que existen en la actualidad. Un reto más que considerable, teniendo en cuenta el volumen de negocio que gestiona.

Cuando esto suceda ya no existirán mineros, sino validadores que previamente habrán realizado un depósito de 32 Ether (la criptomoneda de Ethereum) como garantía para participar en el proceso de selección de los actores que generarán y validarán nuevos bloques en la red de Ethereum.

A la fecha en que escribo el artículo, el valor de ese depósito de 32 Ether asciende a unos 98.000 dólares, y existen ya más de 351.000 validadores que han depositado más de 11 millones de Ether para ser elegidos y participar en el proceso.

Gráfico: Estadísticas de la Beacon Chain, en https://beaconcha.in/
Gráfico: Estadísticas de la Beacon Chain, en https://beaconcha.in/

En cada ronda la Beacon Chain elige aleatoriamente, de entre todos los validadores disponibles, uno denominado proposer, que será quién decida el nuevo bloque a generar en Ethereum y las transacciones que irán recogidas en él, y un conjunto de validadores que actuarán como attester revisando y aceptando (o no) ese bloque generado, para que sea incorporado a la red (a un ritmo de un nuevo bloque cada 12 segundos).

Cómo funciona Beacon Chain

Este proceso no requiere de complicados cálculos como el caso de PoS, por lo que no se necesita una capacidad de cómputo relevante para ser un validador, únicamente ejecutar un software específico que permite conectar con la Beacon Chain y participar en el mecanismo de consenso.

Si durante ese proceso tanto proposer como attester se comportan correctamente recibirán una recompensa por su labor (más alta en el primer caso). Si no responden cuando son elegidos, o se comportan de forma incorrecta, recibirán una penalización (cuyo importe depende del daño que su comportamiento pueda provocar en el funcionamiento de la red), que se detraerá del depósito que realizaron para ser elegibles en el proceso.

Beacon Chain incentiva el cumplimiento de las reglas del juego de Ethereum: comportarse correctamente maximiza el beneficio

Si un actor es penalizado de forma recurrente podrá incluso llegar a perder todo su depósito y ser expulsado como validador, por lo que este mecanismo incentiva el comportamiento según las reglas definidas, para generar nuevos bloques en la red de forma coordinada y segura.

La probabilidad de ser elegido en el proceso es directamente proporcional al número de depósitos realizados, por lo que quien más cantidad de Ether haya aportado como garantía, más probabilidades tendrá de ser seleccionado, y por tanto, mayor rendimiento obtendrá con el nuevo proceso de PoS.

Pura teoría de juegos: puesto que comportarse correctamente maximiza el beneficio, y hacer trampas lo minimiza, quien más Ether tenga más incentivado se verá a jugar según las reglas (por la cuenta que le trae).

La evolución de Ethereum

La evolución de Ethereum no se queda únicamente en la migración de PoW a PoS, existen más fases en el futuro para incrementar la capacidad de la red mediante múltiples cadenas de bloques donde estarán desplegados los smart contracts, que funcionarán en paralelo, y la Beacon Chain será quien se encargue de garantizar la seguridad y coordinar el proceso de generación de nuevos bloques en todas las cadenas que compondrán Ethereum.

Pero todavía no hay siquiera una fecha definida para esa fase final, quedan muchas decisiones por tomar, desarrollos y pruebas por realizar. Y previo a todo, confirmar que 2022 será el año de The Merge si no sucede nada imprevisto con el proceso de implantación de Proof of Stake sobre la red actual. Rien ne va plus, o como dicen en este ecosistema descentralizado, WAGMI (We All Gonna Make It).

Foto principal: Bastian Riccardi / Unsplash

Deja un comentario en Repensar el consenso para un Blockchain más sostenible: de PoW a PoS

Cuando el ego profesional compite con el objetivo empresarial

Raúl Alonso    5 abril, 2023

Íñigo es ingeniero y responsable de Calidad en una pequeña empresa de ascensores. Hace unos meses recibió el encargo -desde Dirección General- de gestionar los cambios de operativa impuestos por unas certificaciones necesarias para lograr la expansión internacional y, en concreto, para la homologación como proveedor de un prometedor cliente de Reino Unido. Y como ya intuyes, esta historia avanza hacia un final incierto por culpa de la jerarquía y el ego que dominan tantas relaciones laborales.

Íñigo es un profesional metódico y eficiente, cualidades que en esta misión le sirvieron para diseñar el plan de actuación y el calendario que cada departamento debía acometer. Íñigo también es una persona de pocas palabras, prefiere hacer que pedir con tal de evitar el enfrentamiento. Esas características le llevaron a demorar la supervisión de los cambios pedidos a cada director de departamento, todos ellos de rango superior al suyo.

Su especial carácter evitó que pensara en la trascendencia de respuestas como “no voy a cambiar ahora mi forma trabajar”, “no hay personal para hacer eso” o la que le dirigió el director financiero: “Si necesitas esos datos, tendrás que buscarlos tú”, y menos aún pensó en reportar a la Dirección General, de donde recibió el encargo pero ningún apoyo.

Y al prometedor cliente británico le entraron las prisas: antes de lo previsto comunicó que adelantaba la visita para la homologación de proveedores. Como los cambios no estaban hechos, aquel cliente se perdió, cerrándose de momento la entrada a ese importante mercado.

Confirmado el desastre, la Dirección General convocó una reunión urgente con los directores de departamento, en la que todos se llevaron las manos a la cabeza poco antes de hacerlo al cuello de Íñigo. El responsable de Calidad de la empresa, y casi accidental encargado de este proyecto, se sintió impotente.

El ego profesional no entiende de objetivos de empresa 

Sin duda, en esta historia confluyen muchos elementos y errores, pero ahora me interesa uno muy humano, el ego mal entendido, ese que nos lleva a creernos superiores a otros, razón por la que estos directores de departamento despreciaron sin valorarla la importante labor de Íñigo.

Quizá todo hubiera sido muy distinto si el responsable de Calidad de esta pyme hubiera tenido la habilidad de involucrar a la Dirección General de forma más efectiva, porque en el funcionamiento de las organizaciones jerarquizadas de siempre, y también de las de hoy, hay mucho de ‘ordeno y mando’.

Y quizá no lo hizo porque la jerarquización prefiere la sumisión a la iniciativa. Íñigo no sabía cómo solicitar el esfuerzo y compromiso que ahora necesitaba de unos compañeros de trabajo a los que consideraba en un escalón superior. Él había aprendido que en estas organizaciones se vive mejor ejecutando órdenes que mostrando iniciativa.

La imposición del ego dominante

Puede que una situación similar se esté viviendo hoy en otras empresas, incluso con una cultura menos jerarquizada que la que caracteriza a las de producción de bienes. Veamos qué pasa en una de las miles de pymes españolas que aún siguen trabajando en su digitalización, proceso que genera tensiones entre el encargado de pilotar el cambio y los compañeros que deben romper una dinámica de trabajo de años.

En este otro supuesto, Irene es la encargada de digitalización, es una persona decidida, que organiza e implica con la misma energía con la que exige y supervisa. Todo va bien hasta que tiene que trabajar en la transformación digital de un departamento cuyo responsable, un “histórico” en la empresa, se resiste al cambio. Pero Irene no se amilana fácilmente, tanto que saca a pasear su ego, convirtiendo en enfrentamiento personal lo que tan solo debería ser un cambio estratégico en la gestión de la compañía. Y este es un ejemplo de cómo el ego profesional se antepone al objetivo empresarial, tanto en las empresas jerarquizadas como en las de estructura más horizontal.

La duda es saber hasta qué punto la lucha de egos envenena muchas de las decisiones estratégicas que la empresa toma en sus comités y órganos de dirección: ¿siempre se toma la decisión más conveniente para la empresa o la que impone el ego dominante?

Ego saludable y ego negativo 

Puede que veas reflejado en estos comportamientos algo de ti. Es normal, todos tenemos ego, incluso podemos añadir que de dos tipos:

  • Ego positivo: reconoce nuestra individualidad, motiva para dar lo mejor cada día, acompaña la ambición y anima a defender la opinión propia frente a otras, pero valorando las consecuencias.
  • Negativo: bloquea el entendimiento para tratar de ocultar debilidades, miedos o frustraciones. Es un ego que además obliga a comportarse con egoísmo, sin que importe envenenar la relación laboral con tal de imponer nuestro criterio.

Seis hábitos para controlar el ego negativo 

Todos tenemos ambos tipos de ego. Por eso lo importante es analizarnos, para saber cuál se impone y, en su caso, aprender a controlar el ego negativo.

  1. Identifica y aísla. Es un tipo de sentimiento que no es fácil erradicar, por lo que hay que aprender a vivir con él. El consejo es trabajar individualmente para identificar esos detonantes que nos conducen a una situación de ego negativo y, una vez aislados, aprender a controlarlos. Si, por ejemplo, sabemos que somos muy suspicaces frente a los comentarios de otros, deberemos aprender a controlarnos antes de responder. Hay que tener en cuenta que el ego negativo es para muchos una forma de defensa frente a una debilidad propia.
  2. No siempre se tiene la razón. Errar es humano y, por tanto, es mejor reconocer con humildad y agilidad un error propio que mantenerlo hasta sus últimas consecuencias. Y este es el origen de muchas de las luchas de ego laboral.
  3. Controla el deseo de triunfo. Ganar es importante, pero no debe ser el principal motor vital, ya que genera frustración. Y cuando ganes, comparte ese triunfo con el equipo o con quien te rodea.
  4. Establece relaciones de igualdad, también con tu equipo. Cuando la relación laboral se establece desde la igualdad y el respeto mutuo, es más fácil mantener a raya el ego, el propio y el de los demás. Más importante que demostrar es colaborar.
  5. Practica la empatía: escucha. Una de las claves para combatir el ego perjudicial es hacer el esfuerzo de compartir desde la comprensión los problemas y alegrías de los demás, para lo que es imprescindible practicar la escucha activa.
  6. Esfuérzate por seguir aprendiendo. La formación nos recuerda cuánto nos queda por aprender, sentimiento de gran utilidad para mantener el ego profesional a raya.

Jóvenes y tecnología: las claves para convertir los peligros en oportunidades

María Riesgo    4 abril, 2023

El mundo de la tecnología avanza considerablemente rápido. Si echamos un vistazo atrás, no podríamos imaginarnos la posibilidad de conectarnos a un ordenador sin interrumpir el teléfono fijo de casa o contestar un email desde el teléfono móvil.

Vivimos acompañados de la tecnología desde que nos despertamos hasta que nos dormimos. ¿Qué es lo primero que solemos hacer nada más abrir el ojo? Casi seguro que revisar el móvil o, incluso, consultar nuestras redes sociales.

Hace años, cuando éramos más pequeños, no vivíamos pegados a un móvil, ni a las redes sociales, ni a todo lo que implican las mismas. De hecho, teníamos que pedir permiso para conectarnos a Internet y utilizar las redes sociales de la época.

Ahora los jóvenes tienen un doble matiz:

  • Son puramente tecnológicos y han nacido con un teléfono debajo del brazo.
  • Están demasiados expuestos a la tecnología y esto podría ser un riesgo, o quizás una oportunidad.

¿Por qué la tecnología puede suponer un peligro?

La exposición a las redes sociales puede ser dañina si no se utilizan con responsabilidad. Para ello, es fundamental educar a los niños y a los adolescentes en las buenas prácticas del uso de la tecnología.

¿Cómo evitarlo?

Hay que enseñar a los niños que no hay que depender de la tecnología, sino que hay que utilizarla como un juego, con unos horarios establecidos y bajo supervisión. Que la tecnología es un complemento de su crecimiento, pero que no deben invertir todo su tiempo en ella. De hecho, deben potenciar su imaginación y no acostumbrarse a la inmediatez que proporciona Internet.

Avanzando en las etapas de la infancia, y llegando a una edad más madura, hay que concienciarles sobre los problemas de seguridad a los que podrían exponerse si utilizasen las redes sociales de manera poco segura. Por ejemplo, compartiendo datos personales, enviando fotos a desconocidos, o fiándose de personas que no conocen en el mundo real.

De hecho, este concepto es muy importante. Hay que hacerles entender que no todo lo que ocurre en internet es real, que no deben creer todo lo que ven. Incluso una imagen de una persona podría estar alterada, por ejemplo, a través de deep fakes, una persona podría hacerse pasar por otra, y engañar a su víctima para conseguir su objetivo, que nunca va a ser bueno.

A la par que enseñamos a prevenir las conversaciones con desconocidos, habrá que concienciar acerca del no acoso. A la vez que se educa en la empatía y en el respeto, habrá que hacer hincapié en el ciberbullying.

Tal y como estamos desarrollando, las redes sociales pueden suponer un impulso para sociabilizar, aprender y desarrollar la imaginación. No obstante, también pueden presentar peligros, entre ellos el ciberacoso, por lo que es muy importante enseñarles que deben respetarse a sí mismos y no deben descuidar la privacidad de sus datos y de su imagen y que, por otro lado, deben respetar a los demás y no difundir contenido acerca de compañeros, o amigos del entorno social.

Por tanto, conviene enfocar el uso de la tecnología en algo positivo y de lo que se puede aprender mucho, pero sin olvidar los peligros que pueden presentarse si no “ponemos un antivirus”, a través de la educación, a los más jóvenes.

¿Por qué la tecnología supone una oportunidad?

Porque si se despierta el interés en la tecnología desde jóvenes, puesto que están en pleno contacto con ella, podría ser una oportunidad para ellos, ya que podrían empezar, por ejemplo, a programar desde muy pequeños, identificando esa tarea como un juego.

¿Cómo fomentarlo?

Por ejemplo, a través de la programación, que es uno de los lenguajes de la sociedad digital. Si desde pequeños enfocan programar como un juego de aprendizaje. Si finalmente les gusta, podrán especializarse y avanzar en cursos más específicos de programación. Por ejemplo, empezando por code.org, donde de hecho, José María Álvarez-Pallete es promotor junto a figuras como Barack Obama, Mark Zuckerberg, Jeff Bezos o Susan Wojcicki.

De este modo, a través de plataformas como code.org, pueden transformar un interés, que desde un principio se puede inculcar como un aprendizaje a través del juego, en un reto, en ir avanzando en conocimiento tecnológico a la vez que van creciendo.

Así pues, conociendo los peligros, potenciando el conocimiento y el aprendizaje continuo, quién sabe si en un futuro pueden llegar a plantearse ese juego como un impulso a formarse y terminar trabajando de ello. Ya que, además, hay una enorme oferta en el mundo de la ciberseguridad, que va creciendo exponencialmente cada año.

Necesitamos impulsar a los jóvenes desde niños a jugar y emocionarse con el aprendizaje de todo lo que les puede ofrecer la tecnología y, a la vez, concienciarles de los peligros sin asustarles.

Enseñarles también que los hackers no son los malos del cuento, los peligrosos son los que utilizan la tecnología con el fin de hacer el mal. Pero es importante diferenciar esas dos figuras ya que, quien sabe, si en un futuro terminan siendo hackers y desarrollando herramientas para detectar fallos de seguridad y proteger a clientes, o usuarios, de los peligros que les enseñaron desde pequeños.

De este modo, si los más jóvenes desarrollan la inquietud por protegerse y proteger a los demás, también podrían desarrollar inquietud en el análisis de, por ejemplo, las redes sociales. De cómo un simple tuit puede convertirse en viral y de cómo podrían ir consultando día a día si la tendencia de ese mensaje sigue al alza o por lo contrario ya no se habla de ello. A través de este pequeño juego o inquietud visual, sin darse cuenta, estarían ejerciendo de analistas de ciberinteligencia, haciendo un estudio básico sobre una tendencia en redes sociales.

Por otro lado, habiéndoles enseñado acerca del ciberacoso (cyberbullying), podremos avanzar en su aprendizaje sobre las redes sociales explicándoles que, si encuentran algún comentario negativo hacia cualquier persona, o incluso marca comercial, y lo detectan estarán también haciendo un proceso de aprendizaje sobre comentarios ofensivos en las redes sociales, un tema muy solicitado por empresas, ya que la imagen en redes sociales ha de ser un tema muy cuidado y vigilado.

Conclusión

La educación tecnológica tiene que ir superando etapas de aprendizaje, a la par que los niños van creciendo. Poco puede servirnos explicar a un niño muy pequeño el peligro del phishing o de un ransomware sin un contexto previo. Es por ello que en las primeras etapas habrá que acompañarlos en el uso de la tecnología, para supervisar lo que hacen y lo que aprenden.

En definitiva, aprovechar la educación y la protección para despertar su interés sobre cómo utilizar Internet de forma segura, y en cómo poder avanzar en conocimientos para poder superarse paulatinamente.

Siempre se dice que los niños son el futuro del mundo, pues en este caso, son el futuro de la tecnología y de la ciberseguridad tal y como la entendemos ahora, y tal y como progresará gracias a ellos en unos años.

Foto de apertura: Robo Wunderkind / Unsplash

ChatGPT: ¿penalizará Google el SEO de tu web por utilizar inteligencia artificial?

Edith Gómez    4 abril, 2023

ChatGPT es una herramienta de inteligencia artificial (IA) que utiliza una tecnología de procesamiento de lenguaje natural avanzado. Esto quiere decir que es capaz de mantener conversaciones con otra persona, generar contenido de alta calidad o traducir textos.

Pero si hay algo que nos ha dejado a todos impresionados es su capacidad de responder a preguntas muy concretas sobre cualquier tema.

Y aquí está el quid de la cuestión para muchas marcas: ¿se pueden generar contenidos con esta herramienta y ahorrar tiempo en una estrategia de contenidos? ¿Afectará al SEO de forma negativa? ¿Qué debemos saber para utilizarla de manera efectiva y ética?

¿Cuál es la posición de Google ante el uso de ChatGPT para crear contenidos?

Google se ha manifestado ante el uso de esta y otras herramientas de IA para ofrecer información. Y viene a decir lo siguiente: El uso de ChatGPT en el contenido de un sitio web puede ser beneficioso siempre y cuando mejore la experiencia del usuario y la calidad del contenido. Es decir, que no se tiene tanto en cuenta cómo se crea, sino la calidad de lo creado.

Según Google, el objetivo de sus sistemas de clasificación es recompensar el contenido original de alta calidad, independientemente de cómo se haya creado, que cumpla con lo que se denomina “EEAT” (expertise, experiencie, authoritativeness, trustworthiness, esto es, destreza, experiencia, autoridad y fiabilidad).

De hecho, en sus políticas de spam, Google ha añadido un apartado en el que dice que se debe evitar todo contenido engañoso generado automáticamente. Ese contenido engañoso es aquel que no ayuda a los usuarios, sino el que manipula el posicionamiento en Google y otros buscadores.

Ventajas e inconvenientes de usar ChatGPT en una estrategia de contenidos

El uso de ChatGPT en la estrategia de contenidos tiene sus ventajas e inconvenientes. Entre sus beneficios destacan los siguientes:

  • Ahorra tiempo y recursos a los creadores de contenido, ya que puede generar textos automáticamente e inspirar en cuestión de segundos.
  • Ayuda a estructurar el contenido y lo dota de creatividad para darle forma.
  • Puede responder a cualquier pregunta, sea del tema que sea, en el idioma que le pidas. O hacer traducciones.
  • Genera títulos y metadescripciones optimizadas para SEO.
  • Crea resúmenes, extractos o preguntas frecuentes de los usuarios.

Sin embargo, el uso de ChatGPT también tiene sus inconvenientes:

  • El contenido generado por IA puede ser demasiado genérico y despersonalizado, lo que posiblemente afecte a la calidad del mismo.
  • Además, es posible que no tenga el tono adecuado para una audiencia determinada y no cumpla con los requisitos SEO.
  • El contenido debe ser editado y personalizado para ajustarlo a las necesidades de la audiencia y asegurarnos de que cumpla con las mejores prácticas SEO.
  • Esta IA no conoce la intención de búsqueda de una keyword y puede llegar a inventársela.
  • Su acceso a datos es hasta 2021.
  • El contenido que generes con esta IA pasará a formar parte de su base de datos y podría usarse, parcial o totalmente, si otro usuario requiere esta información.

¿Cómo utilizar ChatGPT de manera efectiva?

Para utilizar ChatGPT de manera efectiva sin dañar tu estrategia de SEO, es importante seguir ciertas pautas, puesto que no se debe considerar como un creador final de contenidos.

Toma nota de estos consejos para usar ChatGPT de forma adecuada:

  • Asegúrate de que el contenido sea de calidad y útil para el usuario.
  • Da instrucciones muy precisas sobre un tema: proporciónale la palabra clave principal, el público objetivo y cómo quieres ayudar a tu audiencia.
  • Incluso puedes pedirle un listado de palabras relacionadas con esa keyword para enriquecer al artículo con palabras semánticas.
  • Usa la IA para crear títulos y metadescripciones atractivas y con gancho.
  • No la uses para pedirle que te redacte un contenido completo para tu blog o landing, tal vez te pueda servir más para obtener la estructura del contenido.
  • Crea estructura de FAQs.
  • Reescribe frases.
  • Genera fragmentos rápidos de código, como el marcado de Schema.
  • Crea correos electrónicos de seguimiento y un calendario de contenidos.
  • Escribe descripciones de productos para ecommerce.

¿Qué pasará cuando Internet se llene de contenidos generados por IA?

El uso de ChatGPT puede ser una herramienta útil en la estrategia de contenidos. De hecho, es una fuente de inspiración, que te hace ser más creativo, e incluso es útil para determinadas acciones como las citadas anteriormente. El problema vendrá cuando se usen contenidos sin modificar de la IA. ¿Cómo se lo tomará Google en un tiempo?

ChatGPT y cualquier IA se basan en contenidos preexistentes, es decir, no generan nada nuevo. Por ello, es probable que Google, aunque no te penalice si el contenido es útil y de calidad, obvie tu contenido y no lo posicione.

Por tanto, y según algunos expertos en SEO, es posible que de aquí a un tiempo Google premie a quienes creen contenido original, basándose en opiniones de expertos, y que genere engagement con el usuario.

En definitiva, ChatGPT es útil para determinadas tareas, pero es necesario que el resultado sea editado y revisado por un humano, para corregir los errores y aportar creatividad.

Imagen de rawpixel.com en Freepik

Big Data en investigación básica: de las partículas elementales a los agujeros negros

Javier Coronado Blazquez    3 abril, 2023

El paradigma Big Data ha tenido una profunda penetración en todos los estratos de nuestra sociedad, cambiando la manera en la que interactuamos entre nosotros y se llevan a cabo proyectos tecnológicos.

La investigación básica, concretamente en el campo de la física, no ha sido ajena a este cambio en las últimas dos décadas y ha sabido adaptarse para incorporar este nuevo modelo a la explotación de datos de experimentos punteros.

Hablaremos aquí del impacto de Big Data en tres de los mayores hitos de la física moderna.

(1) Large Hadron Collider: el precursor del Big Data

Una de las palabras más de moda en 2012 fue “bosón de Higgs”, esa misteriosa partícula que nos dijeron que era la responsable de la masa del resto de partículas conocidas (más o menos) y que había sido descubierta ese mismo año. Pero en cuanto a atracción mediática, el foco se centró en el instrumento que permitió dicho descubrimiento, el Gran Colisionador de Hadrones, o LHC por sus siglas en inglés, del Consejo Europeo de Investigación Nuclear (CERN).

El LHC es un acelerador de partículas, y es probablemente la máquina más compleja construida por el ser humano, con un coste de unos €7,500 millones. Un anillo de 27 km de longitud enterrado a una profundidad media de 100 metros bajo la frontera entre Suiza y Francia, que emplea electroimanes superconductores para acelerar protones hasta el 99.9999991% de la velocidad de la luz (es decir, en un segundo dan más de 11,000 vueltas al anillo).

Colisionando protones a estas delirantes velocidades, podemos crear nuevas partículas y estudiar sus propiedades. Una de estas partículas fue el bosón de Higgs.

Para asegurarse de que los protones, que son partículas elementales, colisionan entre sí, en lugar de emplearlos uno a uno se lanzan grandes paquetes, lo que resulta en unos 1000 millones de choques por segundo.

Todas estas colisiones son registradas como eventos únicos. De una sola de ellas se pueden producir miles de partículas individuales, que son caracterizadas en tiempo real (muy inferior al milisegundo) por detectores, recogiendo información como trayectoria, energía, momento, etc.

Una enorme cantidad de datos

Como nos podemos imaginar, esto produce una enorme cantidad de datos. Concretamente, unos 50,000-70,000 TB al año de datos en bruto. Y eso sólo de los detectores principales, ya que existen otros experimentos secundarios en el LHC. Al no operar todos los días del año, genera una media de 200 o 300 TB de datos; un volumen complicado -pero factible- de manejar hoy en día.

El problema es que el LHC entró en operación en 2008, cuando Big Data era un concepto muy novedoso, por lo que hubo mucho desarrollo de tecnología ad hoc. No es la primera vez, ya que Internet mismo nació en el CERN, con la World Wide Web.

En 2003 se estableció la Worldwide LHC Computer Grid (WLCG), una red formada por 170 centros de cálculo en 42 países, con un total de 250,000 núcleos disponibles que permiten más de 1,000 millones de horas de computación anuales.

Cada uno de los nodos de esta red pueden estar dedicados al almacenamiento, procesamiento o análisis de los datos.

Según las características técnicas, cada uno de los nodos de esta red pueden estar dedicados al almacenamiento, procesamiento o análisis de los datos. Para asegurar la buena coordinación entre ellos, se optó por un sistema jerarquizado en tres niveles: Tier 0 en el CERN, Tier 1 en varios sitios regionales, y Tier 2 en centros con muy buena conectividad entre ellos.

Centro de control del CERN / Foto: Brice, Maximilien, CERN
Centro de control del CERN / Foto: Brice, Maximilien, CERN

España acoge varios de estos centros de computación, tanto de Tier 1 como Tier 2, situados en Barcelona, Cantabria, Madrid, Santiago de Compostela y Valencia. Uno de los aspectos que ha fomentado este gran volumen de datos es la aplicación de algoritmos de machine learning e inteligencia artificial para buscar física más allá de lo conocido, pero eso es una historia para otro día…

(2) James Webb Space Telescope: el presente y futuro de la astrofísica

El LHC explora los ladrillos básicos que constituyen nuestro Universo: las partículas elementales. Ahora vamos a viajar al extremo opuesto, estudiando estrellas y galaxias enteras. Exceptuando los espectaculares avances en astronomía de neutrinos y ondas gravitacionales de los últimos años, si queremos observar el Universo lo haremos con un telescopio.

Debido a la rotación de la Tierra, un telescopio “tradicional” sólo podrá observar de noche. Además, el efecto atmosférico reducirá la calidad de las imágenes cuando busquemos nitidez en señales muy pequeñas o débiles. ¿No sería maravilloso poder tener un telescopio en el espacio, donde desaparecen estos factores?

Eso mismo pensó la NASA a finales de los años 80, lanzando en 1995 el telescopio espacial Hubble, que ha producido (y sigue produciendo) las imágenes más espectaculares del cosmos. La NASA se planteó hace un par de décadas cuál era el siguiente paso, y comenzó a diseñar su sucesor, el James Webb (JWST), lanzado el 25 de diciembre de 2021 y actualmente en fase de calibración.

Con un gran número de innovaciones y patentes técnicas, se decidió situar al JWST en el punto de Lagrange L2, 4 veces más lejos de nosotros que la Luna. A tal distancia, es completamente inviable enviar una misión tripulada a efectuar reparaciones, como sucedió con el Hubble, que orbita a “sólo” 559 km de la superficie terrestre.

Espejo principal de telescopio James Webb /  Image Credit: NASA/MSFC/David Higginbotham
Espejo principal de telescopio James Webb / Image Credit: NASA/MSFC/David Higginbotham

Uno de los mayores retos de diseño era la transmisión de los datos. Aunque el JWST lleva unos escudos para aislar térmicamente al telescopio, al estar tan alejado de la magnetosfera terrestre el disco duro que registra los datos debe ser un SSD (para asegurar la velocidad de transmisión) con gran protección contra la radiación solar y rayos cósmicos, puesto que debe ser capaz de operar continuamente durante al menos 10 años. Esto compromete la capacidad de dicho disco duro, que tiene unos modestos 60 GB.

Con el gran volumen de datos recogidos en observaciones, tras unas 3 horas de mediciones se puede llegar al límite de dicha capacidad.

Está previsto que el JWST realice dos descargas de datos al día, aparte de recibir instrucciones sobre el apuntado y lecturas de sensores de los distintos componentes, con una velocidad de transmisión de unos 30 Mbit/s.

Comparado con las cifras del LHC puede parecer insignificante, pero no debemos olvidar que el JWST orbita a 1,5 millones de kilómetros de la Tierra, en un entorno tremendamente hostil, con temperaturas de unos 30°C en el lado que mira al Sol y -220°C en lado en sombra. Un prodigio técnico sin parangón produciendo más de 20 TB de datos brutos al año, que tendrán ocupados durante años a la comunidad astrofísica, que ya tiene preparados robustos y sofisticados algoritmos de machine learning para explotar todos estos datos.

(3) Event Horizon Telescope: Big Data “de toda la vida”

Tanto el LHC como el JWST se caracterizan por transmitir de forma rápida y eficiente sus datos para ser procesados. Sin embargo, a veces no es tan fácil conseguir las “5 rayitas de WiFi”. ¿Cuántas veces nos hemos frustrado cuando un vídeo de Youtube se quedaba congelado y cargando por nuestra mala conexión? Imaginemos que en vez de un simple vídeo necesitamos descargar unos 5 PB de datos.

Con este problema se topó el Event Horizon Telescope (EHT), que en 2019 publicó la primera foto de un agujero negro. Este instrumento es en realidad una red de siete radiotelescopios en todo el mundo (uno de ellos en España), que unieron fuerzas para realizar una observación simultánea del agujero negro supermasivo en el centro de la galaxia M87 durante 4 días en 2017.

A lo largo de las observaciones, cada telescopio generó unos 700 TB de datos, lo que resultó en un total de 5 PB de datos dispersos por tres continentes. El reto era combinar toda esta información en un solo lugar para su análisis, que se decidió centralizar en Alemania.

Al contrario que en el LHC, no existía la infraestructura necesaria para transferencia de datos a ese nivel, ni merecía la pena desarrollarla al ser un caso de uso puntual. Por tanto, lo que se decidió fue transportar físicamente los discos duros por vía aérea, marítima y terrestre.

Uno de los radiotelescopios estaba situado en la Antártida, y hubo que esperar al verano para que el deshielo parcial permitiera tener acceso físico a sus discos duros.

La investigadora Katie Bouman (MIT), que dirigió el desarrolló del algoritmo para obtener la foto del agujero negro con el EHT, posa orgullosa con los discos duros del proyecto
La investigadora Katie Bouman (MIT), que dirigió el desarrolló del algoritmo para obtener la foto del agujero negro con el EHT, posa orgullosa con los discos duros del proyecto

En total, se transportó media tonelada de soportes de almacenamiento, que fueron procesados y analizados hasta generar la conocida imagen de menos de 1 MB. Explicar la técnica necesaria para llegar a eso nos ocuparía varios posts individuales.

Lo importante en este caso es que, en ocasiones, es más importante ser pragmático que hipertecnológico. Aunque nuestro mundo haya cambiado radicalmente en tantos aspectos gracias al Big Data, a veces merece la pena dar un toque vintage a nuestro proyecto e imitar a esos observatorios de hace un siglo que transportaban enormes placas fotográficas desde los telescopios a universidades, para ser debidamente estudiadas y analizadas.

Imagen de apertura: vista polarizada del agujero negro de M87. Las líneas marcan la orientación de la polarización, que está relacionada con el campo magnético que hay alrededor de la sombra del agujero negro. / Imagen: EHT Collaboration

FOMO versus JOMO, de la angustia al placer de perderse algo

Mercedes Blanco    3 abril, 2023

FOMO y JOMO son dos de los síndromes surgidos de la actividad digital. FOMO, acrónimo de Fear of Missing Out, miedo a perderse algo y su contrario, JOMO (Joy Of Missing Out), alegría por perderse algo, dos corrientes ante nuestra exposición digital y dos filosofías bien distintas.

Hemos pasado de la angustia y desazón de la cultura de la inmediatez a la distensión y la consciencia de disfrutar más de la vida real, esa que transcurre mientras estamos absortos en nuestras pantallas.

¿Cómo se ha gestado este cambio? ¿Es cierto que somos inmunes a la sensación de perdernos algo? No, no del todo. De hecho, tenemos una necesidad imperiosa de mirar constantemente el móvil.  Según datos de hace ya unos años, si tenemos un iPhone, lo desbloqueamos de media unas 80 veces al día y si usamos Android, unas 110 veces al día. Seguramente, este número haya aumentado considerablemente hoy.

Lo que ha cambiado es nuestro planteamiento hacia esta exposición digital. Somos más conscientes de los efectos que provocan y, por tanto, ponemos límites y barreras, no sólo temporales, sino sobre todo psicológicas. 

Un repaso al FOMO

¿Cuántas veces al día entramos a ver Instagram, consultamos la bandeja de nuestro correo electrónico o miramos Tik Tok? Muchas, y la mayoría de las veces lo hacemos por pura inercia, como cuando nos vamos a los estados de Whatsapp para dar un repaso a las últimas actualizaciones. Ni nos aporta información útil ni nuestra actividad depende de ello. Entonces ¿por qué lo hacemos?

Para contestar a esa pregunta, quizá tengamos que remontarnos a 2003. ¿Alguien recuerda cómo era nuestra vida cuando todavía no estábamos tan enganchados a las redes sociales? Hace veinte años comenzaban algunas de las redes sociales que hoy absorben nuestra atención y nuestro tiempo, como Linkedin, Facebook o Youtube.

Instagram “sólo” lleva entre nosotros diez años; Tik Tok, seis; y BeReal, tres. En apenas dos décadas hemos pasado de ser dueños de nuestro tiempo a cedérselo cada vez más a las redes sociales y otras aplicaciones. Dos décadas en las que ha ido acrecentándose año tras año esa sensación de que si no estamos en las redes, nos estamos perdiendo algo crucial para nuestras vidas. Pero no sólo eso, el síndrome FOMO lleva asociados otros efectos:

  • Ansiedad por estar en eventos que son tendencia. Muy relacionado con la cultura de la apariencia. En redes sociales se exhibe una vida edulcorada, glamurosa, con agendas maravillosas en las que abundan restaurantes de moda, conciertos que no podemos perdernos o lugares en los que si no te haces una foto y la subes, parece que no perteneces a esa tribu. Todo ello nos empuja a la comparación y a pensar que nuestras vidas son peores que la de los perfiles que publican ese mundo fantástico y -casi siempre- irreal.
  • Temor a no tener experiencias satisfactorias. Pensamos que nos estamos perdiendo todas esas experiencias de vida que otros sí disfrutan y nos enfadamos y deprimimos por pensar que nuestra vida no es tan gratificante como la pintan otros.
  • Frustración al ver publicados momentos de la vida de nuestros contactos. Mirar siempre de reojo lo que están haciendo terceras personas lleva a cuestionarse nuestra propia vida y considerarla insuficiente.
  • Imposibilidad de disfrutar plenamente de los eventos que sí son gratificantes en la vida real, si no los compartimos en las redes sociales, por ejemplo, cuando estamos en un concierto, en el teatro, en una comida familiar, etc.
  • Necesidad de subir constantemente contenidos a las redes sociales, de publicar a toda costa momentos de nuestras vidas. Es como una especie de realidad microfragmentada, aunque no sea ni esencial ni muchas veces importe a casi nadie. 

El aquí y ahora, el JOMO

Y de esta sobreexposición pasamos al extremo contrario, a cerrar perfiles en redes sociales por estrés digital. Afecta tanto a gente anónima como a las celebrities. En los últimos años personajes como Selena Gómez, Tom Holland o, ya en nuestro país, Luis Cepeda y Dulceida anunciaban el apagón de sus redes después de un excesivo foco en ellas. Es el mismo cerrojazo que han llevado a cabo mucha gente de a pie y, sorprendentemente, algunos de ellos bastante jóvenes.

Por salud mental, es una de las razones más esgrimidas en estos casos, pero también para volver a reconectarse con uno mismo. En esencia, esto es lo que significa JOMO, no sólo la alegría de perderse cosas, sino también ser conscientes de todos y cada uno de los momentos por los que pasamos en nuestras vidas, y no exclusivamente de los especiales o de los extraordinarios.

Hace veinte años éramos capaces de vivir más en el presente. En la actualidad, la tecnología y las redes sociales nos lo ponen realmente complicado, pero no imposible. Podemos empezar por un acto sencillo: pasar más tiempo a solas con nosotros mismos y disfrutar más de lo que nos rodea. Hoy a esto se le denomina JOMO, hace dos décadas era simplemente vivir.

Imagen de rawpixel.com en Freepik

Consejos para que su fuerza de ventas adopte nuevas tecnologías

Jorge A. Hernández    31 marzo, 2023

Las fuerzas de ventas son la primera línea de batalla en el libre mercado y al mismo tiempo son uno de los componentes más incomprendidos de las empresas, tanto por sus jefes como por los desarrolladores. Algunos consejos para ayudarlos en la adopción de nuevas tecnologías.

Un estudio de Gartner, en el segmento B2B, encontró que el 60% de los vendedores afirmó que las nuevas soluciones tecnológicas perjudicaban su eficiencia operativa. La cifra es dramática, pero ayuda a entender un viejo concepto: la tecnología por sí misma es solo una herramienta.

En detalle, los encuestados afirmaron que las soluciones tecnológicas muchas veces se creaban para ayudar en los procesos internos de las empresas, pero no para ayudar a sus vendedores.

Sumado a esto, vivimos en un periodo demandante, en el cual las fuerzas de ventas se encuentran agotadas. Un estudio reciente encontró que el 89% de los vendedores afirman sentirse agotados por el trabajo (burnout) y peor aún, 54% está buscando un nuevo empleo.

Lo irónico es que la tecnología, y la transformación digital, nacieron precisamente para esta clase de escenarios, para mejorar la vida de las personas y optimizar los procesos. ¿Cómo ayudar a estas fuerzas de ventas? El primer consejo es simple:

  • Comience por las personas

Se trata de pasar del desarrollo de soluciones enfocadas hacia las empresas para mirar, en su lugar, al usuario/empleado. ¿Qué tan complicada de usar es la plataforma? ¿Qué tanto se deben repetir los mismos procesos? ¿Cómo impacta su desempeño? ¿Hasta qué punto se introducen pasos innecesarios?

  • Trate las necesidades reales

Toda solución tecnológica es una inversión, por lo cual su gasto debe obedecer a una causa clara y evidente. ¿Qué se espera mejorar en la empresa y su fuerza de ventas? Encuentre esta razón y divulgue estos motivos dentro de la organización. De no hacerlo, puede generar miedos.

  • Cree un equipo que lidere el cambio

Vivimos en tiempos de cambio constante, un motivo más para establecer responsables, líderes con diferentes niveles dentro de las empresas que ayuden a entender y divulgar lo que está pasando. Establezca un entorno de colaboración entre ellos. Son los evangelizadores y el cable a tierra en los procesos de cambio.

  • Use metodologías ágiles

Creadas para desarrollar proyectos de una forma más rápida y eficiente, las metodologías ágiles son un componente indispensable en el desarrollo de aplicaciones modernas. Entre sus muchas ventajas está que involucran empleados de diversas áreas generando una visión integral del negocio.

  • Establezca objetivos y entrenamientos

Todo cambio implica una curva de aprendizaje, establezca unas metas realistas en estos procesos, escuchando los miedos y dudas de sus empleados. No olvide recordarles que es un cambio positivo y como puede mejorar sus vidas.

Por último, así como se enfoca en los empleados, debe enfocarse en los clientes. ¿Cómo les impacta esta nueva solución?, después de todo, las relaciones son un puente que se sostiene dependiendo de la solidez de las dos partes. Y al final de cuentas, los clientes tienen derecho a expresarse.

Si quiere conocer o adquirir las soluciones digitales que Movistar Empresas tiene para impulsar la transformación digital de su fuerza de ventas ingrese aquí.

Foto de drobotdean

Inteligencia artificial y ética, una alianza necesaria

Jorge A. Hernández    31 marzo, 2023

Mientras prohíben el uso de ChatGPT en las escuelas públicas de Nueva York, para evitar el plagio, y acusan a varios algoritmos de machismo, la necesidad por una ética para Inteligencia Artificial se hace más necesaria que nunca.

Nadie duda que la Inteligencia Artificial sea el futuro, incluso algunos van más allá y dicen que es el presente. Pero así como la Inteligencia Artificial tiene un potencial benéfico también puede ser usado en conflictos bélicos, para censurar y apoyar regímenes totalitarios, entre otras posibilidades.

Así las cosas, hablamos de una herramienta tan poderosa que necesitamos tener claro unos principios morales comunes para manejarla. Tanto que, en 2021, la UNESCO generó una “Recomendación sobre la Ética de la Inteligencia Artificial”. Se trató del primer intentó normativo internacional en esta categoría.

Aunque suene obvio, para entender la ética aplicada a la Inteligencia Artificial debemos recordar que es la ética. La RAE estipula que es: “el conjunto de normas morales que rigen la conducta de la persona”. También es la parte de la filosofía que trata del bien y del fundamento de sus valores.

Con esta base en esto se puede afirmar que la ética en IA se refiere a las bases que delinean lo correcto y lo incorrecto en todo el ciclo de vida del producto o servicio; investigación y diseño, construcción y capacitación, cambios y operación de una Inteligencia Artificial.

Aplicaciones y retos

Pero hablar de lo bueno y lo malo en tecnología parece ser un poco vago, dependiendo de quién lo diga y en qué circunstancias. Por ello, es bueno establecer algunas aplicaciones concretas de la ética para la Inteligencia Artificial encabezadas por los sesgos y la privacidad.

El documental “Perjuicio cifrado”, de 2020, narra la historia de la científica informática del MIT, Joy Buolamwini, quién descubrió que los sistemas de reconocimiento facial fallaban al reconocer su rostro. La razón fue dolorosamente obvia, porque había sido desarrollada para reconocer rostros de otra raza diferente a la suya.

Pero esta es apenas la punta de la arista de un problema más grande y es que las inteligencias artificiales adquieren los prejuicios de quienes las entrenan. Entre estos males se encuentra el sexismo, racismo y xenofobia.

En lo que toca a la privacidad, la Inteligencia Artificial enfrenta un desafío y es que necesita mucha información para desarrollar mejores modelos, pero a veces esa información se toma de los usuarios sin que ellos lo sepan. Además, existe información particularmente sensible, por ejemplo, la médica o judicial. ¿Hasta qué punto se pueden mejorar las IA sin cruzar estas barreras?

Una cuestión con el planeta

Por último, están las consecuencias medio ambientales de la IA, porque

producir esta capacidad de cómputo cuesta y mucho, nos referimos a la energía necesaria para procesar millones de millones de datos. Y esta tendencia apenas está creciendo. ¿Qué límites energéticos se deben establecer en el desarrollo de las IA?

Por supuesto, estos son apenas una breve muestra de los nuevos retos que traen las nuevas tecnologías, esto sin mencionar el inmenso potencial que puede tener la IA en manos de fuerzas armadas o en la administración de recursos públicos. El reto es no satanizar la tecnología, pues es solo una herramienta, una que es más necesario que nunca que estemos a la altura moral para poder manejarla.

Precisamente, hace pocos días Telefónica se sumó a la iniciativa fAIr LAC con el fin de promover el uso ético de la IA para servicios de impacto social en América Latina, con el fin de que sean más eficientes, justos y orientados a los ciudadanos.

Conoce o adquiere las soluciones digitales que Movistar Empresas tiene para impulsar la transformación de tu negocio aquí.

Foto de Freepik