Automatización de ventas, la evolución de la profesión más vieja del mundo

Jorge A. Hernández    4 mayo, 2025

En busca de mejorar la eficiencia y aumentar la productividad, las empresas han entrado en una era de automatización que cubre áreas tan diversas que van desde la fabricación hasta la logística de transporte. Pero, ¿qué pasa con las ventas? Conozca las ventajas y los retos de este modelo.

Desde argumentos hasta productos y ahora servicios, casi cualquier interacción humana tiene incluido un proceso de ventas que se ha perfeccionado a lo largo de siglos, siempre con el vendedor como el principal protagonista. Sin embargo, el siglo XXI expuso una revolución en este oficio con la tecnología y en especial con la automatización como la tendencia del futuro.

Comencemos con los conceptos. McKinsey define la automatización de ventas como cualquier tecnología capaz de replicar la capacidad cognitiva humana, como el razonamiento lógico, el reconocimiento de patrones, etc., reduciendo así el trabajo manual en un proceso de ventas determinado.  

La firma analista asegura, además, que aunque existen múltiples tecnologías que lideran la automatización de ventas, hay cinco que se destacan: el aprendizaje automático (ML); la automatización robótica de procesos (RPA); el procesamiento y la generación del lenguaje natural (PNL); los flujos de trabajo inteligentes y los agentes virtuales.

Tamaño de mercado y objetivos

El mercado de la automatización de la fuerza de ventas crece cada día y se estima que pasará de 12.000 millones de dólares en 2024 a 23.800 millones en 2032, según estudios de la firma analista Market Research Future. Un incremento que responde directamente a sus beneficios.

Después de todo, uno de los objetivos principales de la automatización es reducir el “trabajo pesado y repetitivo” que a menudo consume una parte significativa de la jornada de un vendedor, impactando áreas como la introducción de datos, el seguimiento por correo electrónico y la elaboración de informes, entre otros.

Pero la automatización de ventas también ha evolucionado y ya no es solo una opción para mejorar la eficiencia; se ha convertido en un elemento estratégico para satisfacer las demandas de consumidores más empoderados dotados de asistentes digitales, comportamiento omnicanal y enfrentados a diferentes plataformas en línea (marketplaces y social commerce).

¿Por dónde comenzar?

Como en la inmensa mayoría de proyectos tecnológicos, lo primero es abordar aspectos no técnicos, es decir, la estrategia y la planificación. En este paso crucial, se deben definir objetivos claros y medibles para la iniciativa de automatización, asegurando que estén alineados con la estrategia general de ventas y del negocio.

Posteriormente, se deben identificar los procesos de ventas existentes que son candidatos para la automatización. Esto implica auditar y mapear el ciclo de ventas actual para encontrar cuellos de botella, pasos redundantes y tareas manuales repetitivas que consumen mucho tiempo, como la entrada de datos o los seguimientos básicos. Priorice la automatización de tareas de alto volumen, basadas en reglas o propensas a errores.

Finalmente, antes de seleccionar herramientas, evalúe la preparación organizacional y la actitud de los empleados hacia la automatización para anticipar la resistencia y planificar la capacitación necesaria. Por último, están las ofertas tecnológicas y los aliados que pueden ayudar a implementarlas; busque referencias, experiencia en el mercado y casos de éxito que ratifiquen lo que hacen. A final de cuentas, las ventas son, al final, un proceso humano.

Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí.

Foto de Freepik

Ataques API: ¿un nuevo blanco para los criminales?

Jorge A. Hernández    4 mayo, 2025

Las Interfaces de Programación de Aplicaciones (API) son los puentes que conectan el mundo moderno. Desde las instituciones bancarias hasta los servicios de salud y gobierno, las API están por todas partes, y esa ubicuidad las ha convertido en un objeto de deseo para los criminales.

¿Sabía que entre enero de 2023 y junio de 2024 se registraron 108.000 millones de ataques a API? Esta cifra, extraída del estudio «Digital Fortresses Under Siege» elaborado por Akamai, revela una realidad: estos eslabones que unen al mundo digital tal como lo conocemos están en riesgo.

Las razones de esta tendencia obedecen a varias causas, pero especialmente a una: su popularidad. El 70 % del tráfico de Internet se ejecuta a través de las llamadas a API, según el informe «Continuous API Sprawl: Challenges and Opportunities in an API-Driven Economy» de F5, y esta cifra continúa creciendo.

¿Qué son las API?

Según Gartner, una interfaz de programación de aplicaciones (API) es una interfaz que proporciona acceso programático a la funcionalidad y datos de un servicio dentro de una aplicación o una base de datos. Dicho de otra forma, las API son los puentes que permiten a las empresas modernizar sus sistemas heredados, construir arquitecturas nativas de la nube e integrar servicios de terceros.

Pero esta dependencia de las empresas modernas y la manera como manejan datos sensibles las convierten en objetivos atractivos para los ciberdelincuentes. A medida que las organizaciones dependen cada vez más de las API, la superficie de ataque se expande.

Y como si el tráfico no fuera suficiente, las transacciones generadas por la “API economy” son otro aliciente, se trata de un mercado que superará los 14.200 millones de dólares para 2027, según estadísticas de Kong.

¿Cómo son los ataques a API?

En términos simples, los ataques a las API consisten en explotar vulnerabilidades en las interfaces de programación para obtener acceso no autorizado, extraer datos sensibles, interrumpir servicios o manipular la lógica de sistemas informáticos. De forma más específica, sus principales modalidades son:

  • Ataques de inyección: Consisten en insertar código malicioso (como SQL, comandos del sistema operativo o scripts) en las solicitudes de la API para ejecutar acciones dañinas o acceder a información confidencial.
  • Ataques de intermediario (Man-in-the-Middle, MITM): El atacante intercepta y potencialmente modifica la comunicación entre el cliente y el servidor API, permitiendo el robo o la alteración de datos transmitidos.
  • Denegación de servicio (DoS/DDoS): Los atacantes envían una gran cantidad de solicitudes a la API para saturar sus recursos, ralentizando o bloqueando el servicio para usuarios legítimos.
  • Brechas de autenticación y autorización: Explotan implementaciones deficientes en los mecanismos de autenticación o autorización, permitiendo el acceso no autorizado a cuentas, datos o funciones restringidas.
  • Exposición de datos sensibles: Ocurre cuando la API entrega más información de la necesaria en sus respuestas, permitiendo que los atacantes obtengan datos confidenciales.

Y como ocurre con múltiples incidentes de ciberseguridad, para enfrentar estos ataques API no existe una solución única y en su lugar es un conjunto de medidas y procesos que involucran tecnología, procesos y cultura, todo enmarcado en una estrategia de ciberseguridad robusta.

Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí.

Foto de Freepik

Energía geotérmica, el futuro de los centros de datos

Jorge A. Hernández    20 abril, 2025

Cada día se hace más patente el hambre insaciable de la inteligencia artificial por energía eléctrica, procesamientos realizados en grandes centros de datos que han puesto de regreso a la energía nuclear, pero existen otras opciones como la energía geotérmica. Conozca sus beneficios y potencial.

¿Sabía usted que el consumo global de los centros de datos puede superar los 1.000 TWh (teravatio-hora) para 2026? Estas cifras reveladas por la Agencia Internacional de Energía (IEA) ponen de manifiesto un secreto a voces: necesitamos más electricidad. Un desafío al que las empresas han respondido con propuestas de energía nuclear y energía geotérmica.

¿Por qué este crecimiento tan desmedido? Las respuestas son variadas, pero si queremos señalar a algunos responsables, basta con mirar a la pantalla: la tecnología y, en particular, la inteligencia generativa (GenAI) es responsable de más del 0.5% del consumo global de energía. Como muestra, solo Google y Microsoft gastan más electricidad para su operación que más de 100 países.

Esta demanda originó firmas de acuerdos como el de Microsoft con Constellation Energy para comprar toda la producción (835 megavatios) de una unidad reiniciada en la central nuclear de Three Mile Island, o el acuerdo de Google con Kairos Power, o las inversiones de Amazon en X-energy, una empresa que desarrolla reactores nucleares modulares pequeños (SMR) avanzados.

Con estas cifras sería fácil pensar que la energía nuclear es la solución, pero esta energía no solo tiene riesgos, sino que también genera rechazo por parte del público e incluso ha sido prohibida en algunas regiones. Todo lo contrario, a lo que sucede con la energía geotérmica.

El poder de la energía geotérmica

Los recursos geotérmicos tienen un enorme potencial para proporcionar energía constante. En cifras, y según un análisis de la consultora Rhodium Group, la energía geotérmica podría abastecer casi dos tercios de la demanda de nuevos centros de datos para 2030.

Y es que, a diferencia de otras fuentes de energía renovables como la solar y la eólica, la energía geotérmica proporciona un suministro de electricidad continuo las 24 horas del día, lo cual es crucial para mantener las operaciones ininterrumpidas de los centros de datos. Recordemos que la energía geotérmica aprovecha el calor natural generado en el interior del planeta.

Nuevas tecnologías y estado en Colombia

Aunque la energía geotérmica no es nueva, esta ha mejorado con el paso del tiempo, como lo demuestran innovaciones como los Sistemas Geotérmicos Mejorados (EGS) y las Bombas de Calor Geotérmicas (GHP).

A grandes rasgos, los EGS crean recursos geotérmicos artificialmente en áreas que carecen de estas condiciones mediante la inyección de agua en formaciones rocosas calientes, donde se genera vapor que impulsa turbinas para producir electricidad.

Por su parte, las bombas de calor son sistemas de climatización que aprovechan la energía térmica almacenada en el subsuelo para proporcionar calefacción, refrigeración y agua caliente en edificios y viviendas.

La geotermia es una tendencia global que afecta a todos los países y su futuro. Como muestra, según la matriz energética colombiana, el 30% de la energía nacional viene de esta fuente (geotérmica).

Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí.

Foto de Freepik

GenAi en las empresas, descubra los desafíos

Movistar Empresas Colombia    20 abril, 2025

La inteligencia artificial generativa o GenAI es la última gran tendencia tecnológica, responsable de la democratización de la tecnología y de múltiples mejoras en eficiencia y experiencia del cliente; sin embargo, como todo, tiene riesgos. Conozca los retos de su implementación.

Según Gartner, para 2027, más del 40% de las violaciones de datos relacionadas con la IA serán causadas por el uso indebido y transfronterizo de la IA generativa (GenAI). Con falta de estándares globales y un mercado criminal creciente, la implementación de la GenAI tiene desafíos en múltiples áreas.

Como muestra, según estadísticas del Banco Mundial, entre el 26% y el 38% de los empleos en América Latina y el Caribe podrían verse afectados por la inteligencia artificial generativa (GenAI). Se trata de un fenómeno global que implica replantearse las estrategias de capacitación (upskilling y reskilling) de numerosas organizaciones.

Esto sin hablar de desafíos simplemente técnicos como la calidad y gestión de los datos, donde la información fragmentada, inconsistente o incompleta puede distorsionar los resultados y comprometer la utilidad de las aplicaciones de IA. Situaciones que obligan a repensar la gobernanza de la inteligencia artificial en las organizaciones.

Desafíos técnicos y legales de la GenAI

A la hora de hablar de inteligencia artificial generativa, el riesgo más común entre las empresas se relaciona directamente con la seguridad y privacidad de los datos o las violaciones a la propiedad intelectual.

Como muestra, recordemos cuando Samsung prohibió el uso de ChatGPT por parte de sus empleados luego de que lo utilizaran para corregir su código propietario. O más radical aún es la prohibición de esta misma plataforma en el sector bancario, donde JPMorgan, Citigroup, Deutsche Bank y Bank of America, entre otros, la han vetado.

Otros retos son ya viejos conocidos en el mundo de la tecnología como son la integración con sistemas existentes de terceros, la escalabilidad y el rendimiento de las plataformas de IA, o incluso el costo de procesamiento. Pero más allá de los desafíos técnicos, otro de los principales retos de la GenAI está relacionado con la ética y la discriminación que puede perpetuar o amplificar prejuicios existentes.

Alucinaciones y la resistencia cultural

Uno de los riesgos más conocidos de la GenAI, sobre todo al inicio de su popularización, se relacionaba con las famosas alucinaciones: información inventada, citas falsas o incluso imágenes distorsionadas creadas por plataformas de inteligencia artificial. Situación que ha destacado la necesidad de usar la IA como una herramienta y la necesidad de verificar sus datos en tareas críticas.

En otras palabras, lo ideal es que la IA no se enfoque en desplazar empleados sino en empoderarlos autorizando tareas. Recordemos que más del 30% de los trabajadores podría ver alteradas al menos el 50% de sus tareas profesionales por la IA generativa, según un estudio de Brookings.

Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí.

Foto de Freepik

Prueba de vida, un elemento indispensable en la seguridad moderna

Jorge A. Hernández    14 abril, 2025

La validación de identidad es un tema crucial en innumerables industrias, desde el entretenimiento hasta la banca; sin embargo, las nuevas tecnologías como la IA ponen en riesgo los métodos tradicionales para asegurarla. La prueba de vida o proof of life viene al rescate.

En 2024, un empleado de una multinacional asiática giró 25 millones de dólares tras una videollamada con varios de sus compañeros de trabajo, que incluían al director financiero de la entidad. Lo que desconocía era que ninguno de sus interlocutores era real (deepfakes). ¿Cómo combatir estas ilusiones? La detección de vida o proof of life es la respuesta.

El concepto de “prueba de vida” en ciberseguridad surgió principalmente en la década de 1990 y principios de la de 2000, a medida que se generalizaba el uso de Internet y aumentaba la preocupación por la seguridad, evolucionando con los años y adoptando diferentes herramientas tecnológicas como la biometría.

De esta forma, en la actualidad, la detección de vida puede definirse como un conjunto de técnicas que permiten a los sistemas biométricos determinar si una muestra presentada proviene de una persona viva y presente en el momento de la captura, en lugar de una representación falsa como una fotografía, una máscara o una grabación.

Uso de tecnologías en la prueba de vida

Como mencionamos, la prueba de vida esencialmente no es una tecnología nueva. Antes del surgimiento de los biométricos se utilizaron varias técnicas de autenticación como las contraseñas, los certificados digitales, además de los conocidos sistemas CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart).

Sin embargo, el concepto formal de detección de la vitalidad en biometría comenzó a consolidarse a principios de la década de 2000, con la aparición de investigaciones académicas sobre métodos para diferenciar los rasgos biométricos auténticos de los falsos.

Por cierto, en 2004 se introdujo el término «Detección de Ataques de Presentación» (PAD, por sus siglas en inglés), que significaba un esfuerzo más centrado en abordar la creciente amenaza de la suplantación biométrica. Como dato curioso, incluso antes de los deepfakes se logró engañar a los sistemas biométricos usando máscaras de silicona. Estos experimentos sirvieron como un aliciente para desarrollar mejores herramientas y técnicas de validación.

El auge biométrico

Cuando hablamos de verificación biométrica se suelen incluir huellas dactilares y escáneres faciales; sin embargo, las pruebas de vida dan un paso más allá incluyendo técnicas como el parpadeo o la sonrisa (en sistemas faciales), el pulso o flujo sanguíneo (para las huellas dactilares) e incluso micromovimientos únicos que los bots no pueden simular.

Otro nicho es la llamada biometría del comportamiento, que incluye patrones de escritura o los movimientos del ratón, donde una vez que se detectan anomalías, estos generan solicitudes de verificación adicionales o incluso pruebas de vida continua a lo largo de toda una sesión.

Ahora, con el auge de la Inteligencia Artificial y los deepfakes, las pruebas de vida se han vuelto aún más importantes, al mismo tiempo que los sistemas de validación siguen evolucionando e incluso tienen competencias como LivDet (Liveness Detection), que inicialmente se centró en la detección de vida en huellas dactilares y posteriormente se expandió a otras modalidades como el iris y el rostro.

Para cerrar y como muestra del mercado, solo en el segmento de biometría aplicada en pagos se proyecta que superará los 3.500 millones de dólares para 2030.

Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí.

Foto de Freepik

Backend as a Service: una oportunidad para las empresas

Jorge A. Hernández    14 abril, 2025

¿Para qué inventar la rueda? En un mundo competitivo donde la velocidad de despliegue en aplicaciones y servicios es un diferencial de negocios, el Backend as a Service o BaaS se ha convertido en una modalidad cada vez más apetecida. ¿En qué consiste y cuáles son sus ventajas?

El Backend as a Service (BaaS) es un negocio creciente; para ser más exactos, se estima que moverá más de 31.350 millones de dólares en 2025 y superará los 100.230 millones en 2034, según proyecciones de Market Research Future. Hablamos de una tasa de crecimiento anual compuesto (CAGR) del 13,78%.

¿Y cuáles son las razones tras este crecimiento? En pocas palabras, sus beneficios.

Pero comencemos por definirlo: el Backend as a Service es un modelo de computación en la nube que proporciona a los desarrolladores una infraestructura y unos servicios de backend preconstruidos, lo que les permite centrarse en el desarrollo frontend de sus aplicaciones. Básicamente, se encarga de toda la lógica y las funcionalidades del lado del servidor.

Dicho de otra forma, el BaaS elimina las intrincadas tareas de configuración de servidores, gestión de bases de datos y creación de APIs, que tradicionalmente consumen una parte significativa del tiempo de desarrollo dejando libre el talento humano para otras áreas.

Ventajas del Backend as a Service

Al igual que los otros servicios tecnológicos ofrecidos en la nube (IaaS, PaaS), el Backend as a Service comparte varias de sus ventajas, particularmente dos especialmente importantes para la alta gerencia, como son la reducción de costos y la escalabilidad, permitiéndoles manejar grandes picos de demanda sin necesidad de grandes inversiones.

En lo que se refiere a otras áreas, como el departamento de sistemas TI, el Backend as a Service también reporta beneficios concretos al simplificar la gestión de la infraestructura en áreas como la seguridad, las actualizaciones y las copias de seguridad, entre otras.

Y pocos más beneficiados que el área de desarrollo, que puede concentrar sus recursos en crear interfaces y experiencias de usuario atractivas sin necesidad de pensar en las complejidades del backend.

¿Qué incluye y cuál es el futuro del Backend as a Service?

Como mencionamos, el Backend as a Service centraliza la gestión de las funcionalidades del lado del servidor, lo cual incluye tareas diversas que van desde el almacenamiento de datos hasta la autenticación de los usuarios e incluso la gestión de APIs y SDKs (kits de desarrollo de software) que simplifican la integración de servicios backend con aplicaciones frontend, optimizando el proceso de desarrollo.

El futuro del BaaS parece brillante gracias a la creciente demanda de aplicaciones móviles sofisticadas, la necesidad de ciclos de desarrollo rápidos y la complejidad de las aplicaciones empresariales modernas. Eso sin mencionar la creciente popularidad de las plataformas BaaS de bajo código y sin código (low code, no code), que permiten a personas con poca o ninguna experiencia en programación crear y desplegar aplicaciones rápidamente.

Por supuesto, es casi imposible hablar de ninguna tendencia tecnológica en estos días sin mencionar el uso de Inteligencia Artificial, y el BaaS no es la excepción, permitiendo un procesamiento de datos más inteligente y experiencias de usuario personalizadas.

Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí.

Foto de Freepik

Conozca los chips Majorana y su impacto en la computación cuántica

Jorge A. Hernández    7 abril, 2025

Mucho se habla del futuro de la computación cuántica, de su potencial y su devenir. Pero ¿qué tan cerca estamos de ver un impacto significativo de esta tecnología? El Majorana 1 promete ser una nueva vía para crear chips cuánticos más poderosos y resistentes a la interferencia.

Cada vez se habla más de computación cuántica, pero ¿sabía usted que existen varias formas de abordarla? A diferencia del sistema binario tradicional, basado en electrones y unos y ceros, los chips cuánticos pueden fabricarse a partir de diversas tecnologías, usando láseres, superconductores, plasma y, ahora, partículas de Majorana.

Y es que, precisamente, las partículas de Majorana son la última revolución en esta carrera de la computación, gracias a un reciente anuncio de Microsoft en el que presentó el Majorana 1. Ahora bien, ¿qué lo hace tan especial? Para entenderlo, es vital partir del gran talón de Aquiles de los computadores cuánticos: su fragilidad.

Los computadores cuánticos son como muñecas rusas (matrioskas), cilindros encapsulados uno dentro de otro y envasados al vacío (el aire puede ser un conductor) para reducir la interferencia de elementos externos. Y es que los qubits (las unidades básicas de información cuántica) son extremadamente sensibles a las perturbaciones del entorno.

Es decir, son sensibles a partículas de aire, radiación y otras interferencias. Sin embargo, las partículas de Majorana ofrecen una mayor protección contra estas perturbaciones, lo que mejora la fiabilidad de los qubits y permitiría empezar a trabajar en computadores de mayor capacidad cuántica.

¿Cómo lo logran?

Las Majorana fueron descritas de forma teórica por el físico italiano Ettore Majorana en 1937, pero solo pudieron observarse en la vida real, en un laboratorio, en el año 2020. El enfoque de Microsoft se basó en usar nanocables y topoconductores, materiales diseñados específicamente para albergar y manipular estas partículas.

La clave del enfoque de Majorana es la topología, una rama fundamental de las matemáticas que estudia las propiedades de los espacios que se conservan bajo deformaciones continuas (como estirar, encoger, doblar, torcer) sin romper, pegar o cortar.

Por eso se dice que el Majorana 1 es un chip que usa qubits topológicos que se crean entrelazando partículas de Majorana de una manera que las protege de estas perturbaciones.

Pero más allá de los detalles técnicos, publicados en la prestigiosa revista Science, lo más importante de esta arquitectura de qubits topológicos es su escalabilidad, lo que permitirá aspirar a construir procesadores de “un millón de qubits en un solo chip”, asegura Microsoft. Por cierto, hasta 2024 el récord mundial de qubits era de 1.180.

Recepción y futuro

Aunque los anuncios de Microsoft han generado interés e incluso desconfianza dentro de algunos investigadores, lo cierto es que el mercado financiero ha sido más optimista, según dieron a conocer medios especializados como Fast Company. De hecho, el anuncio del Majorana 1 incrementó el precio de las acciones no solo de Microsoft, sino de la mayoría de las empresas de computación cuántica.

Aunque hasta ahora el camino del Majorana 1 está comenzando, su impacto en campos como la criptografía, el descubrimiento de nuevos materiales y drogas, o incluso la predicción climática, parece prometedor, pero eso solo el tiempo lo dirá.

Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí.

Foto de Freepik

Formas en que las empresas de transporte utilizan la IA

Jorge A. Hernández    7 abril, 2025

La Inteligencia Artificial está por todas partes y esto incluye al transporte, involucrando elementos de la cadena que va desde la construcción de vehículos hasta la gestión de flotas, prometiendo aumentar eficiencias y reducir costos. ¿Cuál es su impacto real y hacia dónde se dirige?

Aunque lo primero que suele saltar a la cabeza cuando se habla de inteligencia artificial en el transporte son los vehículos autónomos, en realidad esta tecnología está presente de forma transversal en muchos procesos que van desde la fabricación de los mismos vehículos hasta su administración en forma conjunta.

Pero empecemos por cifras: el tamaño del mercado mundial de inteligencia artificial en el transporte representó 4500 millones de dólares en 2024 y se prevé que superará los 34 830 millones de dólares en 2034, según estimaciones de Precedence Research.

Porque la IA está presente desde el mismo diseño de los vehículos y, gracias a sus capacidades predictivas, puede encontrar defectos de forma anticipada. Además, la impresión 3D, la robótica y la IA están cambiando la fabricación al optimizar los procesos de producción, reducir los errores humanos y mejorar la eficiencia.

En busca de la autonomía con la IA

En lo que se refiere al vehículo propiamente dicho, tristemente aún estamos lejos de los vehículos verdaderamente autónomos o de nivel 5 según la clasificación de los niveles de conducción autónoma desarrollada por la Sociedad de Ingenieros de la Automoción (SAE International).

Por cierto, el estándar J3016 de la SAE define seis niveles de automatización de la conducción, que van desde el Nivel 0 (sin automatización) hasta el Nivel 5 (automatización completa).

Aunque el mercado cambia de forma acelerada, en la actualidad nos encontramos en una encrucijada con grandes iniciativas y prototipos de nivel 3 y 4 (semiautónomos) liderados por empresas como Waymo (Google), Tesla, Cruise (General Motors), Zoox (Amazon) y Baidu, entre otros.

Más allá de los vehículos

Otro de los campos donde la IA impactará al transporte con mayor fuerza será fuera de los vehículos. Hablamos de la gestión de flotas de camiones industriales, buses de transporte público, movilidad de entidades locales (policía, servicios médicos, etc.).

El transporte público también se beneficiará de la IA en la optimización de rutas y el redireccionamiento. Los sistemas inteligentes utilizan datos en tiempo real de diversas fuentes para predecir la congestión del tráfico y optimizar el flujo de autobuses y trenes.

Incluso en ambos segmentos, tanto público como privado, la IA puede ajustar dinámicamente las rutas y los horarios, mejorando la eficiencia y la satisfacción de los pasajeros y clientes. Además de mejorar los mantenimientos predictivos.

Y si usted pensaba que la IA puede reemplazar a los conductores, lo cierto es que actualmente se usa más para mejorar su calidad de vida, mejorando los turnos y cargas de trabajo para reducir accidentes y hacer que lleguemos antes a nuestros destinos.

Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí.

Foto de Freepik

¿Cómo encontrar vulnerabilidades en su empresa?

Jorge A. Hernández    30 marzo, 2025

A pesar del peligro que implican, ya sea por errores de software, malas configuraciones o factores humanos, las vulnerabilidades cibernéticas son un riesgo más común de lo imaginado y ante el cual lo más importante es anticiparse a los adversarios. ¿Cómo hacerlo?

La ciberseguridad es un blanco móvil, un estado cambiante que busca establecer un equilibrio en medio de un océano de variables y amenazas. Como muestra de ello y solo en 2024 cada 17 minutos se identificaba y publicaba una nueva vulnerabilidad cibernética según cifras del Skybox Security Research Lab.

Recordemos que según el Centro Nacional de Ciberseguridad del Reino Unido, las vulnerabilidades cibernéticas son un punto débil en un sistema informático que puede ser aprovechado por un atacante para realizar un ataque con éxito.

De acuerdo con el informe 2024 “Vulnerability and Threat Trends Report”, existe además una brecha entre los esfuerzos de corrección de estas falencias, con un tiempo promedio para parchear superior a 100 días, que contrasta con el promedio de 19 días en que estas vulnerabilidades son explotadas por los cibercriminales.

Tipos de vulnerabilidades

Las razones tras las abultadas cifras en las vulnerabilidades cibernéticas corresponden, entre otros factores, a su diversidad, pues estas pueden producirse por defectos de software, hardware o errores del usuario o malas políticas de ciberseguridad. A grandes rasgos las principales tendencias en esta área se pueden dividir en:

  • Vulnerabilidades de Software: ocasionadas generalmente por sistemas heredados y desactualizados. Malas prácticas de saneamiento de datos o incluso vulnerabilidades en las Interfaces de Programación de Aplicaciones (APIs).
  • Vulnerabilidades de Configuración: generadas porconfiguraciones incorrectas en dispositivos, servicios o aplicaciones como cortafuegos o sistemas operativos mal configurados, contraseñas débiles o controles de acceso con privilegios excesivos.
  • Vulnerabilidades de Red: que obedece a puertos abiertos y no seguros. Uso de protocolos de red inapropiados o redes con cifrado débil o puntos de acceso no autorizados.
  • Factores Humanos: una tendencia en la que se destacan los ataques usando ingeniería social como son el phishing, vishing y smishing o el robo de credenciales.

Otras variables destacadas son las vulnerabilidades en la Nube o incluso en la cadena de suministro que involucra las falencias de proveedores y socios de negocios. Esto sin mencionar las vulnerabilidades del día cero, aquellas descubiertas por criminales antes de que el proveedor sepa siquiera de su existencia.

¿Cómo combatir las vulnerabilidades cibernéticas?

Para combatir el surgimiento de vulnerabilidades las organizaciones usan varios métodos proactivos como son los escaneos y auditorías de seguridad periódicas hasta ataques simulados (pentest) y auditorías realizadas por expertos.

Existen varios tipos de evaluaciones basadas en redes, hosts, aplicaciones, bases de datos, inalámbricas, APIs y nubes. Cada tipo se enfoca en diferentes aspectos de la infraestructura. Las evaluaciones pueden ser internas o externas, dependiendo de la perspectiva del evaluador.

Un proceso típico de evaluación incluye planificación, escaneo, clasificación, análisis, remediación y reporte. El escaneo de vulnerabilidades es un componente clave de este proceso. Las organizaciones deben seguir mejores prácticas, como realizar evaluaciones regulares y automatizar tareas rutinarias.

En lo que se refiere a las pruebas de penetración, o pentesting, se simulan ciberataques para descubrir puntos débiles. Las pruebas de penetración ofrecen una ventaja significativa sobre el escaneo automatizado al intentar explotar activamente las debilidades.

Otras herramientas que vale la pena destacar son el CVSS (Common Vulnerability Score System) un sistema de puntuación que clasifica la gravedad de las vulnerabilidades o el Common Vulnerabilities and Exposures (CVE), un listado público de vulnerabilidades conocidas en software y hardware.

Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí.

Foto de Freepik

Computación de Alto Rendimiento (HPC) en Colombia y América Latina

Jorge A. Hernández    30 marzo, 2025

Cuando se habla de computación de alto rendimiento, lo primero que salta a la mente son las grandes potencias, sin embargo, en América Latina esta tendencia no pasa desapercibida y existen diversas iniciativas. Conozca algunas de ellas.

Poco visible para el público, pero crucial para los investigadores, la Computación de Alto Rendimiento (HPC) en América Latina es una realidad y una necesidad para identificar oportunidades de innovación, mejorar la eficiencia operativa y mantenerse competitivos de empresas y gobiernos.

Para colocarlo en cifras, un informe de 2024 identificó 41 plataformas clave de HPC en 29 instituciones académicas y gubernamentales de nueve países de la región, destacando a Brasil, Argentina, México, Chile y Colombia como los países con mayor capacidad instalada.

Y si bien la región aún se encuentra por detrás de potencias mundiales en términos de inversión total, el mercado latinoamericano de HPC sigue creciendo y alcanzó los 2.621 millones de dólares en 2023, según proyecciones de la firma analista Grand View Research.

En otras palabras, la computación de alto rendimiento es una tendencia creciente en América Latina que se espera logrará movilizar 3.673 millones de dólares para 2030 impulsada por una mezcla de iniciativas gubernamentales además de una demanda de sectores como la investigación (la academia), la energía y las finanzas, entre otros.

El Guane-1 en Colombia

Específicamente en el caso de Colombia, el panorama del HPC está impulsado por instituciones como el Centro de Computación Científica y de Alto Rendimiento (SC3UIS) de la Universidad Industrial de Santander (UIS) y el supercomputador Guane-1 que es en la actualidad el computador más potente del país.

Capaz de procesar 14 millones de instrucciones por segundo, lo que equivale a unos 4.250 computadores personales, el Guane-1 ha sido usado en varios fines que van desde investigaciones científicas, como el análisis de genomas del virus SARS-CoV-2, hasta el uso la mejoras en la extracción de hidrocarburos.

Por cierto, el nombre GUANE corresponde a las siglas en inglés de “GpUs Advanced computiNg Environment” y al mismo tiempo en homenaje a los indígenas que habitaron el cañón del Río Chicamocha.

Otras máquinas en Colombia y la región

Aparte del Guane-1 Colombia cuenta con otros representantes en el HPC como son el supercomputador Apolo de la Universidad Eafit y el Centro de Bioinformática y Biología Computacional de Colombia, por cierto, este último recibió en el 2023 una inversión de 1.500 millones de pesos para fortalecer su funcionamiento. 

En lo referente a América Latina esta viene liderada por las dos potencias regionales: Brasil y México. En el caso mexicano se cuenta con Abacus, la supercomputadora más poderosa del país azteca capaz de alcanzar los 400 teraflop y en Brasil está el Supercomputador Santos Dumont que recientemente fue repotenciado para ser utilizado en los esfuerzos nacionales de inteligencia artificial.

Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí.

Foto de Freepik