Luis María Lepe Se acerca el invierno… 3 claves en el reinado de iPhone y iPad Vivimos en un mundo fantástico con reminiscencias del pasado en el que los ”Palm” y otros smartphones míticos han quedado en el olvido. Apple ocupa ahora el trono de hierro de los...
Juan Luis Manfredi Las redes de contacto y el éxito de los proyectos emprendedores La creación de proyectos emprendedores es una tarea titánica, una actividad que conlleva mucho esfuerzo y determinación. Aun así, la voluntad no garantiza el éxito. Este es resultado de...
AI of Things Edge AI vs. Cloud AI: conoce sus diferencias y elige el mejor enfoque para tu proyecto de IA Conoce las diferencias entre Edge AI y Cloud AI, sus ventajas y desventajas y elige el enfoque adecuado para tu proyecto de Inteligencia Artificial.
Virginia Cabrera El empleado conectado, la nueva joya de la corona para las compañías Quienes gestionan equipos saben que una persona comprometida es mucho más productiva. Si sumamos motivación y tecnología, el efecto se multiplica: los profesionales conectados son los galácticos de las empresas,...
Área de Innovación y Laboratorio de Telefónica Tech Nueva herramienta: Masked Extension Control (MEC), no te fíes de las extensiones en Windows Windows confía demasiado en las extensiones para elegir el programa que debe procesar un archivo. Por ejemplo, cualquier fichero con extensión .doc será abierto con Word, independientemente de su...
Nacho Brihuega Buscadores de dispositivos IoT: ¿por qué elegir si podemos usar todos? Nacho Brihuega te explica cómo utilizar los buscadores de dispositivos IoT para detectar vulnerabilidades y un script que facilitará tus búsquedas.
Andrea Beleván Fitcamp Virtual 2021, el evento de Wayra que conecta la innovación de las startups con Telefónica Wayra, el hub de innovación abierta de Telefónica, busca constantemente invertir en compañías que puedan hacer FIT con Telefónica, es decir, que encajen con las áreas de negocio estratégicas...
Luisa Rubio Arribas 10 claves que explican el ecosistema de Silicon Valley, contadas por alguien que ha vivido allí Silicon Valley es la meca del emprendimiento. Solo basta con pensar en las cosas que hacemos en nuestro día a día para darnos cuenta de que la inmensa mayoría...
La regulación de la IA: entre la innovación y la éticaJorge A. Hernández 5 octubre, 2025 “Regular más no significa regular mejor”. Este principio de la regulación inteligente o smart regulation surge en medio de una tendencia global y es: ¿cómo regular la IA? Desde foros académicos hasta centros gubernamentales, surge la duda de cómo proteger a los consumidores sin frenar la innovación y el emprendimiento. Solo en Colombia, en la legislatura 2024 – 2025, hay más de nueve proyectos de ley en trámite relativos a la inteligencia artificial, documentos orientados a crear un marco normativo integral, ético y tecnológico para la gobernanza de la IA en el país. Y no se trata de un caso aislado, porque la regulación de la IA es un problema global. Como muestra, la Unión Europea ha sido pionera con su Ley de IA (AI Act), la primera normativa integral del mundo, propuesta en 2021 y adoptada en 2024. Su enfoque se basa en clasificar los sistemas de IA según su nivel de riesgo: inaceptable (prohibidos), alto, limitado y mínimo, estableciendo obligaciones estrictas para las categorías más peligrosas. Este modelo contrasta con el de Estados Unidos, que había optado por un enfoque fragmentado que prioriza la innovación. Una muestra es el «Plan de Acción de IA«, presentado en julio de 2025, que incluye más de 90 acciones organizadas en tres pilares: acelerar la innovación, construir infraestructura para IA en el país y promover que el hardware y software estadounidense sean estándares globales. Después de todo, el desarrollo de la inteligencia artificial se ha convertido en asunto de seguridad nacional en las principales superpotencias, incluyendo a China, que ha implementado un sistema de regulaciones estrictas y un registro de algoritmos, centrado en el control estatal y la soberanía tecnológica. El desafío de regular tecnologías El principal desafío para los reguladores es la diferencia de ritmos: la tecnología avanza mucho más rápido que los ciclos legislativos, lo que amenaza con dejar las leyes obsoletas. Existe también el temor de que una regulación excesiva pueda frenar la innovación y crear barreras de entrada, especialmente para las startups, debido a los altos costos de cumplimiento. En este contexto, América Latina ha comenzado a trazar su propio camino, mostrando una tendencia a adoptar marcos regulatorios basados en principios y centrados en los derechos fundamentales, a menudo inspirados en el modelo europeo. La mayoría de los países de la región ya cuentan con leyes de protección de datos que sirven como base para las regulaciones de la IA. En lo que se refiere a Colombia, en febrero de 2025, se estableció una política nacional a través del documento CONPES 4144, que traza una hoja de ruta con una inversión de casi 480 mil millones de pesos para impulsar el ecosistema de IA del país hasta 2030. Sobre esta base, el gobierno colombiano presentó al Congreso proyectos de ley (como el 442-2025) que buscan crear un marco legal para la IA, alineándose estrechamente con la Ley de IA de la UE. Curiosamente, la regulación de la IA no es un tema reciente, pero lo que antes era una discusión teórica se convirtió en una urgencia a partir de 2016 con la llegada de los modelos de IA generativa como ChatGPT, que pusieron de manifiesto su potencial para transformar la sociedad y sus empresas. Algunas recomendaciones Por fortuna, los gobiernos no están solos, como muestra y para hacer frente a los retos de la regulación, entidades internacionales como el Centro para el Liderazgo en Políticas de Información (CIPL) han publicado buenas prácticas en el tema. Según el CIPL la regulación global de la inteligencia artificial se debe basar en un enfoque flexible, orientado a resultados y riesgos, evitando reglas técnicas rígidas. Esto implica que las organizaciones asuman una responsabilidad clara en la gobernanza de la IA, garantizando transparencia, explicabilidad y mecanismos de supervisión que permitan a usuarios, autoridades y terceros comprender y evaluar los sistemas para identificar sesgos, errores o riesgos. El CIPL enfatiza además que las normas deben equilibrar innovación y control, fomentando un desarrollo tecnológico responsable sin frenar los beneficios potenciales de la IA. Para ello, se requiere contar con estándares internacionales comunes, mecanismos de cumplimiento claros —como auditorías, certificaciones y sanciones— y un marco regulatorio que combine innovación, confianza pública y protección de derechos en un contexto de rápida evolución tecnológica. En este escenario, herramientas como los «sandboxes» regulatorios se recomiendan para permitir la innovación segura. Para las grandes corporaciones, este nuevo panorama regulatorio representa un desafío que pueden afrontar gracias a sus recursos, lo que podría consolidar su dominio del mercado. Para las startups y pymes, el impacto es un arma de doble filo. Por un lado, los altos costos de cumplimiento pueden ser una barrera significativa que frene su capacidad de innovar. Por otro lado, aquellas que logren adaptarse rápidamente podrán diferenciarse, atrayendo inversión y clientes. Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí. Imagen de Freepik La importancia de la IA para las pymesDe la IA a la impresión 3D, conozca las tecnologías en la construcción
Energías renovables y productividad: aliadas, no rivalesJorge A. Hernández 28 septiembre, 2025 En medio de una convergencia hacia fuentes sostenibles y al mismo tiempo, el aumento en el consumo de energía impulsado por tendencias como la IA, es importante recordar que las energías renovables y la productividad lejos de ser rivales, son el futuro del planeta. Comencemos por las cifras, por primera vez, la generación a partir de fuentes limpias superó el 40% del total mundial según el Global Electricity Review 2025 de Ember, estadísticas que revelan el momento de transición que vive el mundo. ¿Pero qué significa esto en productividad? A largo plazo es algo positivo, pero esto no significa que no existan desafíos en esa transición energética. Recordemos que los Objetivos de Desarrollo Sostenible (ODS) fueron adoptados por todos los Estados Miembros de las Naciones Unidas en 2015 y firmados por 193 países. En otras palabras, el cambio hacia las energías renovables es un hecho al que todas las empresas le deberán hacer frente siendo lideradas por las tecnológicas y telcos. Pero esta conversión verde también implica costos de inversión y disrupciones en algunas industrias tradicionales. Una productividad verde En términos macroeconómicos la transición no es solo un cambio de combustibles, sino una reestructuración que impulsa la innovación y la eficiencia. Además, la energía limpia también es un generador económico gigantesco que, solo en 2023, añadió aproximadamente 320 mil millones de dólares a la economía mundial lo que representó 10% del crecimiento del PIB global. La transición hacia fuentes de energía limpias está modificando la productividad global de manera compleja, con efectos que van más allá del sector energético. Uno de los impactos más destacados se encuentra en la salud pública. La reducción de la contaminación atmosférica derivada de la eliminación progresiva de los combustibles fósiles disminuye las enfermedades respiratorias y cardiovasculares. Esto repercute en una fuerza laboral más sana, con menos ausentismo y menores gastos en atención médica. Empleos y estabilidad En el ámbito económico, el cambio hacia energías renovables también se traduce en una mayor estabilidad de precios. Mientras los combustibles fósiles están sujetos a la volatilidad del mercado y a factores geopolíticos, el sol y el viento —principales insumos de estas fuentes— son gratuitos una vez instalada la infraestructura. Esto sin mencionar la generación de empleo y el surgimiento de nuevas industrias. Según la Agencia Internacional de Energías Renovables (IRENA), las fuentes limpias generan más puestos de trabajo por unidad de energía producida que los combustibles fósiles. Sin embargo, la transición también enfrenta retos importantes: la pérdida de empleos en sectores como carbón, petróleo y gas puede afectar gravemente a economías locales si no se garantiza una transición justa con programas de apoyo; además, las inversiones iniciales en infraestructura y redes eléctricas son muy altas y pueden generar costos de oportunidad en el corto plazo. En conclusión, la transición energética representa una inversión directa en un futuro más estable, competitivo y próspero. Uno donde la productividad aumentará, pero el camino como todo, también tendrá sus baches. Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí. Foto de Freepik El IT y el OT convergen, ¿qué significa esto para las empresas?¿Qué tipo de automatización necesita su empresa?
La importancia de la IA para las pymesJorge A. Hernández 28 septiembre, 2025 Hasta hace unos años, la inteligencia artificial era un tema que se vinculaba con grandes empresas, universidades y gobiernos. Sin embargo, la llamada democratización de la IA ha permitido a esta tecnología llegar a más personas y organizaciones. ¿Por dónde empezar? América Latina es un territorio pyme. Para ser más exactos, constituyen el 99.5% de las empresas y aportan el 35% al Producto Interno Bruto de países como Colombia. Más importante aún, generan el 65% del empleo. Por ello, al hablar de inteligencia artificial en este nicho, sus consecuencias pueden ser mayúsculas para el desarrollo de la región. A nivel general, el 40% de las empresas en América Latina ya utiliza alguna forma de inteligencia artificial, mientras que otro 40% explora su implementación. Este crecimiento es impulsado por la transformación digital en sectores clave como el financiero, la salud y el comercio minorista, además del respaldo de políticas gubernamentales y la colaboración entre los sectores público y privado. La importancia de la IA para las pymes radica en su capacidad para nivelar el campo de competencia. Estas tecnologías permiten a las empresas más pequeñas acceder a herramientas de análisis de datos, automatización y personalización que antes estaban reservadas para grandes corporaciones. Según el Instituto Internacional de Finanzas, se estima que la IA podría aportar hasta 5.4% al Producto Interno Bruto (PIB) de América Latina para el año 2030. Los beneficios directos para las pymes que adoptan IA incluyen un aumento de la productividad y una reducción de los costos operativos que minimiza el error humano y libera al personal para que se concentre en funciones estratégicas. ¿Por dónde debe empezar una pyme? Una pequeña o mediana empresa que quiera adoptar la inteligencia artificial debe partir por informarse sobre los conceptos básicos de la IA, evaluar sus procesos e identificar sus áreas de mejora, con objetivos claros y medibles. Aunque la inteligencia artificial está de moda, ciertamente está lejos de ser nueva y existe en diversidad de sectores y «sabores», desde la IA generativa capaz de interactuar con clientes hasta la IA predictiva capaz de generar escenarios de mercado para la mejor toma de decisiones de la alta gerencia. Un enfoque con objetivos claros asegura que la adopción de la IA esté alineada con las necesidades del negocio y se base en un presupuesto realista. Una vez definida la estrategia, la pyme debe prepararse internamente para el cambio, tanto en su infraestructura tecnológica como en su talento humano. En este punto, se recomienda comenzar con proyectos piloto pequeños, de bajo riesgo y alto impacto, como un chatbot, para probar la tecnología y demostrar su valor antes de una inversión mayor. Contrario a lo que podría pensarse, la adopción de la IA no tiene por qué ser costosa. Existen numerosas herramientas asequibles y modelos de suscripción (SaaS) que se adaptan a los presupuestos de las pymes. Algunos ejemplos de IA en pymes: Los ejemplos prácticos de IA para pymes son variados y cubren múltiples áreas del negocio. En el ámbito del marketing y las ventas, herramientas como Jasper o ChatGPT (en su versión paga) automatizan la creación de contenido para blogs y redes sociales, mientras que plataformas como Canva simplifican el diseño gráfico y soluciones como HubSpot o Brevo personalizan campañas de email marketing. Para mejorar la atención al cliente, la implementación de chatbots inteligentes con tecnologías de Tidio o Zendesk AI permite ofrecer respuestas automáticas e instantáneas. En cuanto a las operaciones y la productividad, es posible automatizar flujos de trabajo con aplicaciones como Zapier o Make y potenciar el trabajo diario con servicios como Fireflies.ai para resumir reuniones. Recapitulando, existe una plataforma de IA para cada necesidad, por lo cual la pregunta no es su disponibilidad, sino realmente conocer las necesidades de cada empresa y sobre todo su política de datos, porque una IA solo será tan buena como la información con la cual se alimente. ¿Está su pyme lista para eso? Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí. Foto de Freepik Computación cuántica, ¿cómo estamos?La regulación de la IA: entre la innovación y la ética
Computación cuántica, ¿cómo estamos?Jorge A. Hernández 22 septiembre, 2025 Willow, Majorana, Starling o neglectones son palabras que probablemente no le importan a la mayoría de los mortales; sin embargo, el futuro de la computación cuántica y del mundo como lo conocemos puede estar ligado a ellas. ¿Por qué deberían importarnos estos avances? La computación cuántica está en auge, con un incremento en la inversión de 1.250 millones de dólares comparado con el año anterior. El porqué de este aumento está ligado con su potencial, y es que esta tendencia promete convertirse en la siguiente gran revolución tecnológica. Para darnos una idea de la actividad de este nicho, basta con mirar las cifras. Un informe de Visual Capitalist identificó un total de 274 startups de computación cuántica en 2025, destacando a Estados Unidos, Canadá y el Reino Unido como los principales centros de actividad. De manera similar, la plataforma de inteligencia de mercado StartUs Insights menciona haber analizado 360 startups y encontrar registros de más de 296.000 patentes, más de un millón de empleados, más de 3.500 becas, 5.900 inversionistas y promedios de inversión (por ronda) superiores a los 28 millones de dólares. Por eso, noticias como Majorana, Willow, Starling o los neglectones aumentan el optimismo alrededor de un nicho de mercado definido por IBM como “un campo de la informática y la ingeniería que aprovecha las cualidades únicas de la mecánica cuántica para resolver problemas que superan la capacidad incluso de los ordenadores clásicos más potentes”. Beneficios y hallazgos A grosso modo, los beneficios de la computación cuántica prometen un salto de desempeño en campos como las simulaciones moleculares y de materiales, la criptografía, la gestión de riesgos financieros y un mayor aumento en el procesamiento de las plataformas de inteligencia artificial, entre otras posibilidades. Hablamos de una tecnología que permitiría producir mejores fármacos que aumentarían la longevidad humana, mejores fertilizantes para cubrir las necesidades de una población creciente, predicciones climáticas más acertadas y materiales y robots más inteligentes, entre muchas otras opciones. Se trata de una revolución que está pasando en este momento y que adoptará diversos modelos y servicios, como el Quantum Computing as a Service (QCaaS), y que cada día está superando desafíos científicos con el surgimiento de nuevos procesadores como el Majorana de Microsoft o el Willow de Google. Neglectones y otros desafíos Uno de los mayores retos a la hora de construir computadores cuánticos es su fragilidad. Requieren condiciones extremas, como temperaturas cercanas al cero absoluto, porque sus componentes (como los cúbits superconductores) solo funcionan adecuadamente en este entorno. La escala y complejidad física de estos dispositivos implican grandes desafíos: montar, sincronizar y controlar cientos de cúbits con precisión, además de evitar la “decoherencia”, que destruye la información cuántica. Los sistemas, incluso los prototipos actuales, suelen ocupar laboratorios completos y requieren inversiones millonarias. Por ello, los neglectones son tan prometedores. Son partículas teóricas que han surgido de una nueva interpretación matemática en el campo de la computación cuántica, que intentan resolver problemas complejos relacionados con la estabilidad y universalidad de los qubits y podrían abrir el camino para la creación de nuevos equipos. Estos avances tecnológicos están acercando al mundo al umbral de la «ventaja cuántica», el punto en el que un computador cuántico puede resolver un problema de interés práctico de manera más rápida, económica o precisa que cualquier supercomputadora clásica. ¿Cuándo llegaremos? Eso no lo sabe nadie, pero nos estamos acercando y su empresa se debe estar preparando para ello. Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí. Foto de Freepik Los LLM en el sector salud, un agente de cambioLa importancia de la IA para las pymes
Los LLM en el sector salud, un agente de cambioJorge A. Hernández 21 septiembre, 2025 Los LLM han sido los protagonistas de la democratización de la inteligencia artificial, desde ChatGPT hasta Gemini, estas plataformas han revolucionado servicios de atención al cliente, consultas e incluso creación de contenido, pero van mucho más allá de eso y un ejemplo es el sector salud. ¿Cómo lo está cambiando? Descúbralo con nosotros. Según proyecciones de Global Market Insights, el impacto de la inteligencia artificial en el sector salud es gigantesca, superando los 317 mil millones de dólares en 2032. Una cifra disparada por varias tendencias que van desde la analítica predictiva hasta el uso de los grandes modelos del lenguaje (LLM). El volumen de este mercado se explica por la diversidad de este nicho, que incluye desde la fabricación de medicamentos, la administración de recursos, el pago de grandes nóminas y por supuesto la gestión de la experiencia de los clientes (pacientes), así como de los proveedores y el talento humano. En este nicho los LLM han logrado apalancarse no solo como una herramienta de atención de quejas, trámites y reclamos, también han logrado convertirse en verdaderos asistentes médicos y más avanzado aún, como generadores de datos sintéticos empleados en la lucha contra enfermedades poco frecuentes. No todos los LLM son iguales Dados a conocer por el auge de plataformas como ChatGPT, de OpenAI, y Gemini, de Google, entre otros, los grandes modelos de lenguaje se han convertido en la tecnología de moda. Sin embargo, es importante distinguir entre los modelos de propósito general y sus contrapartes especializadas como ocurre en salud. Los modelos específicos creados para el sector salud están ajustados con grandes volúmenes de datos médicos que demuestran un rendimiento superior en tareas clínicas de alta complejidad. Además, este mercado requiere de mayor precisión y fiabilidad, imagine las consecuencias de un error en este terreno. Aplicaciones de los LLM en salud Los modelos de lenguaje aplicados a la salud están transformando diferentes áreas de la atención médica como el diagnóstico y apoyo clínico. Herramientas como Med-PaLM 2 han alcanzado un desempeño comparable al de expertos en exámenes médicos, lo que permite a los profesionales tomar decisiones más precisas y acceder a información actualizada sobre condiciones y tratamientos. En cuanto a la automatización administrativa, estos sistemas generan notas clínicas, remisiones, resúmenes y codificación médica, además de responder consultas en portales de pacientes. Esto no solo disminuye la carga operativa, sino que también reduce errores humanos. De manera complementaria, el análisis multimodal permite procesar texto, imágenes y audios médicos para tareas como la interpretación de radiografías, la estratificación de riesgos y la creación de informes, lo que agiliza evaluaciones más completas. El presente y futuro de los LLM La forma más efectiva de integrar los LLM en los flujos de trabajo clínicos es en un rol de apoyo, con supervisión humana de las decisiones finales. Esto se debe al riesgo de que los modelos produzcan resultados inexactos o «alucinados«. En el presente, los LLM son cruciales para optimizar la administración de la atención médica, abordando la sobrecarga de información y la carga de documentación. Como muestra, los chatbots impulsados por IA y los asistentes virtuales pueden manejar hasta el 70% de las llamadas telefónicas de rutina. Este enfoque en tareas menos riesgosas es una estrategia para que las organizaciones generen un retorno de inversión (ROI) tangible antes de abordar aplicaciones clínicas de mayor riesgo con la IA. Además, los LLM especializados facilitan la atención personalizada mediante chatbots que apoyan el triaje, el seguimiento, la educación en salud y la asistencia en salud mental, incluso en distintos idiomas y contextos culturales. Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí. Foto de Freepik Vibe coding, el nuevo paradigma del softwareComputación cuántica, ¿cómo estamos?
Vibe coding, el nuevo paradigma del softwareJorge A. Hernández 14 septiembre, 2025 Acuñado en febrero de 2025 por el investigador de IA, Andrej Karpathy, el término Vibe Coding se ha convertido en una tendencia global que está cambiando la forma de desarrollar software. Pero ¿en qué consiste exactamente y hacia dónde se dirige esta iniciativa? El auge de la inteligencia artificial es tan grande que es probable que ya intuya lo que es el Vibe Coding sin conocer siquiera el término. Hablamos de una iniciativa tan poderosa que podría transformar para siempre la forma en que interactuamos con las máquinas. Para comenzar, el diccionario Merriam-Webster lo definió de la siguiente manera: «El vibe coding es un término acuñado para referirse a la práctica de escribir código, crear páginas web o aplicaciones simplemente indicando a un programa de inteligencia artificial lo que se desea y dejando que este cree el producto». En la codificación vibrante o vibecoding (también puede escribirse junto), el programador no necesita comprender cómo o por qué funciona el código, y a menudo tendrá que aceptar que habrá cierta cantidad de errores. Este proceso invita a «dejarse llevar por las vibraciones y olvidar que el código existe». Este enfoque cambia el rol del desarrollador de la escritura de código línea por línea a un papel de guía y refinador de un asistente de IA. Esto acelera el ciclo de desarrollo y disminuye la barrera de entrada para aquellos sin conocimientos de programación. Se trata de una iniciativa con el potencial de permitir que cualquier persona se convierta en programador usando lenguaje natural, lo que facilita la comunicación de ideas y la creación rápida de prototipos, un camino abierto por las plataformas low code. Los grandes actores detrás del Vibe Coding Las principales compañías que impulsan el desarrollo del vibe coding provienen de distintos sectores tecnológicos. Entre ellas se encuentra Lovable, una startup de Estocolmo que en su primer año superó los 100 millones de dólares en ingresos y alcanzó una valoración de 1.500 millones de dólares. Otro de los actores relevantes es Anthropic, una de las startups de IA más importantes del momento, que cuenta con el patrocinio de gigantes como Amazon y Google, entre otros. Precisamente, sobre esta tecnología funciona Replit, una propuesta enfocada a perfiles más experimentados en programación con un entorno que favorece la creación acelerada de prototipos. En el ámbito corporativo, GitHub Copilot en sus versiones Enterprise y Pro se destaca como una herramienta que interpreta grandes bases de código y ofrece funciones de seguridad y escalabilidad para empresas. Pero estas son apenas, la punta de lanza de una competencia global. Desafíos y riesgos del Vibe Coding Aunque el vibe coding ofrece beneficios, también plantea desafíos, en especial en la distancia entre la generación y el mantenimiento del código. El software producido por inteligencia artificial puede resultar complejo, duplicado o difícil de manejar. Esto complica la depuración, ya que el programador muchas veces no comprende la lógica detrás del código generado. Como consecuencia, el ahorro inicial de tiempo puede transformarse en retrasos, mientras los equipos se ven obligados a invertir recursos en una ingeniería inversa del producto. Otro riesgo es la dependencia de la IA. Una confianza excesiva en estas herramientas puede debilitar las habilidades básicas de los desarrolladores y limitar su capacidad de respuesta cuando los sistemas fallan. Por estas razones, el vibe coding es visto como una herramienta ideal en forma híbrida. Es decir, no sustituirá a los ingenieros de software, sino que transformará sus funciones. Para 2030, se espera que el rol del desarrollador esté más orientado a la orquestación de sistemas, la ingeniería de prompts y la revisión de calidad. ¿Ya ha pensado en implementarlo en su empresa? Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí. Foto de Freepik ¿Cómo la IA está cambiando la industria de la moda?Los LLM en el sector salud, un agente de cambio
¿Cómo la IA está cambiando la industria de la moda?Jorge A. Hernández 14 septiembre, 2025 Aunque pueden parecer divergentes, el mundo de la moda y la Inteligencia Artificial (IA) están caminando de la mano con nuevas tendencias que van desde asistentes digitales para el diseño, hasta la creación de nuevos materiales más resistentes y amigables con el medio ambiente. Conozca la historia de esta amistad entre la tecnología y la creatividad. Si es usted amante de la moda y la tecnología no olvide este nombre: The New Black, una plataforma de Inteligencia Artificial que ha logrado reunir a más de 500.000 diseñadores, marcas y creadores que utilizan la tecnología como un asistente en la creación de sus obras. Se trata de una plataforma que no solo permite crear nuevos diseños a partir de simples instrucciones, también ayuda a generar anuncios publicitarios e incluso tiene un “probador” virtual para que los diseñadores vean cómo se ven sus creaciones en modelos digitales. Pero The New Black no el único, solo es un ejemplo de la nueva camada de plataformas de inteligencia artificial que están cambiando el mundo textil y de la moda. Entre muchos nombres algunas iniciativas que se destaca son: Ablo: plataforma para que empresas escalen marcas de moda con diseño avanzado de IA y colaboración entre creadores, democratizando el diseño. Resleeve.ai: genera imágenes fotorrealistas a partir de bocetos o imágenes, útil para prototipos rápidos, sesiones fotográficas virtuales y edición de texturas y patrones. Browzwear: software de diseño 3D que convierte patrones en prendas virtuales precisas, ayudando a acelerar tiempos y mejorar el ajuste antes de producción física. CLO: software de diseño 3D muy usado en la industria para visualización realista y simulación de prendas. Campos de acción de la IA en la moda Pero no solo la nueva ola de startups de diseño y gestión textil están usando inteligencia artificial también marcas reconocidas como G-Star RAW y Desigual la usan para optimizar el diseño y lanzamiento de colecciones, personalizar productos y prever necesidades logísticas, buscando mayor eficiencia y mejores experiencias de compra y uso. Porque la inteligencia artificial (IA) ha pasado de ser una herramienta complementaria a una tecnología central que está reconfigurando la industria de la moda y la industria textil en su totalidad en múltiples campos de acción. Algunos de sus usos incluyen: Diseño de moda y creación de patrones Seguimiento de tendencias y comportamiento del consumidor Personalización y adaptación Específicamente la IA actúa como asistente creativo para los diseñadores, sugiriendo nuevas ideas, patrones y gamas cromáticas. Herramientas como AiDa y Refabric permiten generar colecciones originales basadas en imágenes y bocetos, acelerando el proceso de diseño. En lo que toca a tendencias y comportamiento del consumidor, los algoritmos de IA analizan grandes volúmenes de datos (redes sociales, desfiles, revistas, fotos en línea), para identificar patrones emergentes y diseñar prendas alineadas con las preferencias del público. Esto permite prever tendencias, adaptar creaciones a demandas actuales y maximizar ventas. Además, la IA permite adaptar diseños a necesidades específicas de consumidores, creando prendas personalizadas y variaciones de modelos sin el trabajo manual tradicional. Los algoritmos pueden ajustar medidas, estilos y detalles y proponer accesorios en función de la estética deseada. Innovación en textiles y procesos Otro aspecto donde la IA impacta a la industria textil es en la inspección automatizada de telas, detección de defectos, mantenimiento predictivo y optimización de cadenas de suministro, reduciendo desperdicio y mejorando la sostenibilidad. El uso de IA también ayuda a aprovechar mejor los materiales y minimizar el impacto ambiental de la producción. Además, la combinación de IA y componentes digitales ha hecho posible los llamados textiles inteligentes: tejidos con sensores, hilos conductores y microprocesadores que responden a condiciones externas (temperatura, movimiento, presión). Por ejemplo, ya existen prendas que cambian de color en tiempo real basadas en gestos o fotos, y ropa capaz de monitorear la salud del usuario y ajustar características como la temperatura automáticamente. Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí. Foto de Freepik Reskilling y upskilling: capacitación en tiempos de la IAVibe coding, el nuevo paradigma del software
Serverless computing y su relevancia empresarialJorge A. Hernández 7 septiembre, 2025 Con un tamaño de mercado proyectado en más de 52.120 millones de dólares para 2030, el serverless computing, o “computación sin servidor” es un modelo de desarrollo y ejecución de aplicaciones, un concepto que cada día crece en importancia. ¿Cuál es su secreto y cómo afecta a las empresas? Durante décadas los servidores, esos computadores de alto desempeño, han sido considerados como uno de los pilares de la infraestructura tecnológica empresarial. Sin embargo, a mediados de la segunda década de este siglo, un nuevo concepto, el serverless computing, o computación sin servidor empezó a ganar tracción en innumerables industrias. Para colocar en cifras basta mirar las proyecciones: según cálculos de la firma Grand View Research, el mercado global de computación sin servidor se estima que pasó de 24.510 millones de dólares en 2024 y se prevé que alcanzará los 52.130 millones de dólares estadounidenses en 2030. Como dato curioso, a pesar de su nombre, el serverless computing, no elimina los servidores, sino que transfiere su gestión a los proveedores de la nube. Siendo más exactos y según el prestigioso Instituto Tecnológico de California (Caltech), la computación sin servidor es un modelo de ejecución de computación en el que el proveedor de la nube gestiona la asignación y el aprovisionamiento de servidores y recursos. En otras palabras, el serverless nació por la necesidad de facilitar y abstraer la gestión de servidores ya que en los modelos tradicionales (como en las máquinas virtuales o contenedores) las empresas debían aprovisionar, configurar y mantener infraestructura incluso cuando no se estaba usando al 100%. Algunos antecedentes Los orígenes de la computación sin servidor se pueden encontrar en décadas de evolución tecnológica que se centraron en la abstracción de recursos. El punto de partida de este viaje se remonta a los años sesenta y setenta, con la introducción del tiempo compartido para los mainframes de IBM, que permitió que una máquina se compartiera entre varios usuarios. Este continuó con la virtualización, un concepto popularizado por IBM en los años setenta y relanzado por VMware en 1999, que sirvió de base para la Infraestructura como Servicio (IaaS). El siguiente paso fue el PaaS (Platform as a Service), donde los desarrolladores podían alquilar un entorno de ejecución completo, lo que redujo la carga de la gestión de la infraestructura. Sin embargo, el término “serverless computing” ganó popularidad hasta 2014 y se convirtió en un estándar de la industria tras el lanzamiento de Amazon Web Services (AWS) Lambda, la primera plataforma comercial de computación sin servidor. Las razones tras su crecimiento El crecimiento del serverless computing este mercado está impulsado por el uso de la Función como Servicio (FaaS) y el Backend como Servicio (BaaS), donde el FaaS representó el 58% de la cuota de mercado en 2024 según un informe de Motor Intelligence. Otras ventajas de este modelo son su escalabilidad automática que se adapta a la demanda sin necesidad de intervención manual, la reducción significativa de costos ya que se paga solo por el tiempo que el código está en ejecución, y la simplificación operativa al eliminar la gestión directa de servidores. Además, la automatización de la gestión del servidor permite a los equipos de desarrollo acelerar el ciclo de desarrollo, reduciendo el tiempo de comercialización de meses a días. La relevancia de la computación sin servidor persiste porque ofrece soluciones directas a desafíos comerciales clave. En cuanto a su futuro, la computación sin servidor se está consolidando como una capa fundamental para tecnologías emergentes como la inteligencia artificial y el aprendizaje automático (IA/AM), lo que garantiza su relevancia a largo plazo. En otras palabras, el serveless computing es un paradigma para rato. Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí. Foto de Freepik Supercloud: ¿el futuro de la nube empresarial?Herramientas para ventas en 2026: ¿cuáles son las tendencias clave?
Gestión de identidad, más necesaria que nuncaJorge A. Hernández 7 septiembre, 2025 Pocas veces ha sido tan importante y frecuente identificarnos como ahora. Desde el uso de redes hasta las compras en línea y los trámites, la gestión de la identidad se ha convertido en una constante. ¿Qué tecnologías se usan en esta tendencia y hacia dónde nos dirigimos? Hoy en día, el acceso a las empresas es un ballet tecnológico diverso que incluye desde tarjetas físicas y sensores biométricos hasta aplicaciones móviles. Se trata de una sofisticación que hace fácil olvidar que la gestión de la identidad es una necesidad humana que proviene de hace milenios. Por ejemplo, en el Neolítico, algunas tribus usaban tatuajes y cicatrices para demostrar su pertenencia a diferentes grupos étnicos y sociales. Sin embargo, el surgimiento de las urbes y los imperios hizo necesaria la creación de registros de identidad escritos para cuestiones tributarias y logísticas. Incluso los viajes hicieron surgir los famosos «salvoconductos» impulsados por los comerciantes. No obstante, técnicamente hablando, la primera tecnología para la identidad se basó en un viejo conocido de la humanidad: el papel. La transición al plástico Ya en el siglo XX y en los ambientes corporativos, el siguiente salto tecnológico provino de las tarjetas de plástico. Los primeros carnés de identidad eran de papel laminado, fáciles de falsificar y propensos al deterioro. La necesidad de mayor durabilidad y seguridad impulsó la transición al plástico. En 1960, estas tarjetas evolucionaron gracias a la banda magnética, una iniciativa de IBM para la CIA que permitió incluir información adicional en estos dispositivos. Esta tendencia fue copiada posteriormente por la banca, el gobierno e incluso el transporte. Según Fact.MR, el mercado mundial de tarjetas sigue vigente, con 18.400 millones de dólares en 2024 y superará los 37.200 millones en 2034. La llegada de la biometría La siguiente gran revolución de la gestión de la identidad llegó con la biometría. Aunque esta afirmación es una verdad a medias, las señales biométricas, como las mediciones antropométricas de partes del cuerpo, ya se usaban desde 1879 por el francés Alphonse Bertillon para la identificación de criminales. Para 1892, Francis Galton dio un paso adelante en los sistemas de identificación cuando desarrolló un sistema de clasificación de huellas dactilares que sigue usándose en la actualidad. Sin embargo, fue hasta finales del siglo XX y comienzos del XXI cuando la biometría fue ganando terreno con avances en reconocimiento facial, de iris e incluso de voz, popularizados por aplicaciones móviles, asistentes digitales e incluso parlantes inteligentes (como el Amazon Echo en 2014). Otro aspecto de esta tecnología es la llamada biométrica del comportamiento, una tendencia que autentica a las personas a través de patrones de interacción, como la forma de firmar, la cadencia al teclear o incluso la forma de caminar. La evolución de la gestión de la identidad En el mundo actual, la identidad a menudo es más virtual que física. La identidad digital abarca todo el conjunto de datos de una persona en línea, incluyendo nombres de usuario, historial de navegación y datos biométricos, pero esta también está evolucionando. Los sistemas de identidad digital están cambiando a través de tres vías principales: la identidad federada (un solo inicio de sesión para múltiples plataformas), las identificaciones electrónicas (tarjetas físicas con chips) y las carteras de identidad digital. Las carteras digitales representan un cambio hacia un modelo de autenticación centrado en el usuario, donde el individuo tiene un control granular sobre la información que comparte. En este espacio, la tecnología blockchain permite la llamada identidad auto-soberana (SSI), una tendencia que da al individuo «control absoluto sobre su identidad». Y ahora la inteligencia artificial Otro factor de cambio es la inteligencia artificial (IA), que no solo potencia los sistemas biométricos para mejorar la precisión, sino que también permite la autenticación continua, monitoreando el comportamiento del usuario en tiempo real para detectar desviaciones y posibles amenazas. Por cierto, la gestión de la identidad ha cambiado tanto desde sus orígenes que ahora se habla de la administración de identidades no humanas (NHI). Se trata de identidades digitales que representan máquinas (API), aplicaciones, servicios, dispositivos (tokens) y procesos automatizados dentro de una infraestructura tecnológica. Su crecimiento ha sido tal que se estima que el volumen de entidades no humanas en una organización puede ser de 5 a 10 veces mayor que el de identidades humanas. Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí. Foto de Freepik La ingeniería social con deepfakes y su impacto en la ciberseguridadRBAC, un pilar de la ciberseguridad moderna
La ingeniería social con deepfakes y su impacto en la ciberseguridadJorge A. Hernández 31 agosto, 2025 Separados, los deepfakes y la ingeniería social son considerados dos de las herramientas más usadas por los cibercriminales en la actualidad. Sin embargo, cada vez más se están articulando como parte de sofisticados ataques contra las organizaciones. ¿Cómo se están usando y por qué? En el fondo, deepfakes e ingeniería social siempre han estado unidos por un sentido narrativo con fines criminales. Esto ha sido explotado por los ciberdelincuentes en su afán de vulnerar las defensas de organizaciones, empresas y gobiernos. Pero ¿cuándo comenzó esta historia? Para responder a esta inquietud, empecemos con el más sofisticado de la dupla. El término «Deepfake» no nació del ingenio de los investigadores ni de las autoridades, sino de los propios criminales. En 2017, en Reddit se utilizó el nombre deepfakes en videos pornográficos con tecnología de intercambio de rostros para superponer caras de famosos en cuerpos de otras personas. La palabra en sí es una combinación de «deep learning«, la tecnología de IA utilizada para crear los videos, y «fake» o falso. Aunque el subreddit original fue eliminado, el término ganó popularidad y, desde entonces, es ampliamente reconocido para cualquier forma de medio sintético creado con IA. Es más, algunos deepfakes ni siquiera utilizan video. Como muestra, en 2019, el CEO de una empresa energética inglesa perdió 243.000 dólares cuando un estafador se hizo pasar por su jefe. La estafa solo se descubrió cuando la empresa en Hungría solicitó un segundo pago. Una conocida de siempre: la ingeniería social Contrario a lo que muchos creerían, el término «ingeniería social» se refería originalmente a algo positivo. De hecho, fue acuñado por el filántropo holandés Jacob Cornelis van Marken en 1894 para referirse a la intervención profesional orientada a mejorar las estructuras sociales y la relación entre el capital y el trabajo en las empresas. Una intención parecida a la que tenía el conocido filósofo Karl Popper cuando, en 1945, introdujo el término para referirse al uso de elementos sociológicos y psicológicos con el fin de mejorar sociedades. Pero fue hasta 1970 que el sentido de estas palabras varió hacia lo que conocemos en la actualidad. Según el Instituto de Estándares Estadounidense (NIST), la ingeniería social puede ser definida como «el acto de engañar a una persona para que revele información confidencial, obtener acceso no autorizado o cometer fraude, asociándose con la persona para ganarse su confianza». Un trabajo en equipo Aunque los deepfakes se dieron a conocer en 2017, los primeros usos en crímenes provienen precisamente de 2019, cuando eran usados en campañas entrelazadas con ingeniería social, y es que esta última más que una tecnología es una estrategia de seducción y engaño. Un ataque de ingeniería social con deepfakes no es un incidente aislado, sino una campaña coordinada basada en la obtención de información para construir una narrativa creíble. Los atacantes explotan la confianza de las personas y su predisposición a obedecer a figuras de autoridad, lo que hace que los ataques sean más efectivos. Y peor aún, cada día son más sofisticados. Un estudio indicó que solo el 0.1% de los participantes pudo distinguir con precisión el contenido real del deepfake. Las personas tienden a sobreestimar sus propias habilidades de detección y son más propensas a confundir deepfakes con contenido auténtico. Por ello, basar la defensa en la capacidad de los empleados para detectar deepfakes se considera una estrategia con un resultado no favorable. ¿Cómo combatirlos? La defensa contra los deepfakes y los ataques de ingeniería social debe centrarse en la verificación y en los protocolos basados en procesos claros. Así, en lugar de entrenar a las personas para que identifiquen un deepfake, el objetivo es educarlas para que sigan los procedimientos establecidos. Es más, las organizaciones pueden implementar simulacros para evaluar las vulnerabilidades en los flujos de trabajo y controles de seguridad de la empresa. Además de las medidas centradas en los procesos, se recomienda implementar métodos estrictos como la autenticación multifactor (MFA) y validaciones multicanal antes de operaciones sensibles. Y por supuesto, se debe usar tecnología, pues ya existen soluciones de IA que analizan imágenes, audios y videos para detectar los deepfakes. Están, por ejemplo, Sensity, Deepware, DuckDuckGoose, algoritmos de desincronización audio-labial. Además, es fundamental incluir una filosofía que comience por la desconfianza (Zero Trust) enseñando que, si algo parece muy bueno para ser cierto, es por algo. Si quieres saber cómo desde Movistar Empresas te podemos ayudar a impulsar la transformación de tu negocio y a hacerlo de manera sostenible ingresa aquí. Foto de Freepik DCRAT: la ciberamenaza que suplanta a las autoridadesGestión de identidad, más necesaria que nunca