Marina Domínguez Despotismo Ilustrado vs. ingenieros de la NASA: origen del teletrabajo, redes geosociales y tips para volver a la oficina Si crees que el teletrabajo es un modelo moderno y disruptivo habilitado por los ordenadores e internet, sentimos decirte que no
Telefónica Ecuador Tecnología aplicada a la cobertura de salud: actualidad y futuro La salud del paciente y su calidad de vida son los objetivos fundamentales de la medicina sanitaria. Gracias a los avances de la tecnología se ha conseguido mejorar y estar más...
Moncho Terol Redes inalámbricas: un aliado de las comunicaciones empresariales Las empresas han modificado la forma de comunicarse en los últimos años. Con la llegada de las redes inalámbricas hoy es más rápido y simple comunicarse. Incluso, estos sistemas...
Mercedes Blanco ¿Cotizarán los autónomos por ingresos reales en 2019? Es una reivindicación histórica del sector. No es por levantar ampollas, pero ¿cuántas propuestas, proposiciones y proyectos se han presentado desde el colectivo de autónomos para que su cotización...
ElevenPaths ElevenPaths presenta DIARIO, el detector de malware que respeta la privacidad de los usuarios La herramienta escanea y analiza documentos de manera estática sin necesidad de conocer el contenido de los ficheros, respetando y garantizando su privacidad.DIARIO es un nuevo concepto de detección...
Gonzalo Álvarez Marañón Criptografía Ligera para un mundo doblegado bajo el peso del IoT Te contamos qué es la Criptografía Ligera y por qué el interés en ella ha aumentado tanto en el mundo del IoT en los últimos años.
Raúl Alonso Idaero, tres españoles que triunfan en la Agencia Espacial Europea ¿Qué peso puede soportar cada una de las piezas de un tren de aterrizaje durante el despegue para evitar el colapso? Idaero es una empresa de ingeniería madrileña especializada...
Cristina Martín Roales-Nieto Peoople, primera inversión de Wayra X, se convierte en líder en el mercado español del social commerce tras comprar 21 Buttons Peoople da un paso de gigante para convertirse en líder del social commerce en el mercado español tras la adquisición de 21 Buttons por un valor superior a los...
La revolución que traerá el NLPJorge A. Hernández 7 octubre, 2022 Desde los chats que atienden las llamadas hasta los sistemas de detección de spam en los correos electrónicos, los servicios basados en el procesamiento del lenguaje natural están dominando el mercado. Hace unos años, el CEO de Google, Sundar Pichai, afirmó que la inteligencia artificial era un descubrimiento tan importante como el fuego o la electricidad. Y aunque fue una frase polémica tal vez esté en lo cierto, y el Procesamiento de Lenguaje Natural (NLP, en inglés), es una muestra de ello. Definido como la rama de la inteligencia artificial enfocada en cómo los computadores entienden el lenguaje humano, lo interpretan y procesan, el NLP está creciendo a pasos agigantados. Por ello, el mercado global de Procesamiento del Lenguaje Natural ha pasado de valer poco más de once mil millones de dólares, en 2021, a unos 341 mil millones proyectados para 2030 y es que está en todas partes. NLP, más cerca de lo que parece ¿Alguna vez ha usado un asistente digital para preguntarle por una dirección, reseñas de un restaurante o los estrenos del cine más cercano? Esta es una de las aplicaciones más populares de los teléfonos inteligentes y se basan en el NLP. O por ejemplo, el mercado de los parlantes inteligentes, un segmento que movió más de 9.400 millones de dólares, en 2021. O los chatbots, una plataforma de interacción con el cliente casi omnipresente en todas las industrias. ¿Alguna vez se ha preguntado cómo algunas plataformas de correo electrónico determinan qué mensajes van hacia la carpeta de correo no deseado (spam) y otros quedan en la carpeta principal? Si pensó en NLP, está en lo correcto. Incluso algo un poco más inquietante, el NLP también se usa para el análisis de sentimientos de los clientes. Mediante esta metodología se clasifican las emociones de los consumidores segmentando sus mensajes y clasificándolos según unas escalas de valor predeterminadas. Y por supuesto, el NLP también es la base de todos los sistemas de traducción en línea, de los buscadores de internet, de los sistemas de autollenado de documentos y formatos en Internet, entre otros usos. Algunas verticales Y aunque el NLP tiene una utilidad transversal entre todas las industrias, como es el lenguaje, existen algunas verticales donde los expertos predicen que tendrán más impacto como es el caso del sector salud. El NLP es capaz de leer y comparar millones de estudios de enfermedades, síntomas y pacientes de forma automática, ayudando a los doctores a diagnosticar enfermedades más rápidamente. En recursos humanos, el NLP es capaz de detectar los candidatos con mayor potencial analizando sus respuestas e interacciones. En educación puede ajustar la carga académica de cada estudiante ayudándolo a mejorar de forma personalizada. Pero esto es apenas una parte, porque el NLP es, en últimas, el secreto para interactuar de forma más transparente entre humanos y máquinas, y aunque estamos en sus inicios se trata de una revolución en marcha. Imagen tomada de rawpixel en Freepik
Compute as a Service (CaaS) y el todo como un servicioJorge A. Hernández 7 octubre, 2022 En 1984, John Gage de Sun Microsystems inventó un eslogan que marcó una era: “The Network is the Computer», una premisa que décadas después, con la computación en la nube y ahora con el Compute as a Service, parece más vigente que nunca. Y es que el modelo de las centrales de cómputo con terminales menos poderosas sigue siendo seductor. Pero comencemos con las definiciones, el Compute as a Service o CaaS (por las siglas en inglés) es un modelo de infraestructura que proporciona recursos de procesamiento bajo demanda. De esta forma, el CaaS permite a las empresas simplificar y escalar sus necesidades informáticas trabajando mediante “workloads” o cargas de trabajo, abarcando desde las necesidades básicas de computación (terminales) hasta el Big Data y la seguridad informática. Pero el CaaS permite a las empresas acceder a servicios de computación de alto desempeño (HPC) democratizando súper plataformas de cómputo antes restringidas a megacorporaciones o institutos de investigación. Existen varios jugadores en este mercado, así como confusiones, porque el CaaS también tiene otros significados. Otros CaaS en el mercado Desde hace un par de años el modelo de servicios ha crecido tanto que ya habla del XaaS o del todo como un servicio, que básicamente abarca cualquier servicio informático que se entrega a través de Internet y se paga en un modelo de consumo. Por ello no es de extrañar que surjan otros significados para el CaaS donde el más conocido es el de contenedores como un servicio o Container as a Service. Recordemos que los contenedores son paquetes de elementos que permiten ejecutar una aplicación en cualquier sistema operativo. De esta forma nace el CaaS como un modelo de la nube, basado en contenedores, que permite desplegar y escalar rápidamente aplicaciones en infraestructuras de la nube. Y siguiendo con la explosión de términos también está el Commerce as a Service (CaaS) que trata de mover toda la computación y datos del comercio electrónico a la nube como una forma de reducir los costos operativos de las empresas al tiempo que tercerizan la infraestructura tecnológica. Pero, y volviendo al tema original de nuestro artículo, lo más interesante del Compute as a Service es la capacidad de ofrecer capacidades de cómputo nunca vistas en segmentos del mercado de menor envergadura ofreciendo nuevas herramientas a los emprendedores sin importar donde se encuentren. Imagen de ijeab en Freepik
Introducción al análisis de malware: tipos que existen, síntomas y cómo identificarlosTelefónica Tech 6 octubre, 2022 Cuando hablamos de malware en muchas ocasiones no nos damos cuenta de la amplitud de esa palabra. Que el malware es algo dañino está claro, y que provoca el mal funcionamiento del equipo una vez afectado, también. Pero, ¿qué tipos de malware existen, cuáles son los síntomas y cómo podemos identificarlos? Tipos de malware Partiendo de la base de que malware es cualquier programa informático diseñado para causar algún daño, podemos realizar la siguiente clasificación, que si bien no es la única sí es la más común: Virus: es un programa que se replica o propaga por los equipos con la ayuda del usuario.Gusanos: es lo mismo que el anterior sin la ayuda del usuario.Troyano: programa que pasa desapercibido.RAT: troyano de acceso remoto.Backdoor: programa que permite acceder remotamente o ejecutar comandos.Downloader o dropper: programa que descarga y ejecuta otro malware.Hacktool: programas utilizados para realizar diferentes tipos de ataques, aunque no tienen por qué ser maliciosos.Ransomware: programa que cifra los ficheros de los usuarios y solicita un rescate para su descifrado.Bot: programa que interactúa con otro de manera automática (comunes en IRC).Rootkit: programa que se oculta y que permite acceder al atacante con privilegios elevados y continuada.Keylogger: programa que captura las pulsaciones de teclado para informar posteriormente al atacante.Software de Minería: programa para realizar minería de criptomonedas como Bitcoin o similares en el equipo afectado.Info Stealer: programa que busca contraseñas o información personal para sustraerlas.Spyware: software que recopila actividad del usuario sin su permiso para enviarlas a su autor.PUP/PUA: programas no deseados como las barras de explorador, entre otras.Adware: malware que muestra continuamente publicidad. Si os preguntáis si solamente afecta a ordenadores y sistemas operativos Microsoft Windows la respuesta es “no, en absoluto”. El malware afecta a todos los sistemas operativos, incluyendo todo los más conocidos: Linux, macOS, Windows, Android, iOS… Lo que significa que optar por uno u otro supone estar a salvo de una infección, o al menos no completamente a salvo. Todos los sistemas operativos pueden verse afectados de un modo u otro por malware. Síntomas de estar afectado por malware Los síntomas pueden ser muy variados y muy diferentes dependiendo del sistema operativo, del tipo de dispositivo y, por supuesto, del tipo de malware del que se trate y de cuál sea un propósito. Algunos de los síntomas más comunes incluyen: El ordenador se ralentiza, comienza a ir más lento.Aparecen ventanas con mensajes que te felicitan por haber ganado un móvil o te ha tocado un cheque-regalo de 500 euros para un tienda online.Mensajes de error del sistema operativo; por ejemplo, la pantalla azul característica de Windows.El disco duro empieza a quedarse sin espacio e incluso se llena, sin motivo aparente.Aparecen utilidades, aplicaciones o barras de de herramientas (por ejemplo, en el navegador web) que no recuerdas haber instalado.El ventilador del ordenador empieza a funcionar de forma constante o erráticaArchivos, como fotografías, cambian de extensión o tipo de archivoAparece un archivo llamado README que dice, literalmente, que tu información está cifrada… Cualquiera de estos síntomas indica que, muy probablemente, tu ordenador está afectado por alguno de los tipos de malware que hemos mencionado en el apartado anterior. Dime qué malware tienes y te diré a qué botnet perteneces Cómo se cuela el malware en tu ordenador Generalmente suelen llegar por correo a modo de phishing, que es un término asociado a los correos recibidos en los que se busca engañar al receptor haciéndose pasar por alguien de confianza como una persona amiga, empresa o servicio de confianza como pueden ser una entidad bancaria, empresas de mensajería o de servicios como agua o luz, etc. Su propósito es manipular al receptor del mensaje para conseguir que ejecuten alguna acción, como abrir una URL o un archivo adjunto. Otra forma de entrada habitual del malware es en forma de software legítimo disponible en páginas de descarga de software o tiendas de apps de terceras. Y, ¿quién no ha buscado la manera de hacer funciona un programa con un generador de números de serie? Pues no os fieis nunca porque los ejecutables de tipo “cracks.exe” no suelen traer nada bueno. Otros, en cambio, llegan sin intervención del usuario. Como en el caso de WannaCry —al que acompañaba un ransomware— o antes Conficker, Blaster, Slammer, Sasser… Dependiendo de cuál sea el malware la solución puede ser más o menos fácil. Eso sí, esperemos que no sea un ransomware porque, aunque también puede tener solución, nunca es recomendable pagar ya que eso dará pie a que ese tipo de ataque se siga produciendo. ¿Qué hacer si nos llega algo y no sabemos qué es? De entrada, nunca debemos abrir y menos aún ejecutar un archivo cuyo origen o propósito desconocemos, incluso cuando llega, por ejemplo por email, de un remitente conocido o de confianza. En ese caso lo mejor es preguntar al remitente. También existen herramientas online que son útiles para conocer de qué se trata. Plataformas de Análisis online para el análisis de malware Las más utilizadas son estas: Virus TotalAny-RunTria-geJoe SandboxCAPE Sandbox Algunas requieren registro y, en general, una vez registrados se dispone de un número limitado de muestras. Si os dedicáis al mundo de la Ciberseguridad necesitaréis otro tipo de licencia ya que la versión gratuita se os quedará pequeña enseguida. ¿Son infalibles estas herramientas? No, por desgracia no lo son. Pero sí suelen ser de gran ayuda. Incluso cuando no son capaces de detectar la familia de malware a la que pertenece suelen dar al menos pistas que ayuden a identificarlo con algo de investigación adicional. Algún Indicador de Compromiso (IoC) obtendrás de estas plataformas, como en este ejemplo: Técnicas de detección que utiliza el malware Los programadores de malware conocen muy bien estas plataformas y son capaces de añadirles ciertos códigos que identifican dónde están siendo ejecutados. Las principales medidas que buscan en estos entornos son: Número de cores del procesador.Tamaño del disco duro.Que el ratón se mueva.Dirección MAC de la tarjeta de red.Alguna clave de registro perteneciente a máquinas virtuales.Nombre de la máquina o usuario autenticado.Ciertos procesos en ejecución (Antivirus, EDR, etc.)Idioma del teclado.Sistema operativo instalado.El nombre del malware o su ruta de ejecución.Si el programa está en modo depuración.Dirección IP de salida a internet.Número de documentos abiertos o recientes.Fecha y hora de ejecución (Sleep)… En caso de detectar algunas de éstas herramientas —incluso máquinas virtuales que utilizan algunas de estas herramientas— el malware no se llega a ejecutar, o bien proporciona datos de salida falsos para enmascarar su naturaleza. Cómo funciona Lokibot, el malware que utiliza Machete para robar información y credenciales de acceso Ejemplos de persistencia Si el malware se ve en un entorno amigable, es decir, cree que no está siendo detectado, entonces suele crear una clave en el Registro de Windows (método más común) para arrancarse cada vez que el usuario inicia sesión. De esta forma se asegura que si apaga el equipo o el proceso falla inesperadamente volverá a iniciarse en cada sesión. Hay varios sitios en los que crear la clave, AutoStart (HKLM / HKCU\ … RunOnce o Run), WinLogon Process (HKLM\ … Winlogon), BootExecute Key (HKLM\ … Session Manager), Startup Keys (HKLM / HKCU\ … User Shell Folders), Services (HKLM\ … RunservicesOnce o Runservices), Browser Helper Objects (BHO), AppInit DLL’s (HKLM\ … AppInit_DLL), etc. O simplemente acaba en el directorio de inicio del usuario o de todos los usuarios para tener más posibilidades de infección (siempre y cuando tenga permisos). Herramientas como Autoruns nos ayudan a identificar si algo no nos cuadra, si tenemos algún nombre desconocido en alguna de estas claves o algún ejecutable que no conozcamos, esta utilidad te permite borrar la clave directamente, eso sí, con cuidado de saber lo que se está haciendo, el Registro de Windows es muy delicado, una vez que borres la clave, ya no podrás recuperarla, así que antes de nada, ¡BACKUP del Registro! Ocultando el Malware final El malware, en general, no llega tal cuál sale del proceso de compilado. De esta forma sería más rápido analizarlo. No, no, se suele utilizar programas llamados Crypters que pueden cifrar, ofuscar, comprimir, añadirle otros iconos y funciones que sean capaces de detectar procesos antivirus, detección de depuradores, ejecución en máquinas virtuales, etc. El programa que crea el malware con las opciones mencionadas se llama Builder, y el que lo extrae de sí mismo y lo descifra para ejecutarlo se llama Stub. Una vez descifrado hay dos opciones: descargarlo a disco (Scantime)ejecutarlo en memoria (Runtime) Es más común ejecutarlo en memoria para dificultar así su detección por parte de los Antivirus. Existe mucho malware que no se ha subido aún a plataformas de análisis online por esta razón, al ejecutarse en memoria no se dispone de él en un fichero para poderlo subir y que se encarguen de decirnos qué tipo de malware es o a donde se conecta. Los analistas de malware los aterrizan al disco duro para que puedan ser analizados de dos formas que veremos a continuación. Pero antes, seguro que os estaréis preguntando como de fácil es conseguir este tipo de malware. Es más fácil de lo que os creéis. A menudo sale a la luz el Builder con el que se genera un malware, incluso su código fuente. Esto permite ampliar las capacidades del mismo y diferentes evoluciones por parte de terceros. Esta es la razón por la que se suele ver cómo ciertos tipos de malware comparten código: si el código está disponible nada impide a otro utilizarlo. Volvamos ahora a los dos métodos que hay para analizar malware. 1. Análisis estático, sin ejecutar el malware Durante un análisis estático no se llega a ejecutar la muestra, así que estamos a salvo de infectarnos. Los métodos utilizados son varios, principalmente: Desempaquetado del malware, si lo está (Crypters).Obtención de las cadenas (comando strings, acordaros de strings -e l, además del otro). Usad también Floss, obtendréis resultados que seguramente no esperéis.Identificación de muestras con reglas Yara (es mejor si sabemos lo que vamos a analizar, el tiempo corre…).Enumeración de funciones API o Application Programming Interfaces (no van a estar todas, pero te pude dar una idea del comportamiento).Desensamblado y decompilado (a menudo, el pseudocódigo en C/C++ es más entendible) del malware.Comprensión del flujo del malware.Obtención de la configuración del malware (si la tiene), el comportamiento, IOC, información útil, etc. 2. Análisis dinámico, ejecutando el malware (¡cuidado!, te vas a infectar) Le toca el turno al análisis dinámico. Este pretende certificar lo que hemos visto en el análisis estático. Hay veces que en el análisis estático no se ve de forma rápida lo que sucede, por ejemplo, en funciones donde están cifrados los datos, se le aplica el algoritmo que sea y mágicamente aparece la cadena que estábamos buscando. ¿Os acordáis de esas herramientas de análisis online? Pues son una ayuda para identificas posibles API en donde debemos poner breakpoints o puntos de ruptura en el debugger para poner especial atención en ellas. En un análisis dinámico se miran los procesos que se crean, la creación o modificaciones de ficheros o claves del Registro de Windows, tráfico de red, servicios que se crean o modifican, Mutex utilizados y con todo esto y lo que habíamos visto en el análisis estático deberíamos tener una idea exacta de lo que estamos analizando, deberíamos ponerle un nombre al malware. Snip3, una investigación sobre malware Herramientas de ayuda para el analista Existen una serie de herramientas en las que apoyarnos a la hora de estos análisis como los desensambladores (para convertir el lenguaje máquina a ensamblador) como son IDA, Ghidra, Radare, etc. Aquí podemos ver un ejemplo, es así como solemos ver el Malware. Tenemos los decompiladores (herramientas que convierten el código del Malware en un lenguaje a alto nivel más fácil de interpretar para para un humano). ¿Siempre se puede hacer esto? No, depende del lenguaje y compilador utilizados. DnSpy (.Net) y Jadx (Java) son bastante fiables. Por otro lado, tenemos los que te muestran un pseudocódigo que ayudan mucho en la compresión del código como por ejemplo los tres que se mencionaron como desensambladores. Pero cuidado, aunque no son 100% fiables, sin duda, hay que utilizarlos. Los depuradores son programas que nos ayudan a entender el comportamiento del malware según se esté ejecutando, así que cuidado, un ejecutar de más y te has infectado. Los más utilizados actualmente son x64dbg y Windbg. De nuevo, los tres que se mencionaron como desensambladores tienen esta función, así que el que más le guste al analista. Aún se siguen utilizando otros más antiguos como Ollydbg e Immunity Debugger (igual que el anterior con el plus de poder ejecutar scripts de Python para automatizar análisis), aunque cada vez menos. Este último es utilizado a la hora de analizar exploits gracias a scripts destinados al análisis de estos. ¿Alguien conoce Mona? Otras herramientas de apoyo son las utilidades de Sysinternals (Process Explorer, Process Monitor, Tcpview, Autoruns, etc.). Un capturador de tráfico, siempre es necesario saber qué se está enviando por la red y hacia dónde como, por ejemplo, Wireshark. La herramienta Yara para poder utilizar miles de reglas que existen para la detección de casi cualquier cosa. Tratar de realizar un listado de herramientas es complicado ya que cada uno suele utilizar las que más le gusta para cada tipo y cada Malware es un mundo, no se utilizan las mismas. Os animo a investigar sobre ellas. Reflexión final Cada día salen cientos y cientos de nuevos malware de todo tipo, así que no nos podemos despistar. Hay que estar al día sobre las diferentes familias que existen y sus evoluciones y visitar todas las plataformas online en donde los afectados suben las muestras para conocer qué les ha afectado, así que tenéis un buen punto de partida para detectar tanto lo antiguo como lo nuevo. Usadlas para comprender el comportamiento, para buscar nuevos sitios a los que se conectan para enviar la información que buscan, para generar reglas propias de detección, para buscar nuevas muestras aún sin catalogar, etc. Sin duda, el mundo del análisis de malware es apasionante y en constante evolución. Autor: Servicio de Análisis de Malware Boletín semanal de ciberseguridad, 24 — 30 de septiembreBoletín semanal de ciberseguridad, 1 — 7 de octubre
Interlinking SEO: qué es y cómo utilizarlo para mejorar tu posicionamiento webEdith Gómez 6 octubre, 2022 El interlinking o enlazado interno es un término que tiene relación con el posicionamiento de un sitio web. Se trata de una estrategia SEO con la que se crean enlaces dentro del propio dominio y no hacia páginas web de terceros. ¿Qué es el interlinking o enlazado interno? El interlinking es una técnica SEO mediante la cual se conectan las páginas de un sitio web a través de enlaces internos para originar una arquitectura web clara. El objetivo es posicionar las URL de interés. En otras palabras, el interlinking son los enlaces que creamos entre las distintas páginas de nuestra página web. No debemos confundir esta técnica SEO con otro concepto: backlinks o enlaces externos, que son aquellos que van de otra web a nuestra página y generan tráfico hacia ella, además de afectar a la autoridad de nuestro dominio. Para hacer este enlazado interno, hay que crear una estructura lógica. Esto quiere decir que los enlaces que vinculemos tienen que tener relación y seguir una temática. ¿Para qué sirven los enlaces internos? Los enlaces internos sirven para ofrecer una buena experiencia al usuario dentro del sitio web. Aunque pensemos en el usuario, también debemos tener en cuenta a Google. De hecho, existen algunos trucos para seguir buenas prácticas con el interlinking y que nos ayuden a posicionar algunas páginas para generar ventas en nuestro negocio. ¿Qué conseguimos si el usuario está más tiempo en nuestro sitio web? Que vean más veces nuestras ofertas.Facilitar la navegación, al indicar otra página de nuestro sitio que le puede interesar y que está relacionada.Transmitir autoridad de una página a otra. Esto se conoce como PageRank. Lo normal es que desde la home enlacemos a otras páginas que queremos posicionar, por ejemplo, a los servicios que ofrecemos.Reducir la tasa de rebote de nuestra web.Mejorar el tiempo de rastreo de Google. Cuanto menos tiempo invierta Google en revisar nuestras páginas, más rápido se indexarán las mismas y apareceremos en los resultados de las búsquedas que realice el usuario. Cómo hacer interlinking SEO: tipos de enlazado interno Estos son los enlaces que más se usan: 1. Enlazado interno horizontal o en cadena Se crean enlaces entre páginas que tienen el mismo nivel o profundidad, pero sin que existan conexiones entre ellas. Pongamos el ejemplo de una web de ropa, que tiene una categoría de pantalones y otra diferente de vestidos. Ambas están en el mismo nivel y se enlazan. 2. Enlazado interno vertical o estructura SILO Consiste en enlazar desde las páginas con más búsquedas o más autoridad hacia las páginas con menos búsquedas o con keywords long tail (palabras clave de varios términos). Siguiendo con el ejemplo de la web de ropa, imaginemos que la categoría de vestidos tiene una subcategoría de vestidos informales (casual). Y la principal enlaza a la de vestidos de este tipo. 3. Enlazado interno mixto Combina el enlazado interno vertical con el horizontal. 4. Enlazado natural Se enlazan los contenidos relacionados para aportar valor al usuario. Consejos para mejorar el interlinking SEO de tu página web Estas son algunas recomendaciones que deberás tener en cuenta: Enlaza desde el menú y el footer al resto de las URL Enlazar desde el menú y el footer (parte inferior de una página) a todas las URL de la web es uno de los primeros pasos en tu estrategia de enlazado interno para traspasar autoridad. Coloca tu enlace junto a textos con semántica relacionada Debemos colocar el enlace junto a palabras con una semántica similar. Esto aporta información a Google y además habrá más posibilidades de que el usuario haga clic. No utilices siempre el mismo anchor text No emplees siempre la keyword principal para el «texto ancla». Usa también variaciones de keywords long tail que sean descriptivas. Usa las «migas de pan» o breadcrumbs Las migas de pan o breadcrumbs son rutas que guían al usuario y mejoran su navegación en la web. Asimismo, indican a Google la jerarquía de las páginas. De esta forma, el usuario puede visitar rápidamente tanto la página final como las categorías a la que pertenece la página. Detecta los enlaces rotos Tener enlaces rotos que no conducen a ninguna página puede ser negativo si no se detecta a tiempo, ya que te hará perder tráfico, autoridad y además la tasa de rebote aumentará. Te recomiendo que hagas un seguimiento cada cierto tiempo con Ahrefs, SEMRush o Screaming Frog, por ejemplo, para detectar este tipo de enlaces (error 404). No enlaces a contenidos que no estén relacionados Si en un artículo estás hablando sobre cómo ser profesor de español, deberás enlazar a páginas que hablen sobre ello y no a otras temáticas que no tienen nada que ver, como por ejemplo enseñar ruso. Aprovecha los clústeres de contenido Los clústeres de contenido son un conjunto de páginas relacionadas con el término del que se habla en una URL específica. Sirven para favorecer la riqueza semántica del tema en cuestión y resolver dudas concretas al usuario, desde diferentes páginas que se complementan y se relacionan. Estas, además, darán más visibilidad al contenido principal gracias al interlinking. No utilices demasiados enlaces internos Ten en cuenta que una página con autoridad 100, por ejemplo, y 4 enlaces salientes, transmitirá 25 de autoridad a cada una. Por tanto, no tiene mucho sentido añadir 40 enlaces internos, porque solo transmitirá 2 o 3 de autoridad a cada una. En este sentido, como ves, es importante planificar bien el interlinking SEO para dar autoridad suficiente a aquellas páginas que nos interesen. Foto de Freepik Decálogo para desarrollar con éxito una estrategia de email marketingQué es la estafa del QR inverso y cómo evitar otros timos al escanear estos códigos
De la España vaciada a un ecosistema digital ruralFélix Hernández 6 octubre, 2022 Durante los pasados días 29 y 30 de septiembre se celebró en Don Benito (Badajoz), población que junto a Villanueva de la Serena construyen ahora la novísima Vegas Altas, la primera edición de la feria iRural. Este encuentro pone de relevancia el gran valor, económico y humano, de las poblaciones rurales. Son, como explicó el propio alcalde de Don Benito, las denominadas “ciudades de los 15 minutos”. En ellas, en contraposición con las megaurbes contaminadas que habitamos, se puede llegar en este breve espacio de tiempo a cualquier lugar andando. Precisamente por eso iRural tuvo su sede allí, en la bastedad y belleza de la dehesa extremeña, esta vertical de tránsito que discurre próxima a la Ruta de la Plata y que vertebra la península de norte a sur. Es donde el Guadiana cultivó la civilización desde siglos (recomiendo la visita a Medellín, patria natal de Hernán Cortés, con su fantástico teatro romano y castillo medieval). Sus regadíos propician ahora una prosperidad hortofrutícula, tomate y arroz (esta región posee más del 27 por ciento de la superficie cultivable del país). Productividad, sostenibilidad y territorio: la riqueza del mundo rural iRural busca crear y dinamizar un ecosistema digital rural en torno a los tractores económicos más importantes del entorno: el turismo gastronómico y cultural y el sector primario, acompañado de su transformación agroalimentaria. Ambos ejes serán las palancas de desarrollo de estas regiones, donde productividad, sostenibilidad y territorio generan sinergias y, sobre todo, riqueza. Casos de éxito con la colaboración público-privada por bandera Paulo Fernandes, alcalde de Fundao, enclave muy representativo de Portugal, explicó su caso, todo un ejemplo. Han sabido atraer a casi mil ingenieros en una población rural de 30.000 habitantes, tradicionalmente asociada al cultivo de la cereza y convertirla también en una comunidad agrotech. Han conseguido transformar el espacio y construir un lugar en el que merece mucho la pena vivir. Y ha sido posible gracias a un plan conjunto, en el que se implica la iniciativa privada y las Administraciones públicas. Los edificios públicos proveen las infraestructuras (incluidas las tecnológicas) para que las empresas localicen a sus trabajadores digitales y se abra paso la innovación. Una nueva economía digital pegada al territorio Estos espacios geográficos son capaces de invertir el relato vigente. ¿Dónde está la España vaciada? ¿Dónde queda la despoblación y la desertización?¿Y el envejecimiento y la falta de relevo generacional o la falta de oportunidades? No precisamente en Don Benito ni en esta zona de Extremadura. Este escenario gana habitantes y suma historias de gentes que felizmente creen y demuestran que hay una nueva economía digital, más pegada al territorio. Los retos Claro que hay retos en estas pequeñas ciudades, retos que fueron mencionados por el director general de Cohesión territorial del Gobierno de Castilla-La Mancha, Alipio García Rodríguez, o por Rafael España, consejero de Economía, Ciencia y Agenda Digital de la Junta de Extremadura. Son la necesidad de despliegue de las comunicaciones, redes IoT y de proyectos como corredores 5G. El medio rural debe tener su espacio en la brújula digital europea con voz propia. Hay también grandes retos de capacitación y emprendimiento rural, más allá de la digitalización de las empresas. También debe abrirse paso una estrategia de territorio rural inteligente que ayude a los pequeños ayuntamientos y pymes a participar en el proceso y construir una Administración más próxima. Los números dicen que en la España vaciada se pierde una persona a la hora. iRural quiere que pasemos página y muestra que lo digital es el mejor recurso para traer la prosperidad a nuestro campo. Un recetario de ideas y fórmulas para los retos de las organizacionesUn innovador enfoque de la ciberseguridad basado en el humor
Así se posicionan las startups de la Web3 y el metaverso María Ángeles Barba Rodríguez 6 octubre, 2022 El pasado 29 de septiembre tuvimos la oportunidad de asistir al Telefónica Metaverse Day, un evento en el que aprender y vivir en primera persona el tipo de experiencias que Telefónica nos propone como adelanto de las infinitas posibilidades que el metaverso trae en un futuro próximo. Una tarde llena de anuncios que evidencian la rotunda apuesta de Telefónica en Web3 y metaverso. Esto es skin in the game Durante el evento, conducido por Chema Alonso, Chief Digital Officer, y Yaiza Rubio, Chief Metaverse Officer, se reveló la inversión de Telefónica en Bit2me, el mayor exchanger de criptomonedas en habla hispana y con la que Telefónica va a probar los pagos con criptomonedas en las compras de dispositivos tecnológicos en su marketplace Tu.com. Y la compra de Imascono, empresa zaragozana que ya venía desarrollando algunas de nuestras experiencias en el metaverso, como la realidad aumentada de Movistar Prosegur Alarmas o la experiencia inmersiva de El Bully. También durante el evento se anunció el lanzamiento del Telefónica Marketplace de NFTs, con la venta de obras exclusivas de autores como Pérez-Reverte, Gomaespuma o la colección de NFTs creados por Javier Mariscal en colaboración con la Fundación World Vision para recaudar fondos y ayudar a los afectados por la guerra de Ucrania. En cuanto a alianzas estratégicas, se comunicaron los partnerships con empresas destacadas del sector como Qualcomm, para el uso de su plataforma Snapdragon Spaces en la creación de experiencias xR; Unity, plataforma líder en creación de contenido en tiempo real; Niantic, para la creación de experiencias de realidad aumentada sobre el mundo físico; Meta, con quien ya hemos desarrollado una experiencia propia en Horizon Worlds para Oculus y la Movistar Experiencia Inmersiva, que da acceso al mundo virtual diseñado por el artista español Okuda y permite, entre otras cosas, descubrir contenidos de Movistar+; y Microsoft, utilizando AltspaceVR, su plataforma social de VR para la realización de eventos virtuales en tiempo real, como reuniones de trabajo o eventos como el propio Metaverse Day, al que se pudo asistir desde el anfiteatro del metaverso de Microsoft. Por último, se anunció la incorporación de Telefónica como principal actor telco en el Metaverse Standards Forum, la alianza para un metaverso abierto e interoperable, en la que ya participan empresas de la talla de Qualcomm, Sony, Meta, Adobe, Google, Microsoft, Intel o Lenovo. La innovación abierta, parte de la estrategia de Telefónica en Web3 y metaverso Como parte del camino, los equipos de innovación abierta de Telefónica (Wayra y Telefónica Ventures) lanzamos el pasado marzo Open2Metaverse, una convocatoria para startups a nivel mundial, con el objetivo de apoyar las mejores soluciones tecnológicas en Web3 y metaverso, ayudándolas a crecer y a alcanzar escala global más rápidamente, conectándolas con Telefónica para generar oportunidades conjuntas. A las aplicaciones recibidas a través de la convocatoria sumamos las compañías identificadas por los scouters de Wayra, analizando en total alrededor de 2000 proyectos. Sin duda el ecosistema está en plena ebullición, listo para capturar una buena porción del pastel. Las startups son pieza clave a la hora de darle forma de manera práctica a las nuevas experiencias en el metaverso, de validar soluciones descentralizadas y de probar los nuevos modelos de negocio con economía de tokens. Así, Telefónica ha incorporado ya en su cartera de inversiones compañías como Helium, una red descentralizada de cobertura LoRaWAN para dispositivos IoT; Rand, la app móvil que permite a sus usuarios ahorrar gracias a un sistema de intereses generados con un sistema DeFi con cripto y utilizar dichos ahorros para el pago automático de suscripciones a servicios digitales; Crossmint, la plataforma que habilita la compra de activos digitales NFT con tarjeta de crédito; Gamium, un metaverso descentralizado con un mundo virtual propio y economía de tokens; o MetaSoccer, el metaverso para los amantes de fútbol. Además, contábamos con inversiones previas en compañías habilitadoras del metaverso del futuro como Matsuko, con tecnología para videollamadas con telepresencia holográfica o Voicemod, el cambiador de voz líder en el mundo del videojuego y que ahora ambiciona convertirse en la voz del metaverso. Y todo esto, apoyándose siempre en las capacidades de Telefónica de 5G, WiFi6, Network-as-a-Service y Edge Computing. Pero como hemos mencionado antes, hemos analizado muchas, muchísimas startups más. Estos son algunos de nuestros aprendizajes. Blockchain, blockchain, blockchain y las infraestructuras descentralizadas A lo David vs Goliat, las startups hacen de la descentralización su bandera como alternativa a los grandes inversores del metaverso. El concepto de descentralización de la web3 no es nuevo. Simplificando mucho, estamos hablando de mover las capacidades de procesamiento, almacenamiento y red de servidores centralizados a nodos que se ejecutan en los dispositivos de los usuarios. Es por tanto la comunidad de usuarios la que habilita la infraestructura descentralizada de las aplicaciones y recibe una recompensa (en forma de tokens) por ello. Y todo esto es posible gracias a la tecnología blockchain que garantiza el funcionamiento de la comunidad de acuerdo con las reglas establecidas, que se ejecutan automáticamente en forma de contratos inteligentes o smart contracts. Por poner un ejemplo, una startup que ilustra muy bien el potencial de las soluciones descentralizadas con blockchain es la alemana Natix Nework. El equipo de Natix está construyendo un gemelo digital del mundo a través de las cámaras de los miembros en la comunidad. Pueden utilizarse las cámaras de los móviles, drones, cámaras de coches o cámaras IP fijas. Cualquier cámara, en cualquier lugar del mundo, puede minar metadatos (información procesada de las imágenes captadas, de manera segura y cumpliendo las normativas de privacidad / GDPR, con datos de localización y tiempo validados y registrados en la blockchain). Para ser parte de la comunidad necesitas comprar una porción del mundo Natix (en forma de NFT), instalar el software de Natix para acceder a la cámara y ¡ya está! Listo para cobrar cada vez que terceros hagan uso para su servicio de los metadatos en tiempo real obtenidos por tu cámara. Imaginad que los ayuntamientos pudieran tener el tráfico de vehículos y peatones de la ciudad caracterizado en tiempo real, conocer el estado de limpieza de las calles, detectar grafitis o vigilar el estado de aceras y calzadas para mejorar los servicios públicos. Genial, ¿verdad? En manos de la comunidad El ejemplo anterior sirve también para explicar cuán dependientes son las infraestructuras descentralizadas de la web3 del crecimiento de la comunidad que les da soporte para ofrecer su servicio. Es por eso que hemos aprendido cuáles son los must-have de las startups web3 para motivar la participación de la comunidad y ganar escala: Ante todo, deben tener publicado un muy buen whitepaper, el documento en el que exponen lo más claramente posible en qué consiste su propuesta de valor, cuál es el servicio que van a ofrecer, a qué se comprometen los miembros de la comunidad que montan un nodo y cuáles son los tokenomics que van a regir el sistema de recompensas de la comunidad. También tienen que hacer público su roadmap de evolución. Cuando nace un proyecto web3 lo hace prácticamente con el whitepaper y una comunidad aún muy pequeña, lo mínimo necesario para ir poniendo en marcha el servicio y hacer una primera validación técnica, pero no para dar servicio a escala. El modo más habitual de conseguir los recursos económicos necesarios para la construcción del servicio es la venta de tokens de la startup y, para que la gente esté dispuesta a invertir en la compañía comprando tokens, el roadmap propuesto debe ser sólido, convincente y especificar el plan de trabajo y los hitos más relevantes que la compañía se compromete a cumplir en los siguientes 12 o 18 meses. Además, tienen que habilitar los canales de comunicación adecuados para que la comunidad resuelva sus dudas, haga sus propuestas y esté al tanto del día a día de la plataforma. Los canales más habituales para esto son Discord y Telegram. Una buena medida para saber si la plataforma está traccionando bien es medir el nivel de actividad de la comunidad (crecimiento en número de miembros y e interacción entre ellos). Si los canales están en silencio, mala señal. Por último, y en común con las startups tradicionales, es crucial el equipo fundador, que incluya perfiles relevantes en el ecosistema blockchain, que aporten su experiencia y credibilidad para con la comunidad. Una herramienta muy útil a la hora de evaluar la tracción de una startup web3 / crypto es Messari.io. Messari es una compañía de investigación y análisis de datos que presenta de manera bien organizada y contextualizada la información relativa a las empresas. El dashboard de Messari combina métricas cuantitativas de activos y herramientas de gráficos con investigación cualitativa e inteligencia de mercado de un equipo global de analistas. El perfil de la compañía en Messari se utiliza para divulgar las características del proyecto web 3 / crypto, incluyendo tokenomics, información de tesorería, miembros del equipo, enlaces de comunicación y mucho más. Están tratando de convertirse en un estándar de la industria reconocido para que los proyectos criptográficos se presenten a sí mismos de manera objetiva. ¡Ojo! Esto no va de lanzar criptomonedas Porque no, algo que hemos aprendido bien es que esto no va de proponer una idea peregrina cualquiera y de lanzar una criptomoneda nueva con la que financiarse y hacerse ricos sin más. Solo las propuestas sólidas, con sentido, que aportan un valor real, sobreviven a los tiempos difíciles. Dice el CEO de Messari, Ryan Selkis, que los mercados bajistas son buenos para limpiar la industria de las criptomonedas. Como veterano de la industria blockchain, Selkis ha visto cómo cada invierno crypto (vamos por el tercero, los dos anteriores se vivieron en 2014 y 2018) ha provocado la desaparición de muchos proyectos jóvenes y ha dejado espacio para que las compañías más maduras florezcan. Se estima que los precios de las criptomonedas tardarán mínimo seis meses y hasta dos años en recuperarse, de manera similar a lo ocurrido en los ciclos anteriores. Pero esta vez hay una gran diferencia, que es la inyección de dinero institucional (de compañías como Tesla, Goldman Sachs, Mongan Stanley y otros) y de fondos especializados en crypto (como el del Andreessen Horowitz, a16z crypto, Blockchain Capital o Digital Currency Group) que hará que, cuando el mercado suba, sea más sostenido y saludable, con menor especulación y una filosofía de inversión más probada. ¿Has visto mi cartera? Hemos encontrado muchos, muchísimos wallets (no todo en este mundo es Metamask). El wallet es la herramienta clave para la autogestión de la identidad digital. En el wallet, nuestra cartera electrónica, portamos nuestras credenciales verificables de identidad digital, que certifican de forma segura que una persona es portadora de determinados atributos relacionados con su identidad. Y a través del wallet tenemos control absoluto para compartir nuestros atributos de identidad digital total o parcialmente con un tercero y dejar de hacerlo siempre que queramos, mejorando sustancialmente la protección de la privacidad. Además, es en nuestra cartera electrónica donde llevamos nuestros activos digitales. Los dos tipos más comunes de activos digitales son las criptomonedas y los NFTs. Sin embargo, no hay límite respecto a lo que en un futuro pueda caracterizarse como un activo digital: acciones, títulos de propiedad de automóviles o inmuebles o cualquier otro tipo de activo físico susceptible de pasar a un formato de propiedad registrado en la blockchain. Quizás los principales puntos a trabajar con respecto a los wallets sean la interoperabilidad sobre las distintas cadenas de bloques, el educar al mercado masivo sobre qué son, para qué sirven y cuáles son sus ventajas, junto con la usabilidad. Algunos ejemplos de startups con propuestas de wallets interesantes son Bistik (un monedero muy sencillito para coleccionistas de NFTs) o Nilos (un agregador de wallets crypto y cuentas tradicionales, para tener todas nuestras finanzas en un mismo sitio). Repensando los servicios y los modelos de negocio Entre las startups analizadas, encontramos un buen número de ellas que se sirve de la transparencia y la confianza aportados por la blockchain para repensar los negocios tradicionales, eliminando la necesidad de intermediarios, y resultando en servicios más eficientes en costes para el cliente. En esta línea comienza a trabajar la startup Sparen Homes, un nuevo concepto de agencia inmobiliaria para compraventa de viviendas ‘peer-to-peer’ (aunque queda mucho por hacer a nivel legal y regulatorio para poder lanzar servicios de este tipo). O Brickfy, que ofrece inversiones ‘peer-to-peer’ en préstamos. En cuanto a los modelos de monetización, se abre todo un abanico de opciones: play to earn, learn to earn, move to earn o work to earn. Los mecanismos x-to-earn en general pueden utilizarse para la captación de nuevos usuarios, la retención y fidelización de los que ya tienes, y en algunos casos resultan verdaderamente una nueva fuente de ingresos. Esto es especialmente relevante para la generación Z, que entra en el mercado laboral en los albores de la era multi-earner. Startups de realidad virtual y metaverso En cuanto a las startups que trabajan en el desarrollo de experiencias de metaverso, hemos visto compañías de tres tipos: las que ya ofertaban soluciones de realidad virtual (para educación, entretenimiento, salud, trabajo, etc.) y ahora se publicitan como metaverso pero no lo son (no incluyen algunas de las funcionalidades propias del metaverso como la interacción social o una economía propia); en segundo lugar, compañías que desarrollan experiencias para mundos virtuales existentes como Roblox o Fortnite; y por último, las más ambiciosas, que crean su proyecto de metaverso desde cero, con la conceptualización y el desarrollo de un mundo virtual propio, venta de terreno, tokenomics, activos digitales, desarrollo de experiencias propias e integración de experiencias de terceros. Aún queda mucho por hacer, pero no nos cabe duda de la revolución que la descentralización de la Web3 y el metaverso va a suponer en nuestras vidas de aquí a unos años ni de la enorme oportunidad que supone para Telefónica y para las startups que nos acompañen en este maravilloso viaje.
Pódcast Latencia Cero: La inesperada relación entre Smart Cities y Agricultura InteligenteNacho Palou 5 octubre, 2022 Conforme las tecnologías IoT (Internet de las Cosas) y Big Data hacen realidad la promesa de las Smart Cities —habilitar el desarrollo sostenible de las ciudades— las conversaciones en torno a las ciudades inteligentes se vuelven más concretas, y en consecuencia más interesantes. Es el caso de la entrevista que puedes escuchar en el nuevo episodio del pódcast Latencia Cero de Telefónica Tech a Ren Yee, arquitecto y responsable de Estrategia y Previsión de la Innovación en el estudio de arquitectura holandés UNStudio. La conversación entre Maritere Nieto y Juan Cascón con Ren Yee aborda algunos de los aspectos más comúnmente asociados con el concepto de Smart City —eficiencia energética, economía circular, sostenibilidad…— y uno menos habitual: el de la relación entre Smart Cities y Agricultura Inteligente. Qué es la Agricultura Inteligente Sin embargo, explica Juan, la producción de alimentos “tiene que ver con las Smart Cities mucho más de lo que creemos, porque la forma en la que se producirán los alimentos en las próximas décadas modificará el entorno urbano y también el rural” ante la necesidad de satisfacer la demanda de productos locales, frescos y saludables por parte de una población en crecimiento. De igual modo que sucede con el resto de las áreas entorno a las Smart Cities, la Agricultura Inteligente en el contexto de las Smart Cities también contribuye a “mejorar la calidad de vida de los ciudadanos, aumentar la competitividad de las ciudades y la industria y alcanzar los objetivos energéticos y climáticos” al integrar en la propia ciudad una producción eficiente de alimentos. Pero, ¿de qué manera es posible producir alimentos frescos en entornos urbanos? La respuesta está en el conjunto de tecnologías de digitalización de nueva generación como los dispositivos y sensores IoT (Internet de las Cosas) conectividad 5G, Cloud, Big Data e Inteligencia Artificial, entre otras. Aplicadas al sector agrario, estas tecnologías hace posible soluciones para que la agricultura sea más productiva, eficiente y sostenible. * * * Agricultura Vertical, la huerta de las Smart Cities La Agricultura Vertical es uno de los desarrollos que han germinado bajo el concepto de Agricultura Inteligente. Consiste en cultivar en un entorno digitalmente controlado mediante tecnologías que permiten automatizar todo el ciclo productivo. Y precisamente un rasgo característico de la Agricultura Vertical es que puede desplegarse en entornos urbanos porque no hace un uso extensivo del suelo. En cambio, la Agricultura Vertical basada en tecnología aeropónica permite cultivar plantas dispuestas en vertical en un entorno aéreo o de niebla, en un espacio cerrado. A diferencia de lo que sucede con los cultivos tradicionales, en un cultivo de Agricultura Vertical la tecnología se encarga de controlar las condiciones climáticas y de crear el entorno que necesitan las plantas para desarrollarse, incluyendo el suministro de agua y nutrientes (a través de la atmósfera cuando se trata de aeroponía) y de luz, mediante iluminación LED avanzada. Cómo la digitalización permite conocer y atender con precisión las necesidades de un cultivo ecológico de cerezas Ventajas de la Agricultura Vertical Como ventaja principal, el cultivo no se ve afectado ni por la meteorología, el clima o las estaciones del año, ni tampoco por el ciclo día y noche ni las condiciones ambientales. Esto permite incrementar la producción y el número de cosechas al año. Por el mismo motivo, un cultivo indoor no necesita de pesticidas y fitosanitarios al no verse afectado tampoco por plagas o enfermedades, lo que reduce su impacto ambiental. La tecnología permite crear y controlar las condiciones y el entorno que necesitan las plantas para desarrollarse La Agricultura Vertical también tiene un consumo mucho menor de agua, hasta un 95% menos cuando el agua se extrae por condensación de la humedad del aire, y consume menos energía, llegando a ser energéticamente independiente cuando se obtiene de fuentes renovables. 45.500 lechugas al año en dos plazas de párking Como ejemplo, mientras que un cultivo convencional de lechuga de la variedad batavia produce entre 2 y 4 cosechas al año, un cultivo vertical por aeroponía llega a producir más de 7 cosechas al año. Aplicado a la Agricultura Vertical, y asumiendo un cultivo vertical que ocupe una superficie de 27 m2 y una altura de 2,50 metros, es posible producir más de 45.500 lechugas al año en poco más de lo que ocupan dos plazas de párking. De este modo es como la Agricultura Vertical proporciona alimentos frescos y seguros producidos de forma local e incluso “Km 0”, en las propias ciudades, contribuyendo a satisfacer la demanda de alimentos saludables, con un menor consumo de agua y energía y evitando además las emisiones contaminantes y de CO2 asociadas a su conservación y transporte. Pódcast Latencia Cero: La ciberseguridad es como las artes marciales Cómo la digitalización permite conocer y atender con precisión las necesidades de un cultivo ecológico de cerezas¿Cómo podemos acercar la digitalización al mundo rural?
Decálogo para desarrollar con éxito una estrategia de email marketingRaúl Salgado 5 octubre, 2022 Videos cortos, a veces absurdos, que fijan nuestra mirada en la pantalla y la retienen durante horas y horas secuestrada. La irrupción de TikTok podría desbancar a Google como el buscador de referencia, sobre todo entre los jóvenes, que no solo acceden a esta red social para entretenerse, sino que cada vez la usan más para realizar cualquier tipo de consulta, por la rapidez y comodidad que ofrece. De hecho, cada vez un mayor volumen de las compras online comienza en redes sociales como TikTok o Instagram, lo que plantea todo un desafío a nivel comercial. Porque el formato es nuevo, distinto y muchas tiendas no lo terminan de dominar. Y porque, francamente, no es fácil captar la atención del cliente en apenas unos segundos. Esta es una de las principales causas por las que cada vez resulta más complicado captar clientes nuevos y rentables. Pero no es la única. Máxime en estos tiempos de incertidumbre socioeconómica y tensiones geopolíticas, que provocan miedo: el peor enemigo de los mercados. Como tercer motivo más relevante de estas dificultades para ganar clientes tendríamos el actual apogeo del marketing de contenidos, cuyo origen se remonta -quizás- al bajón que sufrió Facebook Ads en sus formatos publicitarios. Al menos, en opinión de Víctor Rodado, fundador de Minimalism y Miniplanta. Más anunciantes, más costes de captación En este marco, se ha disparado tanto el número de anunciantes como los costes de captación. Y aunque cada negocio tiene sus propias peculiaridades y singularidades, estas dificultades obligan a desarrollar estrategias de email marketing, que además de para cerrar ventas, son determinantes para trabajar la recurrencia y fidelizar a los clientes en un escenario extremadamente complejo y volátil. Frente a este canal, controlable, directo y manejable, las redes sociales plantean algunos riesgos relacionados con la posibilidad de que cambie el algoritmo o de que directamente dejen de funcionar, lo que puede acabar con la utilidad y el valor de grandes audiencias. Las tres claves del email marketing Ahora bien, ¿cuáles son las principales claves para desarrollar con éxito una estrategia de email marketing? Víctor Rodado las resume en el siguiente listado: Crear una base de datos potente y bien cuidada, muy relacionada y alineada con el producto o servicio que se quiera comercializar, para estar a la altura y poder satisfacer las expectativas de los clientes. Segmentar exhaustivamente los contactos para saber quién compra, quién no, quién gasta más o menos, quién abre los emails, quién los lee… Es decir, para intentar lograr una radiografía lo más completa posible con la que decidir qué contar, a quién, dónde, cómo y cuándo. Dentro de esta segmentación también son importantes la localización, el sexo, la edad, los gustos y aficiones, etc. Probar y testar bajo el método ensayo y error. Rodado sugiere lanzar contenidos y comprobar lo que funciona y lo que no, así como la periodicidad más recomendable para el lanzamiento de correos electrónicos. En resumidas cuentas, sería cuestión de intentar conseguir los mayores resultados en el menor tiempo posible. No obstante, este empresario experto en marketing digital, publicó en su Twitter personal (@rodadofrutos) un hilo con los aprendizajes y los KPI que ha tenido después de años haciendo email marketing automático y manual: Dejar claro qué se va a comunicar y cada cuánto.Dedicar tiempo a elegir la herramienta. Rodado prioriza las que tengan buenas integraciones y comentarios en los foros, así como las que hayan sido probadas con anterioridad por algún conocido.Diferenciar dos tipos de acciones: el boletín o newsletter periódico y los flujos de emails automáticos, ya que las estrategias y KPI diferirán.No ser muy pesado. En su opinión, como mucho hay que mandar una newsletter a la semana, para no quemar demasiado a los contactos de la base de datos.Crear listas para saber qué ofrecer a quién.Elegir los tres segmentos donde se vea más potencial y crear tres flujos diferentes, activarlos y revisar los KPI cada semana. Cuidar la redacción de los emails La redacción de un correo electrónico es clave para captar clientes. De hecho, un porcentaje alarmantemente alto de los emails que se envían ni siquiera son abiertos por el destinatario, a pesar de que existen técnicas para mostrar cercanía y lograr el ansiado clic. Y a ello también se refiere Rodado en su publicación de Twitter, donde recomienda: Escribir los emails con cierta calma. “Para, respira, hazte un café y dedícale el tiempo que necesita”. El experto asegura que un buen copy es esencial para que un correo electrónico sea abierto y tenga conversión.Incluir una sola imagen y texto. “Lo demás tiene alto peligro de ir a spam”, alerta.Contar en cada email, como máximo, tres ideas. “No nos solemos acordar de la información que leemos en este formato. Es importante dar un toque humano a lo que se escribe. Mi experiencia dice que cuanto más cercano, mejor funciona”, sostiene.Prestar especial atención al asunto del email: el punto más creativo de todo el proceso. “Entiende bien el punto de dolor de tu cliente para escribir 4-6 palabras irresistibles”. Basándose en su propia experiencia, Rodado asegura que si la newsletter no logra un porcentaje de apertura superior al 35% y al 5% de clic, es que algo se está haciendo mal. En cuanto al primer email de carrito abandonado, considera que el porcentaje de apertura tiene que superar el 60% y el de clic, el 15%. Pese a todas las ventajas del email marketing, lo cierto es que aún hay muchas empresas que no le sacan el provecho que podrían, especialmente a las posibles estrategias de email marketing automatizado. Unas estrategias que deben supeditarse a la duración del proceso de venta. Así, cuando esta fase se alarga, es importante informar, recomendar, persuadir, convencer… e incluso usar otras vías, como la telefónica o el WhatsApp Messenger. No obstante, el email marketing no solo busca captar clientes o incrementar la recurrencia de las ventas, sino que también puede resultar muy útil para crear estrategias de marca con las que prestigiar la imagen de una empresa, reforzar su posicionamiento y mejorar su reputación. Foto de Freepik Cuidar la salud de los empleados mejora el bienestar, el clima y la productividadInterlinking SEO: qué es y cómo utilizarlo para mejorar tu posicionamiento web
Un recetario de ideas y fórmulas para los retos de las organizacionesMª Teresa Reinoso Gamino 5 octubre, 2022 Pensad por un momento en un problema complejo dentro de vuestro equipo de trabajo, así como en los condicionantes y posibles restricciones del entorno tiempo, presupuesto, personas, recursos materiales disponibles, etc. Si tuvierais que resolverlo con ayuda de una reunión, ¿qué podría ayudaros a conseguir el máximo potencial del equipo? ¿Cómo podríais conseguir no solo su atención, sino su total involucración y, además, que surja la innovación y la capacidad de proponer soluciones? La creatividad, clave para la supervivencia de las organizaciones Para encontrar soluciones que aporten valor, hoy en día muchas empresas recurren a la inteligencia colectiva del equipo y su creatividad, mediante el uso de design thinking. La creatividad es un componente fundamental para la supervivencia de las organizaciones. Pero, ¿existe alguna fórmula mágica para que esta creatividad aflore en los equipos? ¿Y si existiera un recetario en el que pudiésemos encontrar los ingredientes adecuados para cada ocasión y los pasos para llegar al fin deseado? Cómo cultivar el arte del buen facilitador “El Actionbook de Designpedia”, de Juan Gasca y Rafael Zaragoza, comienza haciendo que nos replanteemos nuestra última reunión. ¿Estaba atento el equipo?, ¿se alcanzó el objetivo?… Se trata de reflexionar sobre si se podría haber conseguido avanzar más y si se ha aportado todo el valor posible. Propone plantearse si las herramientas utilizadas eran las adecuadas o si se ha tenido en cuenta el contexto. Y, sobre todo, la clave es investigar los motivos por los cuales no se pudo avanzar más para, al final, obtener, de una forma visual y sencilla, herramientas y consejos para cultivar el arte del buen facilitador. El libro sigue la estela de los dos anteriores de la colección Designpedia de la LID Editorial. Pero, a diferencia de ellos, más dedicados a la metodología, los procesos y herramientas, este tercer volumen se centra en cómo llevar a cabo la dinamización de los equipos para conseguir su máximo potencial y que surja la innovación para la resolución de problemas complejos en el plazo necesario. De lo elemental a las distintas dinámicas y herramientas Resulta útil tanto para alguien que se enfrente por primera vez a un proceso de Design thinking como para quien quiera mejorar o profundizar en este sentido. A lo largo de sus páginas presenta de una forma muy visual: Diferentes tipologías de dinámicas.En qué consiste una reunión de trabajo y cómo estructurarla.Cómo dirigir a un grupo y evitar posibles dificultades.La manera de mejorar la gestión del tiempo con los equipos de trabajo.Roles y claves en la facilitación.Nuevas formas de trabajo en equipo.Consejos y visiones alternativas de la facilitación. Parte desde lo más sencillo -con la definición de qué es un facilitador y cómo es la estructura típica de una sesión de facilitación- para recorrer distintas dinámicas y herramientas. Hace hincapié en los estados del dinamizador en cada momento y proporciona consejos para cada uno de ellos. Design thinking como mentalidad a la hora de afrontar los problemas La forma en que se estructura el texto, a modo de recetario, facilita la elección de la dinámica más adecuada para aportar valor y conseguir el reto, según las restricciones y condicionantes de cada momento. Y todo ello a partir de la base de que Design thinking no solo es un método, sino también una mentalidad diferente a la hora de afrontar los problemas. Se trata de usar tanto nuestra parte más analítica como la intuición para poder adaptarnos a entornos complejos y cambiantes a la mayor velocidad. La intuición, que funciona mediante la detección de patrones, se enriquece con el trabajo en equipo. Pero, para que esto funcione, hace falta la figura de un facilitador. El facilitador no tiene las respuestas pero es la persona que debe retar al grupo a utilizar su conocimiento racional y la intuición compartida para, así acelerar el proceso de resolución de problemas. Para ello debe guiarlos y fomentar las conversaciones necesarias para que se genere un entorno de confianza. Las diferencias entre reto y desafío El éxito de la facilitación va a depender mucho de que se conozca bien el punto de partida (entrada) y adónde se quiere llegar (salida u objetivos). Esto permitirá escoger las dinámicas más apropiadas y determinar el tiempo necesario para llevarlas a cabo. Para ello los facilitadores deben conocer la diferencia entre un reto (¿cómo resolver el problema del agua en el mundo?) y el desafío de diseño, que es algo acotado y donde se puede generar un impacto concreto. (¿cómo proporcionar energía sostenible para un pueblo de 1000 habitantes en ….?) Es clave conocer la diferencia entre ambas cosas – el reto y el desafío- para poder gestionar las expectativas del equipo, el patrocinador del proyecto y los grupos de interés del mismo. Cuando se nos plantea un reto, hay que acotarlo y convertirlo en un desafío de diseño para poder generar mayor valor/impacto en los grupos de interés (clientes, usuarios, etc). Esto forma parte del proceso de design thinking. A partir de ahí, se trata de generar soluciones creativas para intentar resolver el problema y generar una oportunidad de negocio. Actionbook propone dos tipos de dinámicas para adaptarse a estas dos fases: unas relacionadas con la identificación de oportunidades frente a un reto y otras más orientadas a fomentar esas soluciones creativas. ¿Cómo se resuelven los retos en vuestras compañía? El libro de Juan Gasca y Rafael Zaragoza permite disponer de un recetario de ideas y fórmulas ya probadas para escoger la más adecuada según las necesidades de cada momento. Imagen: Foundations World Economic Forum Smart UCI: sin tiempo que perder a la hora de tomar decisionesDe la España vaciada a un ecosistema digital rural
El futuro del sector sanitario pasa por Cloud ComputingRoberto García Esteban 4 octubre, 2022 La sanidad es un sector que está continuamente generando una gran cantidad de datos. Por ponerlo en números, nuestro Sistema Nacional de Salud gestiona cada año 234 millones de consultas médicas en atención primaria, 83 millones de consultas hospitalarias, 23 millones de urgencias y 4 millones de ingresos hospitalarios… Datos y más datos que deberían ser almacenados, procesados y analizados con dos objetivos principales: Construir la historia médica de cada paciente para prestarle un mejor servicio.Facilitar la toma de decisiones de salud pública de gran trascendencia, agregando (y por supuesto, anonimizando) todos los datos. Esta última necesidad se ha puesto bien de manifiesto en estos últimos años de pandemia. Desafíos en torno a los datos sanitarios Los datos sanitarios tienen diversas particularidades y por tanto hay que resolver ciertos desafíos específicos de ellos. En primer lugar, se generan continuamente (todos los días acude gente al médico) y provienen de muy distintas fuentes, desde los hospitales hasta los propios usuarios, que están cada vez más conectados y disponen de dispositivos avanzados que les permite aportar mucha información relevante. Así pues, uno de los principales desafíos es implementar soluciones escalables para gestionar este BigData, por lo que Cloud Computing parece ser la única opción viable. El objetivo es conseguir una medicina personalizada y predictiva Otro de los grandes retos a solucionar es que los datos sanitarios pueden tener muchos destinatarios: investigadores, médicos, pacientes… y no todos necesitan el mismo dato presentado de la misma manera. Además, deben estar siempre disponibles para los sanitarios, que pueden necesitar hacer uso de ellos en cualquier momento de los 365 días del año. El objetivo es conseguir una medicina personalizada y predictiva, lo que es imposible de conseguir sin la gestión y procesamiento de todos los datos que aporta la tecnología Cloud. Tendencias en el mercado Cloud hasta 2025 Interoperabilidad de los sistemas Otro problema por solucionar es el de la interoperabilidad de los sistemas. Si una persona sufre una emergencia médica fuera de su área de residencia, es fundamental poner sus datos médicos a disposición de la persona que lo atienda esté donde esté. La tecnología Cloud facilita que los datos de los pacientes puedan integrarse en plataformas comunes accesibles para cualquier profesional sanitario. La seguridad es otro punto fundamental para tener en cuenta dada la especial sensibilidad de los datos sanitarios Dada la especial sensibilidad de los datos sanitarios, la seguridad es otro punto fundamental para tener en cuenta. Pueden existir dudas sobre si utilizar la nube pública o una nube privada, por las reticencias en materia de seguridad que pueden existir respecto a la nube pública. Sin embargo, hoy en día los grandes players del mercado de nube pública tienen soluciones tan seguras que realmente la seguridad no debería suponer un problema. Adopción de la tecnología Cloud en el sector salud La situación actual es que, a pesar de las ventajas de Cloud, su adopción todavía no es ni mucho menos masiva en el sector sanitario. Según el informe de la consultora Quint Estado actual y futuro del cloud en el sector sanitario, las principales barreras que frenan la adopción del Cloud Computing en este sector son el cumplimiento de regulaciones, limitaciones culturales del negocio, costes ocultos y la amortización de infraestructura on-premise. Estas dos últimas barreras son especialmente importantes en el sector sanitario en comparación con otros sectores. Cloud computing como pieza clave en el futuro del sector logístico Conclusión Las organizaciones sanitarias afrontan un cambio importante en los próximos años. Según el informe de la consultora Quint mencionada anteriormente, el 43% de dichas organizaciones prevén aumentar en más de un 20% su presupuesto de IaaS y PaaS en los próximos doce meses, mientras que el 14% aumentarán el presupuesto de SaaS en ese periodo, porcentaje inferior dado que el SaaS ya está extendido en el sector sanitario pues supone más del 25% de todo el gasto de TI para casi un tercio de las organizaciones. Así pues, las organizaciones del sector salud pasarán en los próximos años de usar Cloud básicamente solo para almacenar datos a usar la tecnología para analizarlos, reducir costes y mejorar la atención al paciente. Cloud no es una moda pasajera, tampoco en este sector, sino que ha llegado para quedarse y para transformar los procesos de negocio, a pesar de las características tan especiales de los datos sanitarios que han ralentizado hasta ahora la adopción de soluciones Cloud en este sector respecto a otros sectores. Latencia y Edge Computing: ¿Por qué es importante?Los 6 errores más comunes a la hora de presupuestar un proyecto Cloud