Carmen Urbano Los mejores ‘marketplaces’ para la exportación y el eBusiness Los mercados electrónicos, marketplaces, son plataformas tecnológicas que facilitan y promueven el encuentro entre oferta y demanda online. Son una excelente herramienta de diversificación de mercados, de competitividad global,...
Ismael Ruíz Estudio de competencia online: por qué debes espiar a tus competidores Para aumentar el éxito y la visibilidad de tu negocio en Internet, ya no es suficiente con desarrollar estrategias de marketing online. Por ello, te recomiendo que siempre tengas...
Raúl Salgado ‘Onboarding’ o cómo recibir a los nuevos empleados Onboarding, incorporación en castellano: “Dícese del aterrizaje de un nuevo empleado en una empresa”. Y, sin faltar a la verdad, es una de las principales claves que actualmente tienen...
Juan Carlos Estévez Cadena de suministro: las claves para una correcta gestión El cotidiano de cualquier compañía implica una serie de procesos y relaciones entre diferentes elementos, los cuales confluyen en la llamada cadena de suministro. A continuación, te contamos a...
Área de Innovación y Laboratorio de Telefónica Tech Cómo se está disfrazando (y ocultando) Emotet y el malware de macro en los últimos tiempos El malware de macro es una amenaza muy activa en estos tiempos, en este artículo presentamos tres ejemplos de amenazas a través de Office.
Andrés Naranjo Análisis de APPs relacionadas con COVID19 usando Tacyt (II) Seguimos con la investigación comenzada en la entrada anterior en la que analizamos este tipo de aplicaciones con nuestra herramienta Tacyt. Relacionado con la aplicación analizada, podemos observar que...
Paula Diez Villacorta Wayra Activation Programme abre la plataforma de blockchain de Telefónica a las startups Comúnmente se identifica la tecnología blockchain con criptomonedas o grandes proyectos consorciados de grandes empresas. Telefónica apuesta por democratizar y universalizar el acceso a blockchain a través de Wayra...
Julio Marchena ¿Cuáles son las tendencias tecnológicas más punteras? Un informe desde la cuna de la innovación Telefónica Innovation Ventures (Corporate Venture Capital de Telefónica), a través de nuestra oficina de Silicon Valley, trae este informe de tendencias tecnológicas antes del estallido de la crisis del...
Hay arañas en Internet: cómo los web crawler recorren los sitiosAI of Things 14 octubre, 2022 La presencia digital es un elemento con muchísimo potencial para todo tipo de empresas, personalidades o usuarios que quieran tener un alcance mayor de sus servicios y contenidos. Ahora bien, crear un sitio web puede ser bastante sencillo, pero también hay que considerar cómo se posicionará en los motores de búsquedas. El conocimiento de los web crawlers nos permitirá comprender lo que hay detrás del análisis de rendimiento de nuestros sitios web o los de la competencia, el seguimiento de menciones o términos específicos, y el posicionamiento de las páginas en los buscadores. ¿Qué es un web crawler? Un web crawler o bot es un algoritmo programado para recorrer el código HTML de una página web, recopilar información y almacenarla según su objetivo. Se les conoce como “araña web” ya que, si visualizamos a Internet como una red, los sitios corresponderían a los nudos y los hipervínculos que los conectan a las hebras por las cuales los web crawlers realizan su recorrido de un lado a otro, similar al comportamiento de las arañas. Estos “arácnidos” leen el código en búsqueda de las etiquetas HTML y analizan el texto junto a los metadatos que encuentran en su interior. Tras el análisis del programa, los datos recopilados se pueden utilizar para generar informes, revisar la velocidad de carga del sitio, indexar páginas web en buscadores u otros parámetros que definamos de forma previa. Algunos tipos de web crawlers El algoritmo de esta araña web es adaptable a nuestros requerimientos y nos permitirá revisar sitios web más rápido que si lo hiciéramos manualmente. Estas capacidades nos permiten utilizar los algoritmos para automatizar diversos tipos de análisis de sitios web, como: Monitoreo de temáticas Se le puede otorgar otra función al web crawling programándolo para que busque información específica dentro del código HTML. El ejercicio es muy parecido a lo que se conoce como “clipping de prensa”. Aplicado al ambiente digital, podemos recopilar información de un concepto a través del tiempo en públicos objetivo a partir de sus menciones en la web e incluso programar avisos de cuando un contenido nuevo relacionado a nuestra temática es publicado. SEO y web crawlers Uno de los usos más comunes de estos algoritmos es en la labor de los buscadores, tales como Google, Bing o Yahoo! para automatizar la búsqueda de nuevos sitios y facilitar la integración de estos a sus índices. Para conseguirlo y posicionar unos resultados por sobre otros, cada desarrollador define directrices técnicas en su buscador. A la actividad se le conoce como optimización de motores de búsqueda o SEO, y es una técnica para mejorar la visibilidad de sitios web reconocida y aplicada en la creación de contenidos La importancia del análisis del código HTML Entonces, ¿cómo podemos hacer que nuestro sitio sea más fácil de encontrar? Tal como mencionamos, los web crawlers funcionan recorriendo el código HTML, por eso es muy importante escribir código y contenido de calidad, en donde el texto dentro de las etiquetas HTML semánticas sea pertinente a su sección en el sitio. Entre estas etiquetas encontramos el header, main, article y footer, las cuales segmentan el sitio web y entregan información respecto al tipo de información que se encuentra en su interior. Los web crawlers son parte fundamental de la visibilidad de un sitio web en Google. ¿Cómo se integra un sitio al buscador? A modo de lograr que los buscadores muestren un vínculo a un sitio web como resultado de una búsqueda es necesario realizar el primer paso: el indexar web. Para que los rastreadores de Google realicen el web crawling es necesario contener backlinks, es decir, vínculos de páginas externas hacia la nuestra. Una vez completada esta tarea, las arañas podrán seguir el camino, analizar el código y recopilar la información necesaria para indexar el sitio en los servidores de Google, entre los que se encontrará la información visible en los resultados, como el título, la meta descripción y el vínculo hacia el sitio web. La primera fase de la relación del sitio web con el buscador sucede al indexar web, es por esto que Google recomienda no utilizar vínculos que hayan sido comprados, promoviendo la conexión orgánica del contenido debido a su calidad respecto al tema que trata. Un web crawler, por lo tanto, es una herramienta versátil para automatizar en análisis de páginas web en busca de información. Su conocimiento puede abrir las posibilidades de su uso en función de diversos objetivos, además del mejoramiento del posicionamiento de un sitio web en un motor de búsqueda. ¿Es posible hackear el cerebro? Un experimento en moscasAI of Things (XI) Mantenimiento preventivo en sensores: anticipación de fallos en sensores, predicción de cambio de baterías
Aarón Jornet Evolución de las técnicas de Spear-Phishing de los grupos criminales más conocidos y qué malware utilizan En los últimos años se han ido metabolizando diferentes campañas y amenazas cuyo vector de entrada ha sido el mismo, el correo electrónico. Este acceso inicial, que siempre parece...
Mercedes Núñez España, pionera en la UE en implantar el reconocimiento de voz con inteligencia artificial entre jueces y magistrados Ayer un compañero escribía del reconocimiento de voz con inteligencia artificial como una tecnología consolidada, que permite convertir el dictado en texto escrito. Es decir, “escribir a viva voz”. Todos...
Open Future Estas son las 8 profesiones del futuro El gran desarrollo tecnológico de los últimos años ha modificado el escenario laboral, haciendo que las empresas requieran de personas con nuevas competencias y habilidades, sobre todo en el...
Telefónica Tech Boletín semanal ciberseguridad 19 – 25 de marzo Vulnerabilidad de elevación de privilegios en Western Digital El investigador independiente de seguridad, Xavier Danest, ha reportado una vulnerabilidad de escalada de privilegios en EdgeRover. Cabe resaltar que EdgeRover es...
Blanca Montoya Gago El papel de los PERTE en la sociedad del futuro Los proyectos estratégicos para la recuperación y transformación económica (PERTE) son una nueva figura dentro del Plan de Recuperación, Transformación y Resiliencia. Se definen como iniciativas que suponen un...
Blanca Montoya Gago Claves para comprender qué es un IPCEI Cuando hablamos de IPCEI nos referimos a Proyectos Importantes de Interés Común Europeo, que son diseñados para agrupar a los sectores público y privado con el objetivo iniciar proyectos...