Paloma Recuero de los Santos Machine Learning y relaciones de pareja Si el Machine Learning, uno de los campos de la Inteligencia Artificial de los que más se habla últimamente en Internet, es capaz de elaborar predicciones sobre tendencias financieras,...
Olivia Brookhouse ¿Dejarías que la Inteligencia Artificial organizara tu Navidad? La Inteligencia Artificial y el Big Data están transformando los lugares de trabajo, proporcionando información en tiempo real para optimizar la toma de decisiones. Mientras tanto, en nuestras casas,...
Paloma Recuero de los Santos Python para todos (2): ¿Qué son los Jupyter Notebooks? ¿Qué son los Jupyter Notebooks? Los Jupyter Notebooks son quizás la aplicación más conocida del Proyecto Jupyter, creado en 2014 con el objetivo de desarrollar software open-source, open-standards, y...
Ane Urain Big Data Innovation Day 2017 El 31 de octubre de 2017 se celebrará la primera edición del Big Data InnovationDay 2017, junto con el primer aniversario del lanzamiento de LUCA, la unidad de Big Data de...
LUCA Caso de éxito: Optimizando el plan de carreteras de Highways England La industria del transporte es una industria muy permeable a la aplicación de estrategias de Big Data e Inteligencia Artificial, ya que existen casos de uso claros para maximizar...
LUCA Incorporación de Big Data en el sector público: caso de éxito Navantia ¿Cuáles son los ingredientes principales para una transformación digital exitosa? La transformación digital se ha hecho indispensable en casi todos los sectores, también en la administración pública y, como hoy vamos...
Ana Zamora LUCA Tourism en el Festival del Globo en México El Festival Internacional del Globo (FIG) reúne cada año más de 200 globos que recorren el cielo del Parque Metropolitano de León, Guanajuato, en un espectáculo maravilloso. El evento es...
LUCA Caso de éxito: Big Data para aumentar el impacto en el turista, con Iberostar En esta historia con datos, hablamos sobre una de las principales aplicaciones que el Big Data y la Inteligencia Artificial pueden tener en el sector turismo. En este caso, Iberostar, la...
LUCA LUCA Talk: Generación automática de textos mediante Deep Learning Las posibilidades que la aplicación de la Inteligencia Artificial ha traído consigo permiten el avance exponencial que estamos viviendo hoy en día en cuanto a sistemas de voz (asistentes...
LUCA LUCATalk: LUCA Store, Digitalizando las tiendas físicas Como muchos otros sectores, el sector de Retail también esta pasando por una gran transformación. Gracias a los avances de la tecnología, hay muchas maneras de llegar a los...
LUCA LUCA Talk: La transformación empieza por la formación La transformación digital de las empresas empieza por el cambio cultural de las personas y no en la tecnología. De nada sirve apostar por tecnología más puntera como Machine...
Paloma Recuero de los Santos Video Post #14: “ScyPy, NumPy, Pandas…¿Qué librerías Python necesito? En esta nueva edición de LUCA video post, damos un paso más en nuestro aprendizaje de Python aprendiendo lo que son los módulos, y, en particular las...
Text summarization: Conoce cómo funciona la generación automática de resúmenesCarlos Rodríguez Abellán 9 mayo, 2019 El hecho de que cada vez más personas estemos conectadas a Internet y que, además, generemos más y más contenido hace que el análisis o estudio de la información alojada en la red sea una tarea inabordable. Una gran cantidad de esta información se trata de textos como, por ejemplo, noticias, artículos de opinión, documentos científicos, reviews de artículos, etc. El Procesado de Lenguaje Natural (PLN, o NLP por sus siglas en inglés) es la rama dentro del ámbito de las ciencias de la computación, la lingüística y la inteligencia artificial que se encarga del estudio y desarrollo de técnicas que permitan a los ordenadores entender y procesar el lenguaje humano. En concreto, Text Summarization o Automatic Summarization (Resumen Automático en español) es la técnica mediante la cual podemos sintetizar fragmentos largos de texto en fragmentos de textos más cortos que contengan únicamente aquella información que es relevante. Gracias a esto podemos diseñar y desarrollar modelos que nos ayuden a condensar y presentar la información ahorrándonos tiempo de lectura y maximizando la cantidad de información por palabra. Modelos de text summarization ampliamente utilizados En función de como se realice el resumen podemos distinguir dos estrategias: Extracción: Consiste en identificar y extraer directamente del documento original entidades relevantes sin someterlas a ningún tipo de modificación. Dichas entidades pueden ser palabras o frases. El caso más sencillo sería utilizar las palabras como etiquetas para, posteriormente, clasificar un determinado documento. La detección de estas keywords puede realizarse buscando en el documento una serie de palabras establecidas a priori como relevantes o, por ejemplo, mediante un modelo (Latent Dirichlet Allocation [3], o LDA, permite detectar los temas o topics predominantes en un determinado corpus, o conjunto de documentos). Mediante este método el resumen automático de un documento se realiza mediante la combinación estas palabras y/o frases en estructuras más complejas pero sin realizar ninguna modificación en el texto extraído. Abstracción: Esta técnica, además de detectar las entidades más relevantes en el documento, es capaz de generar texto a partir de dichas entidades. Dicha paráfrasis ha de realizarse con algún modelo de generación de lenguajes naturales (GLN, o NLG por sus siglas en inglés) por lo que la complejidad de este método es mayor comparada a la anterior. Ejemplo: Texto original: “El principito arrancó también con un poco de melancolía los últimos brotes debaobabs. Creía que no iba a volver nunca.” Ejemplo de extracción: “El principito arrancó los brotes. No iba a volver.” Ejemplo de abstracción:“Creyendo que no volvería el principito arrancó los brotes con melancolía. volvería.” Por otra parte, en función de la escala a la que se realicen los resúmenes podemos distinguir entre: Un documento: El resumen se realiza sobre un único documento. Dicho documento puede ser un artículo, una noticia, un report, un email, etc.Varios documentos. El objetivo es el mismo que en el caso anterior pero incluyendo información de todos los documentos. También puede ser parte de la tarea agrupar los documentos en clusters de documentos que compartan similitudes entre ellos. Como comentábamos, existen diferentes maneras de desarrollar un modelo de text summarization en función, principalmente, del objetivo, de los datos disponibles y del tipo de resumen que queramos obtener con dicho modelo. En siguientes posts hablaremos de algunos de estos métodos presentando distintos escenarios con algunas posibles soluciones. Referencias [1] https://www.domo.com/solution/data-never-sleeps-6 [2] https://www.sciencedaily.com/releases/2013/05/130522085217.htm [3] http://www.jmlr.org/papers/volume3/blei03a/blei03a.pdf Para mantenerte al día con LUCA visita nuestra página web, suscríbete a LUCA Data Speaks o síguenos en Twitter, LinkedIn y YouTube. Cómo detectar Fake News con Machine LearningDe caballero a diplomático, y de diplomático a estratega: la evolución del CDO
Paloma Recuero de los Santos Machine Learning y relaciones de pareja Si el Machine Learning, uno de los campos de la Inteligencia Artificial de los que más se habla últimamente en Internet, es capaz de elaborar predicciones sobre tendencias financieras,...
Olivia Brookhouse ¿Dejarías que la Inteligencia Artificial organizara tu Navidad? La Inteligencia Artificial y el Big Data están transformando los lugares de trabajo, proporcionando información en tiempo real para optimizar la toma de decisiones. Mientras tanto, en nuestras casas,...
Sergio Sancho Azcoitia Menos accidentes de tráfico gracias a la Inteligencia Artificial Desde hace unos años una de las aplicaciones para la inteligencia artificial ha sido la seguridad vial. No es ningún secreto que cada día cientos de personas sufren...
Milena Quintana Pinto ¿Conoces la nueva Plataforma Self-Service de LUCA Advertising? LUCA Advertising actualmente cuenta con un portafolio de productos variado y atractivo para las marcas y presente en casi todos los países del Grupo Telefónica. Así pues, el negocio...
Paloma Recuero de los Santos Data Science: ¿Cómo hacer las preguntas adecuadas? Cuando hablamos de Ciencia de Datos, o de Aprendizaje Automático, solemos hablar de datos, algoritmos, modelos, etc. Y no nos damos cuenta de que, quizás, hemos pasado”de puntillas” por...
Antonio Pita Lozano ¡Que la fuerza te acompañe LEIA! Son tiempos difíciles para la galaxia, la crisis financiera acecha a la unión y los estados periféricos imponen aranceles en su luchan con el control comercial. De forma silenciosa,...