LUCA LUCA Talk: Blockchain para garantizar la trazabilidad de vacunas FORMATO: Charla de 30 minutos + Q&A de 10 minutosCUÁNDO: 2 de enero, 16:00 h (CET)CÓMO: Inscripción gratuita en eventbrite Trazabilidad es una de las características que vienen a nuestra...
Paloma Recuero de los Santos Drones que usan IA para salvar vidas Cada día encontramos nuevos usos para los drones. Si a sus ventajas que de por sí nos ofrecen, le sumamos la aplicación de técnicas de machine learning, las posibilidades...
Paloma Recuero de los Santos Python para todos: crea tu árbol de Navidad Para estas fechas navideñas, nos hemos propuesto jugar un poco con Python para ver cómo podríamos dibujar un árbol de Navidad. Empezaremos con algo muy sencillito y luego probaremos...
Amaia Perez Una nueva forma de entender el Big Data: BD4SG in action Durante los últimos años se ha hablado mucho sobre cómo puede la tecnología del Big Data ayudar a optimizar organizaciones, maximizar los beneficios y acercarnos a los consumidores. Sin...
LUCA Caso de éxito: Departamento de Transporte de UK El Departamento de Transporte es el organismo gubernamental responsable de la mayor parte de la red de transporte del Reino Unido. Nuestro cliente necesitaba entender rápidamente los patrones de...
LUCA Caso de éxito ONS: datos para la gestión de movilidad en el Reino Unido En la “historia con datos” de hoy mostramos, una vez más, cómo soluciones basadas en tecnologías Big Data, IoT e Inteligencia Artificial ofrecen un mundo infinito de posibilidades y...
LUCA Case study: Como está usando Jacobs LUCA Transit para mejorar el sistema de transportes en UK Escrito por Dave Sweeney, Head of Smart Steps (Public & Transport) en O2. El transporte público se compone de viajes diarios alrededor de todo el mundo. No importa si se...
LUCA Quito, la primera ciudad inteligente de America Latina ¿Cuántas personas cogen el metro al día? ¿En que paradas se bajan? ¿Cuánto tiempo tardan en llegar a su destino? Todas estas preguntas podrán ser respondidas gracias a la alianza...
LUCA LUCA Talk: Blockchain para garantizar la trazabilidad de vacunas FORMATO: Charla de 30 minutos + Q&A de 10 minutosCUÁNDO: 2 de enero, 16:00 h (CET)CÓMO: Inscripción gratuita en eventbrite Trazabilidad es una de las características que vienen a nuestra...
LUCA LUCA Talk: Usos de GANs y Autoencoders en Ciberseguridad En esta era de transformación digital de la sociedad y las organizaciones, los avances tecnológicos han supuesto un cambio en la forma de vivir y relacionarse de los seres...
LUCA LUCA Talk: Blockchain para garantizar la trazabilidad de vacunas FORMATO: Charla de 30 minutos + Q&A de 10 minutosCUÁNDO: 2 de enero, 16:00 h (CET)CÓMO: Inscripción gratuita en eventbrite Trazabilidad es una de las características que vienen a nuestra...
Paloma Recuero de los Santos Video Post #18: Atrévete con Deep Learning. Principios básicos al alcance de todos ¿Sabes qué es el Deep Learning, en qué se basa y qué aplicaciones tiene? En este vídeo te daremos unas sencillas nociones que te ayudarán a comprender esta potente...
Las 9 tareas en las que se basa el Machine LearningPaloma Recuero de los Santos 24 octubre, 2017 En un negocio data-driven, cada problema es único, con sus propios objetivos, restricciones, aspiraciones etc. Sin embargo para poder resolver estos problemas, la estrategia del Data Scientist es descomponer un problema complejo en diferentes subtareas más sencillas que ya sabemos resolver con distintos algoritmos de Machine Learning. ¿Cómo resolvemos los problemas las personas? En el post anterior vimos que el concepto básico que subyace bajo la idea de Inteligencia Artificial es conseguir que una computadora resuelva un problema de la misma forma en que lo haría una persona. Hay muchas formas de intentar resolver un problema desde una perspectiva humana pero, en concreto, dos preguntas nos son de gran ayuda cuando nos enfrentamos a una situación nueva. La primera es: Y la segunda: Está claro que basarnos en la experiencia, en lo que hemos aprendido en circunstancias anteriores nos puede ser de gran utilidad. No tiene sentido reinventar la rueda. Y, por otra parte, cuando un problema es complejo, pero se puede descomponer en distintas partes, es muy probable que ya sepamos cómo resolver muchas de ellas. Si sólo tenemos que trabajar la parte del problema que realmente es nueva para nosotros, ganaremos tiempo y seremos mucho más eficaces. Cuando trabajamos con Aprendizaje Automático (Machine Learning, ML), en lugar de programar un código basado en unas reglas, lo que hacemos es trabajar con algoritmos, y entrenarlos con datos. Algoritmos hay muchos, y complejos, casi todos, pero tampoco es imprescindible conocerlos uno a uno. Uno de los trabajos del Data Scientist es, precisamente, determinar cuál es el más adecuado para cada caso particular, aunque normalmente cada profesional tiene su propia “Caja de herramientas” con sus algoritmos favoritos, aquellos que le resuelven la mayoría de los problemas. Sin embargo, las tareas que esos algoritmos nos van a permitir resolver, aquellas que nos podemos encontrar como sub-problemas en problemas más complejos, no son tantas.Vamos a ver cuáles son las principales: Figura 1:Las 9 tareas en que se basa el Machine Learning. 1. Clasificación: Una tarea de clasificación consiste en, dado un individuo, saber a qué clase pertenece, basándonos en lo que hemos “aprendido” de otros individuos. Por ejemplo: ¿Qué clientes de Telefónica estarán interesados en esta oferta? Basándonos en la información del histórico de clientes, resumida en una serie de variables como puede ser la edad, estado civil, nivel de estudios, antigüedad como cliente etc., los algoritmos de clasificación construyen un modelo que nos permite asignar, a un nuevo cliente la etiqueta más adecuada entre estas dos: “Estará interesado” o “No estará interesado”. Los algoritmos de Scoring son muy similares, pero más específicos. Nos dan la probabilidad de que un cliente esté interesado o no. 2. Regresión: Las tareas de regresión se utilizan cuando lo que se quiere averiguar es un valor numérico de una variable continua. Siguiendo con el ejemplo anterior, nos servirían para, basándonos en el histórico de consumo de los clientes, parametrizado según las variables anteriores (u otras que defina el Data Scientist), podamos responder a preguntas como ésta: ¿Cuál va a ser el consumo en … (voz, datos, etc.) de este cliente en un mes? 3. Identificar similitudes. Se trata de identificar individuos “similares” según la información que tenemos de ellos. Es la base de los sistemas de recomendación, que te ofrecen distintos productos según los que hayas consultado o adquirido previamente. 4. Clustering. Las tareas de clustering tienen que ver con agrupar individuos por su similitud, pero sin un propósito específico. Suele usarse en las fases de exploración preliminar de los datos, para ver si existe algún tipo de agrupamiento natural, que puede sugerir la mejor forma de analizar los datos. Por ejemplo, estas tareas nos darían respuesta a preguntas como: ¿Se puede clasificar a nuestros clientes en grupos o segmentos naturales? ¿Qué productos deberíamos desarrollar? 5. Agrupar co-ocurrencias Esta tarea busca asociaciones entre “entidades” basadas en su coincidencia en transacciones. Por ejemplo, responderían a la pregunta: ¿Qué productos se suelen comprar juntos? Mientras las técnicas de clustering buscan agrupar elementos, basándose atributos de éstos, la agrupación de co-ocurrencias se basa en que dichos elementos aparezcan juntos en una transacción. Por ejemplo, es habitual que una persona que compra una cámara de fotos, compre también una funda para la cámara, o una tarjeta de memoria. Por ello, puede ser interesante hacer promociones de ambos productos a la vez. Sin embargo, a veces no son tan “evidentes” las coincidencias y por eso resulta muy interesante analizarlas. 6. Profiling. Cuando hablamos de Profiling, hablamos de comportamientos típicos. Estas técnicas buscan caracterizar el comportamiento esperado de un individuo, grupo o población. Se pueden plantear preguntas como: ¿Cuál es el consumo de móvil típico de este segmento de clientes? La descripción de estos comportamientos “típicos” se suele usar como referencia para detectar comportamientos inusuales o anomalías. Basándonos en las compras típicas de un determinado cliente, podemos detectar si un nuevo cargo en su tarjeta de crédito se ajusta a ese patrón. Podemos crear asignarle un “score” o grado de sospecha de fraude, y lanzar una alerta cuando se supere cierto umbral. 7. Predicción de vínculos. Intenta predecir conexiones entre elementos. Por ejemplo, entre miembros de una red social o profesional. Te hacen sugerencias como: “María y tú tenéis 10 amigos en común. ¿No deberíais ser amigas?” “Personas que probablemente conozcas” 8. Reducción de datos. A veces es necesario reducir el volumen de datos de trabajo. Por ejemplo, en lugar de trabajar con una enorme base de datos de preferencias de consumo de películas, trabajar con una versión reducida de ellos, como sería el “género” de la película, más que la película concreta. Siempre que se realiza una reducción de datos se pierde información. Lo importante es llegar a una solución de compromiso entre la pérdida de información y la mejora de los Insights. 9. Modelado Causal. Estas tareas lo que buscan es detectar la influencia de unos hechos sobre otros. Por ejemplo, si se incrementan las ventas en un grupo de clientes a los que nos hemos dirigido con una campaña de marketing: ¿Se incrementaron las ventas gracias a la campaña o simplemente el modelo predictivo detectó bien a los clientes que hubieran comprado de cualquier forma? En este tipo de tareas es muy importante definir bien las condiciones que se tienen que dar para poder hacer esa conclusión causal. Por tanto, cuando queremos abordar con ML un problema de negocio, como el típico ejemplo de “fuga de clientes” (el famoso churn) lo que queremos averiguar es qué clientes están más o menos predispuestos a dejar de serlo. Podríamos abordarlo como un problema de clasificación, o clustering, incluso como un problema de regresión. Según cómo definamos el problema, trabajaremos con una familia de algoritmos u otra. Si quieres seguir aprendiendo sobre ML, no te pierdas nuestro siguiente post en el explicaremos los tipos de error en ML. No te pierdas ninguno de nuestros post. Suscríbete a LUCA Data Speaks. Estimulando el sector turístico de Perú gracias al Big Data¡Ya tenemos a los ganadores del Big Data y Ciberseguridad Challenge!
LUCA LUCA Talk: Blockchain para garantizar la trazabilidad de vacunas FORMATO: Charla de 30 minutos + Q&A de 10 minutosCUÁNDO: 2 de enero, 16:00 h (CET)CÓMO: Inscripción gratuita en eventbrite Trazabilidad es una de las características que vienen a nuestra...
Enrique Blanco Clustering de series temporales con Python La proliferación y la ubicuidad de los datos con dependencia temporal en un amplio abanico de disciplinas genera un interés sustancial en el análisis y la extracción de series...
Francisco Javier Viñas Plaza El gobierno del almacenamiento como palanca de la innovación La Oficina de Dato es un agente de cambio e innovación en una organización. Convierte el gobierno del almacenamiento en una auténtica palanca de la innovación. Veamos el por...
LUCA Toma el control de tus vehículos con Fleet Optimise La movilidad se ha vuelto más inteligente gracias a la presencia de IoT. Del mismo modo que los usuarios utilizan las soluciones conectadas para hacer trayectos más eficientes o...
LUCA Cómo transformar una compañía(XII): la transformación del talento interno El cambio de paradigma que conlleva el uso de grandes volúmenes de datos (internos, de sensores, públicos…) y la aplicación de la Inteligencia Artificial en los negocios es imparable....
Paloma Recuero de los Santos Los mejores post de 2020 en Telefónica IoT & Big Data Este año, como ningún otro, tenemos muchas ganas de arrancar la última hoja del calendario y empezar el del 2021 que, visto lo visto, lo tiene fácil para ser...