Paloma Recuero de los Santos ENIA, la nueva Estrategia Nacional sobre IA Desde el pasado 2 de diciembre, España cuenta con una nueva Estrategia Nacional de Inteligencia Artificial, ENIA, dotada con un presupuesto de 600 millones de euros para medidas relacionadas...
LUCA LUCA Talk: Blockchain para garantizar la trazabilidad de vacunas FORMATO: Charla de 30 minutos + Q&A de 10 minutosCUÁNDO: 2 de enero, 16:00 h (CET)CÓMO: Inscripción gratuita en eventbrite Trazabilidad es una de las características que vienen a nuestra...
Paloma Recuero de los Santos Python para todos (1): Instalación del entorno Anaconda Una vez definido el objetivo del tutorial en el post anterior (“Atrévete con el Python: un experimento para todos los públicos”), empezamos propiamente a trabajar. Arrancamos nuestro primer proyecto en...
LUCA Caso de éxito: Big Data para aumentar el impacto en el turista, con Iberostar En esta historia con datos, hablamos sobre una de las principales aplicaciones que el Big Data y la Inteligencia Artificial pueden tener en el sector turismo. En este caso, Iberostar, la...
LUCA Caso de éxito: Departamento de Transporte de UK El Departamento de Transporte es el organismo gubernamental responsable de la mayor parte de la red de transporte del Reino Unido. Nuestro cliente necesitaba entender rápidamente los patrones de...
LUCA Caso de éxito ONS: datos para la gestión de movilidad en el Reino Unido En la “historia con datos” de hoy mostramos, una vez más, cómo soluciones basadas en tecnologías Big Data, IoT e Inteligencia Artificial ofrecen un mundo infinito de posibilidades y...
Ane Urain Caso de éxito: Lograr una estrategia de negocio basada en audiencias En nuestro caso de éxito de hoy, os contamos uno de nuestros proyectos clave en el uso de Big Data para mejorar la comunicación entre un negocio y su...
LUCA Caso de éxito: Desencadenamos la industria con Asti ASTI es una empresa de ingeniería robótica móvil dedicada al estudio, el diseño, la fabricación, la puesta en marcha y el mantenimiento desoluciones de intralogística automatizada. Con sede en...
Paloma Recuero de los Santos Video Post #4: Hadoop para torpes (III y fin) Ecosistema y Distribuciones Hadoop Ya estamos llegando al final del camino. En esta miniserie nos planteamos desentrañar la compleja madeja de Hadoop. Explicar de forma clara y legible en qué consiste, para qué...
Paloma Recuero de los Santos Video Post #20: Datos para aprender Cuando estás empezando en el mundo de la Ciencia de Datos y el aprendizaje automático, uno de las primeras preguntas que te haces es: ¿De dónde saco los datos para...
LUCA LUCA Talk: Blockchain para garantizar la trazabilidad de vacunas FORMATO: Charla de 30 minutos + Q&A de 10 minutosCUÁNDO: 2 de enero, 16:00 h (CET)CÓMO: Inscripción gratuita en eventbrite Trazabilidad es una de las características que vienen a nuestra...
Paloma Recuero de los Santos Video Post #18: Atrévete con Deep Learning. Principios básicos al alcance de todos ¿Sabes qué es el Deep Learning, en qué se basa y qué aplicaciones tiene? En este vídeo te daremos unas sencillas nociones que te ayudarán a comprender esta potente...
Una Breve Historia del Machine LearningVictor Gonzalez Pacheco 18 enero, 2019 Como miembros de la comunidad del Machine Learning es bueno que conozcamos la historia del sector en el que trabajamos. Aunque actualmente estamos viviendo un auténtico boom del Machine Learning, este campo no siempre ha sido tan prolífico, alternando épocas de altas expectativas y avances con “inviernos” donde sufría severos estancamientos. Nacimiento [1952 – 1956] 1950 — Alan Turing crea el “Test de Turing” para determinar si una máquina era realmente inteligente. Para pasar el test, una máquina tenía que ser capaz de engañar a un humano haciéndole creer que era humana en lugar de un computador. 1952 — Arthur Samuel escribe el primer programa de ordenador capaz de aprender. El software era un programa que jugaba a las damas y que mejoraba su juego partida tras partida. 1956 — Martin Minsky y John McCarthy, con la ayuda de Claude Shannon y Nathan Rochester, organizan la conferencia de Darthmouth de 1956, considerada como el evento donde nace el campo de la Inteligencia Artificial. Durante la conferencia, Minsky convence a los asistentes para acuñar el término “Artificial Intelligence” como nombre del nuevo campo. 1958 — Frank Rosenblatt diseña el Perceptrón, la primera red neuronal artificial. Primer Invierno de la IA (AI-Winter) – [1974 – 1980] En la segunda mitad de la década de los 70 el campo sufrió su primer “Invierno”. Diferentes agencias que financian la investigación en IA cortan los fondos tras numerosos años de altas expectativas y muy pocos avances. 1979 — Estudiantes de la Universidad de Stanford inventan el “Stanford Cart”, un robot móvil capaz de moverse autónomamente por una habitación evitando obstáculos. 1967 — Se escribe el algoritmo “Nearest Neighbor”. Este hito está considerado como el nacimiento al campo del reconocimiento de patrones (pattern recognition) en computadores. La explosión de los 80 [1980 – 1987] Los años 80 estuvieron marcados por el nacimiento de los sistemas expertos, basados en reglas. Estos fueron rápidamente adoptados en el sector corporativo, lo que generó un nuevo interés en Machine Learning. 1981 — Gerald Dejong introduce el concepto “Explanation Based Learning” (EBL), donde un computador analiza datos de entrenamiento y crea reglas generales que le permiten descartar los datos menos importantes. 1985 — Terry Sejnowski inventa NetTalk, que aprende a pronunciar palabras de la misma manera que lo haría un niño. Segundo AI Winter [1987 – 1993] A finales de los 80, y durante la primera mitad de los 90, llegó el segundo “Invierno” de la Inteligencia Artificial. Esta vez sus efectos se extendieron durante muchos años y la reputación del campo no se recuperó del todo hasta entrados los 2000. 1990s — El trabajo en Machine Learning gira desde un enfoque orientado al conocimiento (knowledge-driven) hacia uno orientado al dato (data-driven). Los científicos comienzan a crear programas que analizan grandes cantidades de datos y extraen conclusiones de los resultados. 1997 — El ordenador Deep Blue, de IBM vence al campeón mundial de ajedrez Gary Kaspárov. Explosión y adopción comercial [2006-Actualidad] El aumento de la potencia de cálculo junto con la gran abundancia de datos disponibles han vuelto a lanzar el campo de Machine Learning. Numerosas empresas están transformando sus negocios hacia el dato y están incorporando técnicas de Machine Learning en sus procesos, productos y servicios para obtener ventajas competitivas sobre la competencia. 2006 — Geoffrey Hinton acuña el término “Deep Learning” (Aprendizaje Profundo) para explicar nuevas arquitecturas de Redes Neuronales profundas que son capaces de aprender mucho mejor modelos más planos. 2011 — El ordenador Watson de IBM vence a sus competidores humanos en el concurso Jeopardy que consiste en contestar preguntas formuladas en lenguaje natural. 2012 — Jeff Dean, de Google, con la ayuda de Andrew Ng (Universidad de Stanford), lideran el proyecto GoogleBrain, que desarrolla una Red Neuronal Profunda utilizando toda la capacidad de la infraestructura de Google para detectar patrones en vídeos e imágenes. 2012 — Geoffrey Hinton lidera el equipo ganador del concurso de Visión por Computador a Imagenet utilizando una Red Neuronal Profunda (RNP). El equipo venció por un amplio margen de diferencia, dando nacimiento a la actual explosión de Machine Learning basado en RNPs. 2012 — El laboratorio de investigación Google X utiliza GoogleBrain para analizar autónomamente vídeos de Youtube y detectar aquellos que contienen gatos. 2014 — Facebook desarrolla DeepFace, un algoritmo basado en RNPs que es capaz de reconocer a personas con la misma precisión que un ser humano. 2014 — Google compra DeepMind, una startup inglesa de Deep Learning que recientemente había demostrado las capacidades de las Redes Neuronales Profundas con un algoritmo capaz de jugar a juegos de Atari simplemente viendo los píxeles de la pantalla, tal y como lo haría una persona. El algoritmo, tras unas horas de entrenamiento, era capaz de batir a humanos expertos en algunos de esos juegos. 2015 — Amazon lanza su propia plataforma de Machine Learning. 2015 — Microsoft crea el “Distributed Machine Learning Toolkit”, que permite la distribución eficiente de problemas de machine learning en múltiples computadores. 2015 — Elon Musk y Sam Altman, entre otros, fundan la organización sin ánimo de lucro OpenAI, dotándola de 1000 Millones de dólares con el objetivo de asegurar que el desarrollo de la Inteligencia Artificial tenga un impacto positivo en la humanidad. 2016 – Google DeepMind vence en el juego Go (considerado uno de los juegos de mesa más complicados) al jugador profesional Lee Sedol por 5 partidas a 1. Jugadores expertos de Go afirman que el algoritmo fue capaz de realizar movimientos “creativos” que no se habían visto hasta el momento. A fecha de hoy estamos viviendo una tercera explosión de la inteligencia artificial. Aunque existen escépticos que no descartan un posible tercer invierno, esta vez los avances del sector están encontrando aplicabilidad en empresas hasta el punto de crear mercados enteros y producir cambios significativos en la estrategia de grandes y pequeñas empresas. La gran disponibilidad de datos parece ser el fuel que está alimentando los motores de los algoritmos que, a su vez, han roto las limitaciones de cálculo que existían antes de la computación distribuida. Todo parece indicar que seguiremos disponiendo de más y más datos con los que alimentar nuestros algoritmos mientras que la comunidad científica no parece quedarse sin ideas con las que seguir avanzando en el campo. Los próximos años prometen ser realmente frenéticos. No te pierdas ninguno de nuestros post. Suscríbete a LUCA Data Speaks. Para mantenerte al día con LUCA visita nuestra página web, y no olvides seguirnos en Twitter, LinkedIn y YouTube. LUCA Talk: Prediciendo las emergencias del 112 con Inteligencia ArtificialEsta semana en el blog de LUCA: del 14 al 20 de Enero
Paloma Recuero de los Santos ENIA, la nueva Estrategia Nacional sobre IA Desde el pasado 2 de diciembre, España cuenta con una nueva Estrategia Nacional de Inteligencia Artificial, ENIA, dotada con un presupuesto de 600 millones de euros para medidas relacionadas...
LUCA LUCA Talk: Blockchain para garantizar la trazabilidad de vacunas FORMATO: Charla de 30 minutos + Q&A de 10 minutosCUÁNDO: 2 de enero, 16:00 h (CET)CÓMO: Inscripción gratuita en eventbrite Trazabilidad es una de las características que vienen a nuestra...
Enrique Blanco Clustering de series temporales con Python La proliferación y la ubicuidad de los datos con dependencia temporal en un amplio abanico de disciplinas genera un interés sustancial en el análisis y la extracción de series...
Francisco Javier Viñas Plaza El gobierno del almacenamiento como palanca de la innovación La Oficina de Dato es un agente de cambio e innovación en una organización. Convierte el gobierno del almacenamiento en una auténtica palanca de la innovación. Veamos el por...
LUCA Toma el control de tus vehículos con Fleet Optimise La movilidad se ha vuelto más inteligente gracias a la presencia de IoT. Del mismo modo que los usuarios utilizan las soluciones conectadas para hacer trayectos más eficientes o...
LUCA Cómo transformar una compañía(XII): la transformación del talento interno El cambio de paradigma que conlleva el uso de grandes volúmenes de datos (internos, de sensores, públicos…) y la aplicación de la Inteligencia Artificial en los negocios es imparable....