Paloma Recuero de los Santos ENIA, la nueva Estrategia Nacional sobre IA Desde el pasado 2 de diciembre, España cuenta con una nueva Estrategia Nacional de Inteligencia Artificial, ENIA, dotada con un presupuesto de 600 millones de euros para medidas relacionadas...
LUCA LUCA Talk: Blockchain para garantizar la trazabilidad de vacunas FORMATO: Charla de 30 minutos + Q&A de 10 minutosCUÁNDO: 20 de enero, 16:00 h (CET)CÓMO: Inscripción gratuita en eventbrite Trazabilidad es una de las características que vienen a nuestra...
Ideas Locas, CDO de Telefónica Deep Learning con Python: Introducción a TensorFlow (Parte II) Escrito por Enrique Blanco (Investigador en CDO) y Fran Ramírez (Investigador de seguridad informática en Eleven Paths) Este artículo es el segundo de nuestra serie de introducción al Deep Learning con Python haciendo uso del framework TensorFlow. En el...
LUCA Caso de éxito BCP: datos para reforzar la imagen de marca y aumentar el tráfico móvil En esta campaña realizada por LUCA para el Banco de Crédito de Perú (BCP), uno de los bancos más importantes y el proveedor líder de servicios financieros integrados del...
LUCA Una solución para adaptar la flota de vehículos frente a la COVID-19 y la tormenta Filomena La movilidad es un aspecto clave tanto en el día a día de las ciudades como en las situaciones excepcionales que hemos experimentado en el último año por la...
LUCA Caso de éxito: Departamento de Transporte de UK El Departamento de Transporte es el organismo gubernamental responsable de la mayor parte de la red de transporte del Reino Unido. Nuestro cliente necesitaba entender rápidamente los patrones de...
Ane Urain Caso de éxito: Big Data, la clave en la estrategia de expansión de Benjamin a Padaria En la historia con datos que compartimos esta vez, contamos uno de los casos más representativos de cómo el Big Data y la Inteligencia Artificial pueden ayudar en la...
LUCA Descubriendo el poder del Big Data en el mundo energético Contenido creado por Pedro A. Baigorri, Marta García Moreno, Henar Muñoz Frutos y J.Carlos Calvo Martínez, miembros del equipo de producto de LUCA. Ahora más que nunca las técnicas Big Data están...
LUCA LUCA Talk: Spark vs. Hadoop Hadoop y Spark son dos de las herramientas más utilizadas hoy en día en entornos Big Data. Aunque hay quienes ven estos dos frameworks como competidores, no es tan fácil hacer...
Paloma Recuero de los Santos Video Post #9: Analíticas Big Data, sí, pero ¿Cuáles? Sabemos que las analíticas avanzadas Big Data son imprescindibles para no perder la comba de la innovación digital. Lo que no tenemos tan claro es qué tipo de...
LUCA LUCA Talk: Blockchain para garantizar la trazabilidad de vacunas FORMATO: Charla de 30 minutos + Q&A de 10 minutosCUÁNDO: 20 de enero, 16:00 h (CET)CÓMO: Inscripción gratuita en eventbrite Trazabilidad es una de las características que vienen a nuestra...
Paloma Recuero de los Santos Video Post #18: Atrévete con Deep Learning. Principios básicos al alcance de todos ¿Sabes qué es el Deep Learning, en qué se basa y qué aplicaciones tiene? En este vídeo te daremos unas sencillas nociones que te ayudarán a comprender esta potente...
Python para todos (2): ¿Qué son los Jupyter Notebooks?Paloma Recuero de los Santos 20 marzo, 2018 ¿Qué son los Jupyter Notebooks? Los Jupyter Notebooks son quizás la aplicación más conocida del Proyecto Jupyter, creado en 2014 con el objetivo de desarrollar software open-source, open-standards, y servicios de computación interactiva compatibles con distintos de lenguajes de programación. Los Jupyter Notebooks son una aplicación web, también de código abierto que nos va a permitir crear y compartir documentos con código en vivo, ecuaciones, visualizaciones y texto explicativo. Estos documentos registran todo el proceso de desarrollo y, lo más interesante, pueden ser compartidos fácilmente con otras personas a través de correo electrónico, Dropbox, sistemas de control de versiones como git/GitHub y nbviewer. Entre sus usos están: la limpieza y transformación de datosla simulación numéricael modelado estadísticoel aprendizaje automático y mucho más. ¿Por qué Jupyter? Como curiosidad, se les “bautizó” con el nombre de Jupyter, (de deletreo algo complejo, al menos para hispanohablantes) por diferentes motivos. Por un lado, por las connotaciones científicas que conlleva la alusión al planeta “Júpiter”, cuyas lunas fueron protagonistas de lo que se considera una de las primeras publicaciones científicas sustentadas por datos, garantizando, de esta forma su reproducibilidad. Dado que uno de los objetivos que inspiran el proyecto Jupyter es precisamente éste, facilitar la compartición y reproducibilidad de los proyectos y experimentos (científicos y de todo tipo), sus creadores decidieron reflejarlo de esta forma en su nombre. Por otra parte, aunque “Jupyter” no sea exactamente un acrónimo, si hace honor a Julia, Python y R, los lenguajes de programación core soportados en este entorno. En particular, la “y” central fue elegida como homenaje a la herencia Python, ya que Jupyther surgió como una evolución de iPython. ¿Quién los usa? Cualquier persona que trabaja en desarrollo de software o entornos de tecnología en el sentido más amplio, desde estudiantes de secundaria que están dando sus primeros pasos en programación, hasta los ingenieros y científicos más especializados. ¡Y ahora, también nosotros! Así, los Jupyter Notebooks se usan en entornos académicos (UC Berkeley, Stanford, UW, NYU, Cal Poly, etc.), de investigación en el sector público (NASA JPL, KBase), y también en el sector privado (IBM, Facebook, Microsoft, Bloomberg, JP Morgan, WhatsApp, Quantopian, GraphLab, Enthought,etc.). Al tratarse de una arquitectura de módulos abiertos, son ampliamente utilizados para crear todo tipo de soluciones y servicios, tanto comerciales como sin ánimo de lucro. ¿Cómo accedemos? Podemos usarlo remotamente o en local. Desde la propia página web del proyecto podemos elegir probarlo en nuestro browser “Try it in your browser”, o instalárnoslo en local “Install the Notebook”. También se puede instalar directamente desde la herramienta de instalación de paquetes de Python pip. No obstante, la forma más sencilla de instalarlo (de hecho, la que hemos usado nosotros en el post anterior), es instalando Anaconda. Figura 2: Página web del proyecto. Podemos probarlo desde el browser o instalarlo en local. Así que ya tenemos todo listo para empezar a utilizar este nuevo entorno de trabajo que está revolucionando la forma de trabajar en el mundo de los datos. Accedemos al entorno. En el post anterior, instalamos Anaconda. Si todo ha ido correctamente, podremos abrir Jupyter Notebook directamente desde el menú de Windows: Figura 3: Acceso desde el menú Windows. Se abre una ventana de comandos que lanza automáticamente la interfaz que está dividida en tres pestañas: “Files”, Running” y “clusters”. Por defecto, se abre por “Files” que es donde podremos crear nuevos notebooks o abrir uno existente. Figura 4: Interfaz de Jupyter. Creamos un notebook y le damos nombre. Para crear un notebook no tenemos más que seleccionar la opción “New” que aparece en la esquina superior derecha. Figura 5: Desde el menú “New” creamos un nuevo notebook Python. Una vez creado, le asignamos un nombre haciendo “click” sobre “Untitled” . Figura 6: Se crea como “untitled”. Podemos llamarle MiPrimerNotebookPython (¡o como queramos!). Figura 7: Renombramos el notebook. Ahora podemos ver, al final de la lista, nuestro nuevo notebook. También podemos ver su estado “Running”. Figura 8: Al final de la lista aparece el nuevo notebook. Lo abrimos simplemente haciendo click sobre el nombre y vemos que consiste en una serie de celdas dentro de las cuales podemos escribir directamente el código. Al hacer click dentro de la celda, observamos que cambia el color del borde de azul a verde. Eso significa que cambiamos de modo comando (azul), a modo edición (verde). Cambiar de uno a otro es tan sencillo como hacer click dentro de la celda o pulsar escape. Figura 9: Celda en modo comando (azul). Una vez en modo edición, podemos empezar a escribir los comandos que queramos. Puedes probar con alguno de los que usaste en el post anterior del tutorial, o con algo muy sencillo como esto. Escribe: print (“loquetúquieras”) Figura 10: Probamos con el comando print. Para ejecutar el código, puedes elegir la opción “Run Cells” dentro del menú “Cell” o bien pulsar “Ctrl+Intro”. El resultado aparece justo debajo: Figura 11: Resultado de ejecución de la celda. Crear un “Checkpoint” Otra de las funcionalidades más interesantes de Jupyter Notebook es que te da la posibilidad de crear “checkpoints” o puntos de referencia. Cuando crear un checkpoint lo que haces en realidad es guardar el estatus del notebook en ese preciso instante de forma que puedas volver a ese punto concreto y deshacer los cambios que se hayan hecho después. Esto, evidentemente es muy interesante cuando estás haciendo pruebas y algo no sale bien. Puedes volver sin problemas al punto dónde todo era correcto sin necesidad de empezar otra vez desde el principio. Para crear un checkpoint, tan sólo hay que seleccionar la opción “Save and Checkpoint” desde el menú “File”. Para volver a un checkpoint anterior, no hay más que seleccionar el que nos interese del mentú “File/revert to checkpoint”. Figura 12: Cómo volver a un checkpoint anterior. Exportar un Notebook Por último, para exportar el notebook, debes seleccionar la opción que más te interese dentro del menú: “File/Download as”. Podrás elegir entre formato notebook (ipynb), python (py), html, markdown, latex, pdf etc. En el siguiente post hablaremos de las librerías y acabaremos de preparar el entorno para nuestro experimento de machine learning. Mientras tanto, te recomendamos que explores los menús de ayuda de Jupyter Notebooks, y pruebes algunos comandos sencillos para empezar a conocer un poco el entorno. En éste vídeo de CodingtheSmartWay encontrarás algunos ejemplos para practicar. Todos los post de este tutorial, aquí: Introducción: Machine Learning con Python para todos los públicos.Python para todos (1): Instalación del entorno Anaconda.Python para todos (2): ¿Qué son los Jupiter Notebook?. Creamos nuestro primer notebook y practicamos algunos comandos fáciles.Python para todos (3): ¿Qué son las librerías?. Preparamos el entorno.Python para todos (4): Empezamos el experimento propiamente. Carga de datos, análisis exploratorio (dimensiones del dataset, estadísticas, visualización etc)Python para todos (5) Final: Creación de los modelos y estimación de su precisión No te pierdas ninguno de nuestros post. Suscríbete a LUCA Data Speaks. También puedes seguirnos en nuestras redes sociales: @Telefonica, @LUCA_D3, @ElevenPaths Esta semana en el blog de LUCA: (12 al 18 de Marzo)LUCA Talk: Los 5 errores de concepto más habituales sobre Data Science
LUCA Una solución para adaptar la flota de vehículos frente a la COVID-19 y la tormenta Filomena La movilidad es un aspecto clave tanto en el día a día de las ciudades como en las situaciones excepcionales que hemos experimentado en el último año por la...
Francisco Javier Viñas Plaza El gobierno del almacenamiento como palanca de la innovación La Oficina de Dato es un agente de cambio e innovación en una organización. Convierte el gobierno del almacenamiento en una auténtica palanca de la innovación. Veamos el por...
Paloma Recuero de los Santos ENIA, la nueva Estrategia Nacional sobre IA Desde el pasado 2 de diciembre, España cuenta con una nueva Estrategia Nacional de Inteligencia Artificial, ENIA, dotada con un presupuesto de 600 millones de euros para medidas relacionadas...
LUCA LUCA Talk: Blockchain para garantizar la trazabilidad de vacunas FORMATO: Charla de 30 minutos + Q&A de 10 minutosCUÁNDO: 20 de enero, 16:00 h (CET)CÓMO: Inscripción gratuita en eventbrite Trazabilidad es una de las características que vienen a nuestra...
Enrique Blanco Clustering de series temporales con Python La proliferación y la ubicuidad de los datos con dependencia temporal en un amplio abanico de disciplinas genera un interés sustancial en el análisis y la extracción de series...
LUCA Fleet Optimise en la era Post-COVID La llegada de la COVID-19 ha alterado el mundo tal y como lo conocíamos y está obligando a muchas empresas a evolucionar digitalmente para adaptarse a las nuevas necesidades...