Casos de uso de Microsoft 365 en las empresas

Equipo Editorial Pymes    11 febrero, 2021

Microsoft 365 es una herramienta colaborativa con la que es posible gestionar un negocio, tener todos los procesos controlados y aumentar la productividad.

Entre sus funcionalidades destaca la opción de trabajar en equipo, compartir documentos en la nube, acceder a correos electrónicos, chats, videollamadas, etc. Todo ello con la garantía de que la información está accesible en cualquier momento y lugar, desde cualquier dispositivo, y a salvo de imprevistos y amenazas de terceros.

En este post mostramos cuatro casos de uso, en los que se plasma el amplio espectro de aplicaciones que tiene Microsoft 365 para las empresas.

En el ámbito formativo

Para todos aquellos que tengan un negocio relacionado con la formación, como puede ser un gimnasio, una academia de idiomas, de inglés o de cualquier otra materia, si no es posible el modo presencial o si se prefiere un modelo completamente digital, con Microsoft 365 es posible hacerlo. Estas son las aplicaciones que podrían utilizarse en este caso de uso:

  • Servicio de correo Outlook, que permite avisar a todos los alumnos de que las clases pasan a ser online.
  • Mediante Teams, los profesores pueden impartir las clases de forma no presencial y los alumnos acceder a las sesiones a través de videollamada.
  • Para saber qué alumnos asistirán, estos pueden reservar las clases a través de Bookings.
  • Todas las clases quedan grabadas en la plataforma (Onedrive), de tal modo que aquellos que no hayan podido asistir, puedan hacerlo posteriormente.

Colaboración con clientes y proveedores

Pongamos el ejemplo de una fábrica de muebles (proveedor) y una tienda de decoración (cliente). Con Microsoft 365 es posible gestionar todo el proceso de fabricación, venta y distribución con facilidad y de forma ágil.

En este caso de uso, la tienda de decoración contacta con la fábrica mediante Teams, para encargarle unos muebles y compartir los planes de decoración que ha diseñado.

Por medio de Onedrive, la fábrica inicia el pedido con su encargado de fabricación de muebles. Y mediante Microsoft Planner asigna tareas específicas a otros miembros del equipo.

El cliente final, la tienda y la fábrica están en todo momento informados de cómo va la producción del pedido, porque todos tienen acceso a la información y pueden consultarla mediante Microsoft 365.

Tiendas y comercios

Para comercios y establecimientos (como, por ejemplo, una tienda de muebles), Microsoft 365 puede ser de mucha ayuda.

La comunicación entre tienda y cliente se establece mediante Outlook. Para un contacto visual y más directo, se pueden hacer reuniones por Teams para concretar el pedido y diseñar conjuntamente el proyecto con el cliente.

En el caso de uso que hemos imaginado, la tienda de muebles y la clienta programan una visita al establecimiento, para revisar los materiales y colores de todo el mobiliario que tendrá el salón que la clienta quiere redecorar.

Una vez escogido todo, envían el presupuesto a la clienta por correo electrónico y, tras aceptarlo, el pedido se pone en marcha.

Mediante el calendario de Teams, la tienda coordina todas las entregas y va enviando recordatorios a la clienta para que esté pendiente. De este modo se ha gestionado todo el pedido sin necesidad de ir varias veces a la tienda y sin ninguna incidencia.

Caso de uso de Microsoft 365 en una tienda

Atención y servicio a clientes

Todas las empresas necesitan contactar con sus clientes en algún momento, ya sea cuando compran algo, si hay peticiones urgentes, cuando ocurre alguna incidencia, para el envío y recepción de pedidos, etc.

La aplicación de correo de Outlook permite revisar todas las peticiones rápidamente y contactar cuanto antes con los clientes. Lo ideal es gestionar todos los procesos, incluidas las incidencias, desde cualquier lugar y dispositivo. De ahí que la empresa deba trabajar de forma colaborativa en la nube.

Ello permite compartir información y documentos con facilidad entre todas las partes implicadas. Así todo el mundo -clientes y empresa- dispone de la información sin necesidad de desplazamientos.

Veamos en este vídeo el caso de uso de Microsoft 365 en una correduría de seguros:

Artículos relacionados:

Un liderazgo influyente con mujeres y robots también al frente

Virginia Cabrera    11 febrero, 2021

Los ingenieros sabemos bien que solo la tensión valida definitivamente aquellos sistemas y procesos que diseñamos. Que solo conocemos la verdadera adecuación de la solución que planteamos a las necesidades del contexto que la requiere cuando la sometemos a cuantas circunstancias adversas somos capaces de imaginar.

Ante la incertidumbre del actual entorno social y económico, cada vez más voces afirman que nuestros modelos de negocio, de gobernanza, de aprendizaje y de liderazgo no resultan ya eficaces.

Entre un cuestionamiento general de todo está el del modelo de gestión empresarial.

El poder de los datos frente a las emociones en la toma de decisiones

Con el argumento de que es preciso hacer las cosas de forma distinta si se quieren obtener resultados diferentes, hay quien reclama que demos todo el poder al big data y a la inteligencia artificial. Ante la falta de “resultados” de las decisiones que toman quienes hoy gestionan, piden que se dé la oportunidad de hacerlo a los algoritmos, ponernos en manos de los datos y dejar de lado las “emociones e intereses” que a los humanos “nos dominan” y que nos impiden tomar esas “decisiones eficientes” que necesitamos.

Muchos lo ven una barbaridad, pero cada vez son más quienes no consideran una locura sacar a las personas de la ecuación de la toma de decisiones.

Personalmente estoy convencida de la enorme utilidad de utilizar la tecnología como ayuda a la toma de decisiones. Es necesario apoyarse en algoritmos con potencia suficiente para analizar millones de datos y poder extraer de ellos información en tiempo real. Y son precisas herramientas que permitan medir, evaluar y afinar de forma constante el efecto de las decisiones que vamos tomando.

Necesidad de un nuevo modelo de liderazgo que proteja el bienestar de todos

Pero sé que nada de eso nos conducirá a un mundo mejor si las personas no estamos presentes y avanzamos hacia un nuevo modelo de liderazgo. Un liderazgo que sustituya los tradicionales objetivos de poder, control y eficiencia pura por otros relacionados con la ayuda, la comunidad y el bienestar de las personas y del planeta.

Me gusta llamarlo un liderazgo influyente. Y se caracteriza por tomar decisiones con el objetivo de proteger el bienestar de todos y no solo de unos pocos. Debe apoyarse en la tecnología y tener los derechos humanos como faro y guía de actuación.

Ahora que tanto se habla de automatización y reconversión laboral, llega el momento de que los líderes adopten las ventajas de la inteligencia artificial para potenciar -aunque suene paradójico- sus cualidades más humanas. Se trata de sumar los esfuerzos de las personas y las máquinas, en lugar de competir con ellas, y mantener nosotros el mando gracias al desarrollo exponencial de eso que solo los humanos sabemos hacer, de esas capacidades “no automatizables”.

Capacidades inequívocamente humanas

  • Empatía. Hace falta escuchar más y mejor para mejorar el alcance y la efectividad de nuestras decisiones.
  • Sentido de humanidad, enfocado a propósitos con los que todos ganemos.
  • Liderazgo horizontal en busca de empoderar e influir, en lugar de controlar y figurar.
  • Equilibrio entre lo global y lo particular, dando poder a los pequeños detalles que tanto influyen. Hay que bascular con prudencia entre el dato y la intuición, saber hacerse las preguntas adecuadas y tomar las decisiones correctas con la información en la mano.
  • Flexibilidad de pensamiento y de acción para adaptarnos con agilidad a un contexto que cambia cada día y donde ya nada es seguro.
  • Confianza en la inteligencia colectiva y en el equipo
  • Y, desde luego, la pasión y el compromiso total.

Hacia un modelo de gobernanza femenino

Ante este panorama de necesidades en las que casi todos estamos ya de acuerdo, no es descabellado pensar que las mujeres estamos ante una enorme responsabilidad. Porque, por primera vez en la historia, entran en juego valores que nos son cercanos. Así que, esta vez, partimos con cierta ventaja.

Me produce alegría escuchar que el nuevo modelo de gobernanza global tiene mimbres para un claro liderazgo femenino. Me encantará ver en los próximos años a más mujeres “influyentes” contribuir a mejorar el mundo con la tecnología como fiel escudera.

Y me hará feliz contribuir a ello desde mi humilde posición, que hoy es la de señalar la oportunidad al tiempo que alerto para evitar que caigamos en la vanidad de pensar que esos valores son exclusivamente de las mujeres.

Ante el reto que tenemos por delante, aquí no sobra nadie.

Imagen: geralt/pixabay

39 startups y 4.5 millones: las inversiones de Wayra en 2020

Mateo Rouco Salvado    11 febrero, 2021

En 2020, a pesar de haber vivido uno de los años más atípicos de la historia reciente, en Wayra no solo hemos mantenido nuestra apuesta por el ecosistema emprendedor sino que hemos reforzado nuestro apoyo a las startups que, con sus soluciones, están transformando y mejorando la vida de las personas a través de la tecnología. Las inversiones de Wayra en 2020 han alcanzado un total de 4,5 millones de euros en 39 startups de Europa y Latinoamérica.

Desde España se realizaron inversiones por valor de 1,8 millones de euros en 15 startups, un 29% más que el ejercicio anterior. Buena parte de los proyectos están relacionados con inteligencia artificial (IA), Internet de las cosas (IoT), cloud, vídeo, realidad virtual, ciberseguridad, conectividad, data analytics o fintech.

De esta forma, Wayra sigue invirtiendo en startups tecnológicas que encajen con los proyectos estratégicos de Telefónica y ayudando a los emprendedores a desarrollar negocio con el grupo siendo un puente de conexión entre las startups y las áreas de negocio clave de Telefónica.

Inversiones de Wayra España en 2020

Wayra España realizó 11 inversiones a lo largo del 2020:

  • Countercraft: Esta startup donostiarra es pionera en productos de contra inteligencia y engaño cibernético que sirven para detectar ataques dirigidos. La startup tiene ya una larga relación profesional con Telefónica, ha firmado recientemente un importante acuerdo con el Departamento de Defensa de Estados Unidos, la OTAN y forma parte del portafolio de Telefónica Tech Ventures.
  • Kymatio: Desarrollada en Madrid, es un SaaS (Software as a Service) que identifica, analiza y proporciona todo lo necesario para gestionar los ciber riesgos de los empleados. Especialmente en el contexto del teletrabajo, su solución se ha vuelto de gran relevancia. Kymatio forma parte también del portafolio de Telefónica Tech Ventures.
  • Proppos: Esta startup catalana cuenta con un sistema de auto pago inteligente y autónomo para cafeterías, comedores o restaurantes. Usando IA, Proppos puede reconocer los productos y acelerar el proceso de compra.
  • Ludus: Esta startup, originaria de Bilbao, pivotó del desarrollo de videojuegos a su modelo de negocio actual: entrenamiento en industria y emergencia usando la realidad virtual. Permite a los profesionales practicar de forma habitual protocolos de actuación en situaciones de alto riesgo. También se trata de una reinversión.
  • Humanox: Expertos en Iot, han creado las primeras espinilleras conectadas e inteligentes. Son capaces de procesar más de 50.000 datos por entrenamiento o partido. Para el jugador esto se refleja en 40 métricas dirigidas a la mejora de su rendimiento deportivo y salud.
  • Kenmei: Originaria de Valenciana, proporcionan soluciones autónomas para operadores de redes móviles. Aplicando inteligencia de red logran automatizar la clasificación, segmentación y resolución de problemas de red en diferentes niveles operativos.

Y también invertimos en…

  • Alias Robotics:  Esta startup de Vitoria-Gasteiz, tiene como misión garantizar la seguridad en los robots. Destacan el RIS (Robot Immune System), que protege a los robots del malware, o Alurity, que simplifica la búsqueda de ciberseguridad. Alias Robotics forma parte del portfolio de Telefónica Tech Ventures.
  • Payflow:  Nace en Barcelona en plena crisis de la Covid-19. Esta startup permite a los miembros de una empresa cobrar la fracción ya trabajada de su salario en el momento que elijan, en lugar de cobrarlo íntegro a final de mes.
  • YBVR: con base en Sillicon Valley y con presencia en cuatro países, se especializa en experiencias inmersivas de realidad virtual. Destaca la monetización de entradas virtuales. Por ejemplo, en eventos deportivos, los fans pueden transportarse al partido y verlo en primera fila.
  • Pridatect: Cuentan un software RGPD y protección de datos que simplifica el cumplimiento de la privacidad para la empresa. Pridatect forma parte del portafolio de Telefónica Tech Ventures.
  • Galgus: Esta startup presenta la Cognitive Hotspot Technology (CHT) que optimiza la eficiencia de puntos de acceso WiFi y routers. Puede aumentar el rendimiento WiFi hasta en 5 veces. Galgus tiene un rol clave impulsando la conectividad en zonas remotas o poco pobladas.

Nuestras nuevas iniciativas: Wayra X y Wayra Builder

El 2020 desde Wayra también lanzamos dos iniciativas que completan la estrategia en innovación abierta de la compañía. Se trata de Wayra Builder, un Venture Builder corporativo cuya misión es aprovechar el talento y la tecnología interna de Telefónica para crear startups innovadoras junto a inversores externos; y Wayra X, el primer hub 100% digital de Wayra pensado para invertir a escala global en startups 100% digitales.

Desde Wayra X, se invirtieron en los siguientes proyectos:

  • Peopple: esta aplicación permite descubrir recomendaciones de amigos e influencers sobre diferentes áreas como gastronomía, literatura, música, deportes, etc. Tiene su sede en Madrid.
  • Blabla: mediante esta startup de Shangai ofrece videos cortos, divertidos e inmersivos que ayudan a estudiantes de inglés a conectar con contenido elaborado por hablantes nativos apoyado en tecnología de IA y machine learning.
  • Nannyfy: esta startup de Barcelona reorientó su estrategia con la llegada de la Covid-19. De market place offline de nannys o cuidadores a lanzar Nannify TV y revolucionar el cuidado virtual y el aprendizaje de los menores de doce años.
  • Suscrip: esta startup permite, a través de su aplicación, compartir pagos entre varias personas, vinculándose a la cuenta bancaria y simplificando las deudas con pagos automáticos previamente autorizados.

Nuestro compromiso con el emprendimiento

En 2020 también dos startups participadas por Wayra se integraron por primera vez en la Telefónica. Desde Telefónica Tech se adquirió Govertis, incorporando así talento emprendedor para reforzar sus capacidades en ciberseguridad.

Desde Wayra, tenemos claro que parte de la recuperación económica de nuestras sociedades en 2021 pasa por la reinvención y digitalización de sectores clave para el día a día de las personas. En esta tarea, los emprendedores tienen mucho que decir y un mundo de oportunidades para crecer a escala global junto a Telefónica y Wayra.

Inteligencia Artificial y el origen del Universo

Paloma Recuero de los Santos    11 febrero, 2021

Hoy, Día Internacional de la Mujer y la Niña en la Ciencia, vamos a hablar de cómo la inteligencia artificial es una especie de «varita mágica» que revoluciona todo lo que toca. En particular, veremos cómo se aplica al estudio del origen del Universo, uno de los misterios más grandes de la Ciencia.

Pero también hablaremos de la importancia de quien maneja la «varita». En este caso, la investigadora, Cora Dvorkin, que empezó desde niña a hacerse preguntas. Y que hoy sigue defendiendo que

«Hacer ciencia es la permanente búsqueda, no solo de respuesta sino también igual de importante, de la pregunta correcta.

De niña curiosa a Doctora en Cosmología

En una TEDxRíodelaPlata, la Dra, Cora Dvorkin, especialista en Cosmología del Departamento de Física de la Universidad de Harvard, nos explica cómo su equipo de investigación utiliza la inteligencia artificial para aprender sobre algo que está ahí aunque no lo veamos: la materia oscura.

También nos cuenta cómo, de niña, acompañaba a su padre a visitar a un amigo muy sabio, al que ambos admiraban mucho. Manuel Sadosky, matemático, considerado por muchos como el padre de la computación en Argentina, le transmitió su pasión por la ciencia y el conocimiento, y le enseñó a plantearse las preguntas adecuadas. Aprendió a disfrutar de cómo cada respuesta, cada avance, planteaba un nuevo desafío.

Con el paso de los años, se graduó en Física, por la Universidad de Buenos Aires, y encontró en la Cosmología el espacio para juntar su pasión por las Matemáticas, la Física y la Filosofía. 

¿Por qué estudiar la materia oscura?

Hay muchas razones por las que es importante estudiar el Universo, y, en particular, la materia oscura. Pero sin profundizar en implicaciones históricas, basta con tener en cuenta un dato. El 85 % de materia de todo el universo es materia oscura

El 85 % y aún hoy seguimos sin entender qué es. 

Cora Dvorkin nos explica de forma muy sencilla, cómo los cosmólogos, al igual que los arqueólogos, estudian el pasado para poder comprender mejor el futuro. Así, investigando la luz que nos llega de una estrella, podemos ver cómo era ésta en el pasado; ya que puede tardar millones de años en llegar a nosotros. Y cuanto más lejos esté la estrella, más atrás en el tiempo podemos llegar. Por tanto:

Estudiar el universo lejano es como viajar en el tiempo. 

Así, los cosmólogos investigan sobre en origen del Universo, estudiando la radiación cósmica de fondo, conocida como el «eco del Big Bang».

Una «interferencia» inexplicable

En 1965, los astrónomos de Bell LabsArno Penzias y Bob Wilson, descubrieron accidentalmente, como tantas veces sucede en la historia de la ciencia, algo fundamental. Ellos habían construido una antena para detectar ondas de radio y trabajaban para reducir al máximo cualquier interferencia. Pero había una señal de origen desconocido, que no había forma de eliminar. Habían detectado la radiación cósmica de fondo.

Con los años, el desarrollo de la Cosmología dio lugar a un modelo que explicaba el origen del Universo de forma elegante y simple. Usando la teoría estándar de Física de Partículas y la teoría de la Relatividad, explicaba la abundancia de hidrógeno y helio en el Universo, así como la existencia de esta radiación de fondo, emitida cuando el universo tenía tan solo 400.000 años de edad.

Algo que no se ve, pero está ahí

Pero había algo que no cuadraba. Para que funcionara el modelo, hacía falta mucha más materia de la que se podía detectar. En concreto, más de un 85%. Además, una materia «especial», sólo detectable por sus efectos gravitacionales.

Para explicarla, son necesarios nuevos tipos de partículas elementales. Es por ello que hoy día, en todo el mundo, se llevan a cabo numerosos experimentos, como el proyecto  EUCLID, de la Agencia Espacial Europea.

Primeras evidencias de la existencia de la materia oscura

Años después, en los 70, a la astrónoma Vera Rubin, que estudiaba la velocidad de rotación de las estrellas en distintas galaxias, tampoco le salían las cuentas. Al igual que ocurre con los planetas que giran alrededor del sol, esperaba observar velocidades de rotación más bajas cuanto más lejos se encontrara la estrella del centro de la galaxia.

Sin embargo las observaciones mostraban otra cosa y la velocidad era constante. Fue la primera evidencia científica de la existencia de la materia oscura. Estos trabajos permitieron explicar muchas observaciones, incluida la conocida sinfonía cósmica del Big Bang.

¿Cómo detectar la materia oscura?

Aunque en 2019, los cosmólogos consiguieron el mapa más completo de materia oscura a través de la historia del Universo, cuando tratamos de detectarla a menor escala, como en el seno de una galaxia, su influencia o huella en el espacio es mucho más pequeña y difícil de cartografiar.

Figura 1: Este mapa tridimensional ofrece un primer vistazo a la distribución de la materia oscura a gran escala, como si fuera una red, tal y como se ha cartografiado con el mayor estudio del Universo realizado por el telescopio espacial Hubble, el Cosmic Evolution Survey («COSMOS»). Fuente

En este caso, los investigadores plantean hipótesis que les permitan medir su impacto sobre algo observable. Por ejemplo, si se plantea la hipótesis de que el paso de materia oscura frente a un objeto brillante distorsiona su brillo, este sí es un efecto que podemos medir a escala de una galaxia.

IA para detectar materia oscura

El grupo de investigación de la Dra, Cora Dvorkin, en Harvard, investiga sobre la materia oscura basándose en el fenómeno conocido como «efecto de lente gravitacional». La masa de la materia oscura deforma el espacio-tiempo. Por ello, en su presencia, la luz que nos llega de una galaxia no viene en línea recta, sino que se desvía creando arcos en el cielo que SI podemos observar.

Por tanto, para localizar cúmulos livianos de materia oscura, analizan imágenes buscando las pequeñas fluctuaciones que éstos generan en los arcos que vemos en el cielo.

El método tradicional para detectar estas pequeñas perturbaciones era analizar las imágenes una a una, a mano. Era un método muy lento, les podía llevar varios meses, pero factible cuando las imágenes a analizar se contaban por decenas. Sin embargo, con los nuevos telescopios, de decenas se ha pasado a decenas de miles, por lo cuale este análisis se convirtió en una tarea inabordable.

Machine Learning al rescate

Entonces el grupo se planteó aplicar a su campo de investigación técnicas de visión artificial. Así, entrenaron modelos de machine learning con miles de simulaciones de imágenes de galaxias, de forma que éstos aprendieron a detectar los patrones propios de los cúmulos de materia oscura.

Los resultados fueron tan buenos que apenas se lo podían creer. En menos de un segundo podían detectar cúmulos tan pequeños que antes consideraban indetectables.

IA para investigación en Física

El éxito del proyecto les animó a crear, junto con colegas de la Universidad de Harvard, MIT y otras universidades del área, un Instituto de Inteligencia Artificial, el IAIFI ,  en el que físicos de distintas disciplinas usan este tipo de herramientas. De esta forma, gracias a la inteligencia artificial y la gran cantidad de datos de los que podemos disponer hoy en día, iremos encajando poco a poco las piezas del rompecabezas, y encontrando respuesta a nuestras preguntas.

Y lo mejor de todo, nuestra curiosidad innata nos llevará a plantearnos preguntas nuevas que nos ayudarán a seguir avanzando en el conocimiento con mayúsculas.

Referencias:


Para mantenerte al día con LUCA visita nuestra página web suscríbete a LUCA Data Speaks o síguenos en TwitterLinkedIn YouTube.

ElevenPaths Radio #13 – Seguridad y privacidad en el «Internet de la salud»

ElevenPaths    10 febrero, 2021

La ciberseguridad aplicada al ámbito de la medicina es especialmente relevante, ya que el software que se utiliza en dicho ámbito gestiona datos clínicos de gran importancia. La pregunta es: ¿es seguro ese software?

En el “Internet de las cosas”, varios dispositivos están interconectados entre sí para aprender patrones y automatizar procesos. De la misma manera, el “Internet de la salud” permitirá que nuestros datos médicos estén conectados para poder ser tratados de forma integral, siempre y cuando se disponga de una adecuada ciberseguridad.

Para más información, consulta este artículo: https://empresas.blogthinkbig.com/seguridad-privacidad-internet-salud/

Decimotercero capítulo de “Actualidad con nuestros CSAs” ya disponible


Escucha el resto de capítulos de ElevenPaths Radio – Actualidad con nuestros CSAs:

Aumentan las terapias online para mejorar la salud y la mente

Raúl Salgado    10 febrero, 2021

Casi la mitad de la población duerme menos que antes de la pandemia, un tercio sufre ansiedad y un 40% muestra síntomas de depresión, según algunos estudios. Un diagnóstico que empeorará con el paso del tiempo, pues ahora solo se ve la punta del iceberg de una factura psicológica que amenaza seriamente nuestra salud mental.

Y es que los confinamientos, el aislamiento, la incertidumbre, el miedo, la pérdida de trabajo… dejarán un reguero de víctimas que han hecho saltar todas las alarmas.

Ifeel, una app que no para de crecer

Las consultas al psicólogo se han disparado. En especial, las que se hacen por Internet, al no necesitar ningún desplazamiento ni contacto físico. Un ejemplo de ello es Ifeel, una aplicación de psicólogos que ofrece terapia online.

Durante los tres primeros meses de confinamiento, esta empresa abrió su plataforma de manera gratuita a todas aquellas personas que necesitaran acudir al psicólogo o que hubieran visto sus terapias interrumpidas como consecuencia de la crisis.

De igual modo, selló nuevos acuerdos B2B con compañías que requieren atención psicológica para sus empleados, pertenecientes al sector tecnológico, de la salud y de la educación.

Las visitas se han triplicado

Fruto de ello es que sus visitas se han triplicado en el último año y que el número de psicólogos con los que trabaja la empresa ha escalado desde los 250 a los 400. Ahora bien, ¿en qué consiste este modelo de negocio?

Martín Villanueva, cofundador y director de Operaciones, relata que la idea original con la que nació Ifeel es hacer que la terapia psicológica pueda llegar a más personas, de una manera cómoda y accesible, priorizando el rigor profesional.

La compañía cuenta con un numeroso equipo de psicólogos colegiados, fundamentalmente ubicados en España, pero también en otros países de América y Europa. Y estos profesionales están presentes en todo el proceso: desde que el paciente contacta con Ifeel hasta que concluye la terapia.

Es decir, además de los que trabajan como terapeutas, hay psicólogos en las áreas de marketing y recursos humanos, sin olvidar la comunicación permanente con los equipos tecnológico y de diseño. 

A la red de psicólogos de plantilla -encargados de investigar, formar y supervisar- se suma un conjunto de psicólogos freelance que forman parte del equipo que realiza la terapia.

Aplicación Ifeel

En resumidas cuentas, se trataría de psicólogos a medida a través de la pantalla, ya que la compañía se encarga de buscar al profesional más adecuado para cada paciente.

De esta manera, el ritmo al que los terapeutas reciben nuevos pacientes no es aleatorio ni se establece por turno, sino que depende de los casos que van llegando, lo que determina su retribución final. 

Por chat o videoconferencia

Los pacientes de Ifeel tienen la posibilidad de realizar su consulta a través de un chat escrito de lunes a viernes o mediante sesiones semanales por videoconferencia.

Independientemente de la modalidad, existen planes mensuales, trimestrales o semestrales, de forma que cuanto más larga sea la duración, más barata resultará la consulta.

Desde la compañía aclaran que el plan más económico es el chat mensual, de 120 euros al mes, que permite al paciente escribir a su psicólogo siempre que quiera, sin horario, sabiendo que recibirá una respuesta diaria -de lunes a viernes- con todas las pautas y comentarios que procedan (de manera asincrónica para que sea manejable para ambos y resulte adecuado a nivel terapéutico).

Cinco años de vida

Los inicios de Ifeel se remontan a 2016, en concreto a un concurso organizado en Madrid por el IE Business School. Desde entonces, tras varias rondas de inversión, han sido muchos los pacientes atendidos y los hitos conseguidos. ¿Y de cara al futuro?

“El reto principal de Ifeel siempre es atender de manera online al mayor número de personas, especialmente a aquellas que de otra manera no podrían tener la oportunidad de mejorar su calidad de vida a través de una terapia”.

En este sentido, Villanueva asegura que no han dejado de mejorar a nivel tecnológico la app y la plataforma online a través de la que trabajan. Y afirma que el objetivo pasa por expandir el proceso de internacionalización. Para ello, se incorporarán más idiomas a aquellos en los que ya ofrecen sus servicios de terapia, y ampliarán sus colaboraciones corporativas con las empresas. 

Mayor privacidad

Además, Villanueva señala la posibilidad de aumentar la privacidad. Y es que en el formato online, el paciente se comunica a través de su teléfono móvil u ordenador, pudiendo hacer su terapia por escrito, sin necesidad de mostrar su cara o utilizando un alias o usuario para identificarse. “Esto hace que el nivel de discreción aumente mucho, lo cual es importante para muchas personas”, concluye.

Auge de las consultas online

La pandemia nos ha llevado a la era del teletrabajo, la enseñanza online, el comercio electrónico, es decir, a la era de la distancia. Y esta tendencia también se refleja en el auge de las consultas con el psicólogo a golpe de clic, que si bien durante la crisis se han presentado como una alternativa eficaz para no tener que salir de casa, en el futuro podrían consolidarse, dadas sus numerosas ventajas.

No obstante, desde la compañía matizan que no pretenden sustituir las terapias presenciales, sino complementarlas y, sobre todo, llegar a donde la atención presencial no puede hacerlo.

“Trabajamos con la previsión de que la terapia online y la presencial van a convivir en el futuro igual que lo hacen en el presente”, apostillan.

Entre las ventajas de las terapias online, desde Ifeel destacan las relacionadas con la accesibilidad (siempre que se cuente con un dispositivo adecuado y conexión a Internet), el ahorro de tiempo y la apertura a un nuevo formato de comunicación entre pacientes y terapeutas.

Medicina a distancia en otras especialidades

Pero la terapia a distancia no solo ha proliferado en ámbitos como la Psicología, sino que también se ha hecho extensiva a otras especialidades y a la Atención Primaria.

Prueba de ello es el servicio de telemedicina Movistar Salud, que ofrece una preevaluación digital de los síntomas, consultas médicas online todos los días de la semana durante las 24 horas y planes personalizados de deporte y nutrición.

Y es que en esta nueva era en la que hay que restringir el contacto físico y fomentar el distanciamiento, las aplicaciones online son la solución a muchos problemas y necesidades.

La nube verde y un viaje sin espinas con el «partner» adecuado

Cristóbal Corredor Ardoy    10 febrero, 2021

Ya nadie pone en duda que la nube acelera la transformación digital de las empresas. Les aporta agilidad -que ha demostrado ser la mejor defensa frente a la pandemia-, permite una mayor flexibilidad y facilita la innovación. De hecho, el COVID-19 ha sido un gran evangelizador de cloud, como veíamos en este blog. En una crisis como ésta también conviene recordar que la nube permite, además, una reducción de costes en tecnologías de la información. Hace ya un lustro que contábamos que el valor financiero de los proyectos de computación en la nube se puede medir con un modelo microeconómico.

Digitalización y sostenibilidad como palancas de la recuperación

Pero quizá no le estamos sacando igual brillo a otro de sus beneficios -y conviene hacerlo cuando sabemos que el camino de la recuperación va indisolublemente ligado al de la sostenibilidad: el compromiso de cloud con el cambio climático. La nube es verde.

Cloud, árboles y coches

Cloud reduce las emisiones de CO2 a la atmosfera y contribuye a la lucha contra el calentamiento global. Un estudio reciente de Accenture apunta que las migraciones a la nube por parte de las empresas pueden reducir las emisiones de CO2 a la atmósfera en 59 millones de toneladas al año. Esto representa una reducción del 5,9 por ciento del total de las emisiones de TI y equivale a retirar 22 millones de coches de la carretera.

En 2019, gracias a los servicios cloud de Telefónica se evitó la emisión de más de 3.500 toneladas de CO2 a la atmósfera, lo que equivale a plantar un bosque de más de 57 mil árboles.

El compromiso medioambiental atrae a clientes e inversores

Pero es que las empresas comprometidas con el medioambiente no solo son socialmente responsables, sino también más atractivas. Tanto para los clientes, que optan cada vez más por organizaciones con propósito, como para los inversores: los fondos apuestan por ellas.

Respecto a la financiación sostenible, Telefónica fue pionera en el sector de las telecomunicaciones con el lanzamiento del primer bono verde del sector por 1.000 millones de euros y la semana pasada lanzaba el primer bono híbrido sostenible del sector por la misma cantidad.

El sello Eco Smart de Telefónica

El objetivo de Telefónica para 2025 es evitar la emisión de 5 millones de toneladas de CO2 en sus cuatro mercados principales. Dentro de esta estrategia de lucha contra el calentamiento global, la compañía ha lanzado también el sello Eco Smart, que identifica el impacto medioambiental positivo de sus soluciones.

Como apuntaba, la nube es verde. Los servicios en la nube que ofrece Telefónica utilizan servidores alojados en data centers que cumplen con elevados estándares de eficiencia energética. Esto permite que el cliente tenga el servicio con un menor consumo de recursos. Hay una reducción de la electricidad necesaria, lo que conlleva una importante disminución de emisiones de CO2. Se optimizan las necesidades de climatización, lo cual reduce la fuga a la atmósfera de gases refrigerantes, y también hay un uso más eficiente de equipos, lo que evita la extracción de materias primas de la naturaleza para su fabricación.

El partner ideal hacia la nube verde

Por su compromiso con el medioambiente, Telefónica Empresas es el partner ideal para que el trayecto hacia esa nube verde no se convierta en un camino de espinas. Es capaz de acompañar a las organizaciones durante todo el trayecto: desde la migración de cargas a la nube en modalidad Infraestructura como Servicio (IaaS) o Plataforma como Servicio (PaaS), la adopción de servicios nativos en la nube (SaaS) o la reingeniería de las aplicaciones empresariales para que sean más eficientes en cloud. Todo ello complementado con los servicios de consultoría, de comunicaciones de datos y de seguridad que brinda Telefónica.

Y si las migraciones a la nube reducen notablemente las emisiones de carbono en comparación con la infraestructura convencional, los datos son aún más llamativos para aquellas empresas nativas cloud o que apuestan por redefinir sus aplicaciones para que sean más eficientes en la nube. Ya veíamos el container first” como tendencia para este año.

Imagen: Kymberly Janisch

CNCF’s Harbor (cloud native registry) corrige una fuga de información descubierta por ElevenPaths (CVE-2020-29662)

Javier Provecho    10 febrero, 2021

El pasado 2 de diciembre, el equipo de CTO SRE de ElevenPaths descubrió una API sin acceso autenticado en Harbor, un registro cloud native parte de la CNCF. Es conocido por su uso como registro de Docker agnóstico y como servidor de charts de Helm en arquitecturas cloud native. En este artículo explicaré como reproducir esta vulnerabilidad así como el impacto que tiene en el software e información almacenada en Harbor.

La API v2 catalog es la afectada, la cual permite obtener una lista de todos los recursos disponibles en el registro. Solo puede ser accedida con una identidad de administrador.

Si la petición contiene una barra inclinada al final, sigue siendo gestionada por el proveedor de la API v2 catalog, pero saltándose la autorización.

Se detectó que el origen del bug estaba en el auth middleware, responsable de identificar los recursos a los que necesita acceder cada petición para posteriormente autorizarlos si corresponde. Este middleware se ejecuta antes de cualquier otro proveedor de APIs en beego, el router usado por el proyecto Harbor. Este router ejecuta por defecto el mismo proveedor de API para peticiones con o sin barra inclinada al final de la URL.

El auth middleware usa patrones regex para identificar los recursos a los que necesita acceder cada petición. En el caso de la API v2 catalog, el patrón no valía para identificar una petición con una barra inclinada al final de la URL. De este modo, el auth middleware no asignaba ningún recurso a la petición y por tanto la marcaba como autorizada.

El proyecto Harbor ha liberado parches para las versiones 2.0.* y 2.1.*. No obstante, si no fuese posible acceder a dichos parches, se puede redireccionar el proveedor de la API v2 catalog a un servidor vacío HTTP como alternativa.

Se recomienda encarecidamente aplicar los parches para evitar que agentes no identificados exploren las instancias visibles desde servicios como Shodan.

Cronología:

  • 02/12/2020. Vulnerabilidad descubierta y reportada a la lista de correo de Harbor para asuntos de seguridad.
  • 03/12/2020. Vulnerabilidad confirmada por el equipo de seguridad de Harbor.
  • 17/12/2020. Harbor libera los parches 2.0.5. y 2.1.2., mitigando la vulnerabilidad.

Un océano de datos en la era de la Inteligencia Artificial

Ismael Rihawi    10 febrero, 2021

En esta serie de dos artículos aspiramos dar respuesta a las incógnitas que rodean siempre al universo de los datos, en aras de corresponder con la célebre cita de ‘Los datos son la nueva ciencia. El Big Data son las respuestas‘ (Pat Gelsinger, exCEO de VMware/CEO de Intel, 2015).

Están por todas partes. Representan en la actualidad el eje central de cualquier conversación distendida de ámbito laboral y/o formativo; ya sea en reuniones de trabajo, cursos de especialización, workshops, conferencias o publicaciones divulgativas. Constituyen el principal estímulo de las soluciones digitales aupadas bajo la proclama de posibilitar la toma de decisiones Data-Driven. En el ejercicio de transformar digitalmente a las empresas y capacitar a los profesionales del futuro, los datos hacen viable el portfolio de propuestas de productos en multitud de sectores, propiciando lo intangible hasta el momento en conjunción con las nuevas vanguardias tecnológicas.

Siendo por tanto el motor que impulsa el conocimiento y su aplicabilidad en el contexto empresarial, es conveniente hacer frente a una serie de cuestiones clave que garanticen un correcto tratamiento y explotación: ¿Qué propició su diversidad? ¿Qué métodos de clasificación existen? ¿Cuál es el tratamiento que requieren según naturaleza de composición y uso? ¿Qué sistema de almacenamiento se recomienda para cada supuesto?

Principios que acreditan su relevancia

Figura 1: Clases de tipos de datos genéricos primitivos y compuestos
Figura 1: Clases de tipos de datos genéricos primitivos y compuestos

Los datos simbolizan la unidad mínima de información acerca de un hecho o elemento concreto, susceptible éste de la interpretabilidad humana y computacional como vía de adquisición cognitiva. Generados habitualmente por un agente externo a la infraestructura tecnológica, es a este componente al que se le atribuye la responsabilidad de aprovisionamiento, procesado y gestión de la información resultante para su consumo por parte de un usuario final. La deducción de su significado se establece en base a unos criterios de tipado que, elementales y de referencia, describen la representación, estructura, operaciones y rango de valores esperados en esa labor de conversión digital.

La agrupación de datos en torno a conjuntos organizados de manera sistemática para su clasificación y consulta recibe el nombre de bases de datos. Aún con un propósito original en su ideación, pueden adquirir nuevos enfoques de dimensionamiento y finalidad, confiriéndoles el estatus de principal vía de aprovisionamiento de las soluciones de Big Data e Inteligencia Artificial. ¿Qué otros tipos de fuentes de datos suelen considerarse significativas para alimentar nuestras aspiraciones de analítica avanzada?

Usuarios y sensores aupando la heterogeneidad de los datos

Figura 2: Ecosistema digital conformado por usuarios, servicios y cosas inteligentes generando valor en forma de datos
Figura 2: Ecosistema digital conformado por usuarios, servicios y cosas inteligentes generando valor en forma de datos

La tendencia emergente de nuevas plataformas proveedoras de información con fisionomía de red social, servicios Cloud y aplicaciones Mobile experimentada durante la segunda ola marcó un precedente en el volumen de generación de datos y tipología de los mismos. Un «muchos y muy variados» que ha visto acrecentar su cuenta en esta última etapa de irrupción del Internet de las Cosas, donde el incremento exponencial de dispositivos inteligentes interconectados proporcionan con autonomía datos relevantes del entorno operativo y quiénes conviven en él.

Dicho crecimiento propicia una mejora sustancial en el grado de personalización y refinamiento de las conclusiones analíticas que puedan extraerse, al disponer de un mayor contexto del ámbito y entidades implicadas en todo reto de negocio que se plantee.

Es por ello que, a las ya citadas bases de datos como enclave de información en el origen, debemos de contemplar adicionalmente los siguientes puntos de partida tradicionales y de nueva índole:

  • Empresas proveedoras de información y/o servicios que exponen a través de una interfaz de programación de aplicaciones (API) información relativa a sus operaciones en tiempo real.
  • Los sistemas de gestión empresarial (ERP), fuente de datos de excelente riqueza para evaluar puntos de riesgo y mejora en el ámbito de la operativa de una organización.
  • Los sistemas de gestión de las relaciones con los clientes (CRM), punto de unión del dossier de productos de las empresas y el grado de satisfacción de los actores que constituyen la principal fuente de ingresos.
  • Los sistemas de gestión de contenido (CMS), capturando toda interacción de los usuarios que operan por la plataforma, reconociendo nuevas oportunidades de negocios, posibles tipos de clientes potenciales, etc. 
  • Las redes sociales, que permiten medir las tendencias de fidelización de productos y servicios, definiendo perfiles de consumo, grupos de audiencia y diseño de productos específicos para estos. Aparte, resultan ser una fuente inagotable de datos que proveen información crucial sobre el mercado en el que se posicionan los negocios por sectores, con un desglose pormenorizado de competidores y vías de proyección.
  • Millones de datos recopilados de elementos de sensorización existentes en flotas de dispositivos de Internet of Things, que requieren de una infraestructura unificada de análisis integral para automatizar la toma de decisiones y actuación de considerarse necesario.

La elección e integración de una o varias de estas fuentes de datos citadas se verá condicionada al correcto permiso de acceso a los datos de precisarse acuerdos de alianzas (partnerships), una óptima estrategia global de captura programática de la información, así como un debido tratamiento de los datos de carácter sensible en base al Reglamento General de Protección de Datos (RGPD).

En el próximo artículo profundizaremos en las distintas clasificaciones de bases de datos existentes, describiendo ventajas e inconvenientes identificadas, citando las distribuciones más populares hasta la fecha, y estableciendo pautas según casuística a la hora de decantarnos por una tipología respecto a otra. Stay «Data» tuned!

Para mantenerte al día con LUCA, visita nuestra página web,  suscríbete a LUCA Data Speaks o síguenos en TwitterLinkedIn YouTube.

Cómo engañar a las apps que usan Deep Learning para la detección de melanomas

Franco Piergallini Guida    Carlos Ávila    9 febrero, 2021

Uno de los grandes logros del deep learning es la clasificación de imágenes por medio de las redes neuronales convolucionales. En el artículo “El Internet de la Salud” vemos un ejemplo claro donde esta tecnología, como la del proyecto -GoogleLeNet- de Google (que originalmente fue diseñado para interpretar imágenes para coches inteligentes o self-driving cars), es ahora utilizada en el campo de análisis de imágenes médicas para la detección de melanomas y cáncer en la piel.  

Realizando una simple búsqueda en las tiendas de aplicaciones móviles con este objetivo, encontramos algunas que, en base a una foto de una mancha o lunar de tu piel, predicen si es un melanoma malicioso o algo totalmente benigno. Como vimos en artículos anteriores, este tipo de algoritmos podría ser vulnerable a alteraciones en su comportamiento. A partir de la selección de algunas de estas aplicaciones, procedimos a realizar un ataque del tipo blackbox con el objetivo de generar estratégicamente ruido a una imagen de un melanoma para observar si es posible invertir la clasificación de las redes neuronales internas de las aplicaciones sobre las cuales no teníamos información. Es decir, en este escenario de investigación, no contábamos con acceso a las redes neuronales internas de las aplicaciones.

Metodología

Ante esta situación, uno de los caminos posibles era recrear nuestros propios modelos entrenados de la forma más intuitiva de encarar este tipo de problemática y generamos ataques para estos que, debido a la propiedad denominada transferibilidad, deberían funcionar en todas las aplicaciones que habíamos seleccionado. Pero encontramos un camino incluso más sencillo: para ahorrarnos el paso de entrenar una red neuronal dedicada a la detección de melanomas en imágenes, simplemente buscamos un proyecto open source que encarase esta problemática y tuviese una red neuronal ya entrenada y lista en Github.

La propiedad de transferibilidad fue descubierta por investigadores que encontraron que las muestras adversarias diseñadas específicamente para causar una clasificación errónea en un modelo, también pueden causar clasificaciones erróneas en otros modelos entrenados de forma independiente, incluso cuando los dos modelos están respaldados mediante algoritmos o infraestructuras claramente diferentes.

Para tratar verificar la teoría utilizando de manera “normal” una de las aplicaciones seleccionadas desde nuestro dispositivo o emulador (Android), procedimos a cargar nuestras imágenes de melanomas aleatoriamente seleccionadas de Google con el fin de ver sus resultados. Efectivamente, pudimos observar que las aplicaciones clasificaron con una alta confidencia como melanomas dichas imágenes, tal como lo vemos en la siguiente imagen:

Imagen 1: Clasificación de imágenes como Melanomas

A partir de ahí, procedimos a recrear un adversarial attack. Intuimos que en todas las aplicaciones victimas se utilizó un approach parecido al propuesto en el repositorio de Github. Por lo tanto, utilizando los pesos de la red neuronal provistas por el repositorio aplicamos la técnica Fast Sign Gradient Method (FSGM), que ya mencionamos en otro post al respecto, generando el “ruido blanco” necesario para engañar a las redes neuronales. Este ruido, casi imperceptible al ojo humano, está específicamente diseñado a partir de los pesos de la red neuronal para tener el mayor impacto a la hora de asignar las probabilidades de clasificación de las imágenes y cambiar totalmente el veredicto de predicción.

Y, efectivamente, la imagen cuidadosamente generada por medio de los pesos de las redes neuronales open source con el FSGM, tienen el impacto deseado en las aplicaciones víctimas destino. Observamos que, claramente, se cumple la propiedad de transferibilidad, ya que no tenemos idea de qué estructura interna ni pesos tienen las redes internas de las aplicaciones. Sin embargo, fuimos capaces de cambiar la predicción de imágenes en las cuales se mostraba un resultado con bastante certeza de que eran melanomas, simplemente añadiéndoles “ruido”.

Imagen 2: Melanomas analizados, pero con una reducción en la clasificación

Este tipo de ataque lo recreamos exitosamente en varias aplicaciones que encontramos en las tiendas de Google y Apple. En algunos casos, se comportaban de una forma similar y no exactamente igual, pero en el final de las pruebas siempre obtuvimos el mismo resultado. Engañar a la red neuronal en su predicción.

En la siguiente imagen mostramos los resultados de una misma imagen de melanoma subida a la misma aplicación, pero a la cual le fuimos aumentando el ruido hasta llegar al momento en el cual la red interna de la aplicación, cambia su predicción.

Imagen 3: Cambio de predicción a medida que se sube el ruido en la imagen

Cabe destacar, que cuando analizamos este tipo de aplicaciones, no solo encontramos potenciales vulnerabilidades relacionadas con las tecnologías de deep learning, sino que a su vez, podemos encontrarnos con las vulnerabilidades típicas como:

  • Inadecuada implementación Webview XSS
  • No aplicación de métodos de ofuscación
  • Conexiones inseguras hacia backends (HTTP)
  • Fuga de datos privados

Al fin y al cabo, son debilidades que ya conocemos y que aún muchas de ellas siguen sin ser corregidas en aplicaciones que manejan información tan delicada como los datos médicos.

Conclusiones

Según Gartner, para el 2022, el 30% de todos los ciberataques a la inteligencia artificial aprovechará el envenenamiento de datos de entrenamiento, el robo de modelos o adversarial attacks. Además, una investigación de Microsoft indica que 22 de 28 organizaciones de Fortune 500 no estarían preparadas con herramientas tácticas y estratégicas para proteger, detectar y responder a ataques en sus sistemas de Machine Learning.

Los hallazgos que hemos encontrado podrían representar una mezcla perfecta para que más adelante, cuando estén desplegadas más aplicaciones de este tipo y las interacciones con otros gadgets o plataformas médicas, se incremente el riesgo tanto a la seguridad de las plataformas y la privacidad de datos.