De cloud híbrida al BI híbrido: el paso necesario hacia la inteligencia artificial

Guillermo Gavilán Montenegro    11 junio, 2019
bi-hibrido

Raymond Kurzweil, destacado científico, inventor y músico estadounidense, sitúa en torno a 2045 la denominada singularidad tecnológica, momento en el que la inteligencia artificial podrá desarrollarse a sí misma y entraremos en un periodo de la historia incierto en el que, por cierto, vivirán nuestros hijos. La Ley de Moore ya nos anticipaba que cada dos años se duplicaba el número de transistores en un microprocesador y según Kurzweil, cada año se duplica la capacidad, rendimiento económico y ancho de banda de las tecnologías de la información. En este post explicaré por qué BI híbrido es el paso necesario hacia la inteligencia artificial.

La inteligencia artificial se vislumbra ya como la quinta revolución industrial, aunque a lo largo de sus setenta años de historia, desde la publicación del test de Turing en 1950, ha sufrido diversos claroscuros en los que se alternaban décadas de altas expectativas y fuertes inversiones y etapas de desinversión y críticas. Al igual que la inteligencia humana, la inteligencia artificial necesita muchos datos, mucho entrenamiento y aprendizaje para tener éxito. En principio la inteligencia artificial no era escalable ni económicamente rentable hasta que la explosión de la tecnología big data nos ha permitido disponer de petabytes de datos a precios cada vez menores. No obstante, big data no es suficiente. Además de datos, es necesario disponer de tecnologías de analítica flexibles y económicas, con amplias comunidades de desarrollo que las respalden. Es aquí donde entra en juego  la cloud pública y el opensource, como veremos más adelante.

En los últimos cinco años, los sistemas internos de inteligencia de negocio de Telefónica España han multiplicado por 25 su capacidad de almacenamiento de datos, pasando de una arquitectura tradicional de datawarehouse cien por cien onpremise a otra en la que conviven los sistemas tradicionales con los sistemas más modernos de big data y fast data desplegados tanto en cloud públicas como onpremise. Se están cumpliendo bastante bien las predicciones de Moore o Kurzweil.

Pero este crecimiento exponencial de los datos sería completamente inútil si no viniera acompañado de nuevas tecnologías de modelado de datos y capacidades de computación que permitan procesar más y mejor la información. Y esta inagotable fuente de innovación llega fuertemente impulsada por los nuevos modelos de desarrollo software opensource. Tecnologías como Cassandra, HBase, MongoDB, Hive, Spark, Flink, Kafka, etc., así como por la “comoditización” de la infraestructura gracias a las nubes públicas y a tecnologías como Dockers y Kubernetes y la aparición de un gran ecosistema de desarrolladores y analistas han permitido la explosión de los datos, de manera rentable y de forma que aportan valor al negocio.

En resumen, los ingredientes necesarios para el desarrollo exitoso de las capacidades de la inteligencia artificial aplicadas en las empresas y en el día a día de nuestras vidas son: muchos datos, avanzadas capacidades de computación, modelado y algoritmia listas para ser usadas al momento y grandes comunidades de desarrolladores, científicos y analistas de datos.

El problema al que se enfrentan las compañías es que los datos en las organizaciones están a menudo dentro de sistemas legados y costosos de mantener y la innovación tecnológica queda lejos, en las nubes públicas. Subir unos pocos datos a la nube y hacer una prueba de concepto para desarrollar un modelo predictivo es muy sencillo pero industrializar el envío de datos a cloud de una manera escalable y operable es otra cuestión bien diferente y no siempre rentable (en la actualidad).

Hay que buscar ese equilibrio, ese punto medio que permita cuadrar el círculo, esa arquitectura que, con la rentabilidad siempre como guía espiritual, permita construir un camino ordenado y planificado hacia la inteligencia artificial. Y aquí entra en juego el concepto de BI (Business Intelligence) híbrido, que es una evolución del concepto de cloud híbrida. Se trata del mismo concepto pero pone foco en la estrategia de distribución del dato. El BI híbrido promueve aprovechar todo el potencial tecnológico y de innovación de las cloud públicas en un escenario de datos distribuidos onpremise y en la nube

A la hora de abordar un proyecto de cloud híbrida un error habitual suele ser prestar demasiada atención a la infraestructura: habilitar conectividades, mover “máquinas”, cargas de trabajo, etc. y perder un poco de vista la industrialización del movimiento de datos. Hablar de cloud híbrida es hablar de mover datos. Si no, no hay nada que hacer. Mover una web a la nube es pan comido. Mover un sistema de BI que bebe de cientos de fuentes es un proceso muy complejo. Es necesario, por tanto, hacer una planificación rigurosa y pensar en una arquitectura distribuida del dato, todo esto acompañado de un proceso bien articulado de gobierno del dato. Debe existir una arquitectura de replicación de datos con mecanismos de resincronización manual, con “búferes” para tener retención ante contingencias, no perder la transaccionalidad, garantizar la no duplicidad, etc. No existen varitas mágicas ni megaconsultoras avanzadas que puedan mover los datos de un sitio para otro. Hay que pensar en tener una arquitectura de intercambio de datos robusta y distribuida y un gobierno que decida y anteponga, atendiendo siempre las prioridades del negocio, qué datos se suben a la nube, cuáles se quedan, cómo se sincronizan, cómo se operan y cómo se gestionan los flujos del dato. El concepto de BI híbrida surge de añadir al conjunto de tecnologías que habilitan la cloud híbrida, capas tecnológicas adicionales y procesos orientadas al dato: una arquitectura del dato distribuida, una securización global extremo a extremo, unos procesos de supervisión y control de los flujos de réplica y un férreo gobierno del dato. Todo ello es lo que denominamos el BI híbrido.

Telefónica Empresas está desarrollando este concepto de BI híbrido, enfocado al dato de negocio y al dato técnico, apoyándose en sus capacidades de comunicación, sus servicios cloud para organizaciones y su expertise tecnológico. Lleva tiempo trabajando en crear los habilitadores tecnológicos, nuevos procesos, un modelo de gobierno e incluso las estructuras organizativas adecuadas para ir a una arquitectura del dato híbrida, que combine lo mejor de las capacidades onpremise con la innovación de las cloud públicas.

Determinados datos permanecen en los sistemas onpremise y se exponen hacia fuera a través de APIs securizadas para ser consumidas por nuevos desarrollos en nube y otra parte de los datos se sincroniza entre diferentes nubes mediante mecanismos de streaming. El paradigma de intercambio de información cliente-servidor basado en una programación predefinida en el que se ha basado la informática del siglo XX va a dar paso a un modelo de flujos de datos multidireccionales entre diferentes entornos, distribuidos entre dispositivos robotizados inteligentes, computación en el borde o edge y sistemas centrales, donde se entrenarán algoritmos para aprender el comportamiento de los sistemas.

Telefónica contempla un futuro en el que tendremos distribuido el dato, con una arquitectura flexible que no nos limite. El BI híbrido no es un destino, es solo el principio de un camino cuya meta está por descubrir… ¿Quizá será el pensamiento híbrido? Os dejo esta interesante charla de Ray Kurzweil para reflexionar sobre ello:

Imagen: Mike Mackenzie

Comentarios

  1. Muy interesante y didáctico post, me parece muy relevante tener el mantra de la rentabilidad siempre presente, donde se aplique inteligencia (artificial o no) para decidir qué datos pasan a la cloud pública y cuáles se mantienen en on premise. La tecnología siempre es un medio y no un fin.

    1. Muchas gracias Santi!! Como decía el Machado, el camino se hace al andar. Y como decía Bob Moog, padre de los sintetizadores: “I was never worried that synthesizers would replace musicians. First of all, you have to be a musician in order to make music with a synthesizer”

      La música hace al sintetizador y no al revés.

  2. La IA se suma ya, como factor diferencial y determinante, a las personas, aportado más valor a la empresa, mejorado su posición competitiva.
    Me parece muy acertado tu planteamiento de la traslación del concepto híbrido de Cloud al de BI. Y me atrevería a añadir el de Inteligencia Híbrida como complemento ideal de la inteligencia de las personas sumada a la de los algoritmos y las máquinas como también mencionas.

    1. Muchas gracias Ramón!! Como comentaba también a Jaime más arriba, puedes echar un vistazo a esta interesante charla de Ray Kurzweil sobre el pensamiento híbrido y la evolución del noecórtex. Un saludo.

  3. Interesante artículo, parece claro que un modelo híbrido es un paso imprescindible para cualquier gran empresa que quiera dar el salto definitivo hacia la Inteligencia Artificial por motivos de agilidad, eficiencia y costes.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *