Tendencias en analítica y tecnologías de datos

  • Actualidad

La analítica de datos y todas las tecnologías relacionadas están avanzando mucho en los últimos años, impulsadas por la digitalización de las organizaciones, que persiguen mejores formas de administrar y comprender la información. Su desarrollo es imparable y en los próximos cinco años se guiará por una serie de tendencias muy relacionadas con la inteligencia artificial y los nuevos servicios e infraestructuras digitales.

Aprovechar el potencial de la información para mejorar los negocios y los servicios a los clientes es uno de los grandes retos de nuestro tiempo, un desafío que está motivando el desarrollo de nuevas tecnologías de datos y herramientas de analítica cada vez más complejas. La creciente necesidad de extraer valor y conocimiento del dato está permitiendo a la industria tecnológica dar grandes pasos en los campos como la inteligencia artificial, el big data o la analítica en tiempo real, pero también está contribuyendo al desarrollo de las tecnologías que les dan vida, como el almacenamiento de estado sólido, la computación de alto rendimiento, los nuevos tejidos de red y toda una nueva generación de software imprescindible para la administración y la aceleración de los datos.

Las organizaciones se están planteando objetivos ambiciosos para cambiar sus modelos de trabajo y de negocio, con el fin de adaptarse de forma más dinámica a las cambiantes condiciones del mercado. Y para lograrlo se están apoyando en nuevas tecnologías que, en su mayor parte, persiguen una mayor comprensión de los datos y un mayor aprovechamiento del valor que encierran. Para ello es preciso mejorar en el campo de la analítica y en las diferentes tecnologías vinculadas a la información y, según los expertos de Gartner, en los próximos tres a cinco años los motores de esta industria serán una serie de tendencias, entre las que destacan la analítica aumentada y diversas ramas de la inteligencia artificial.

Como señaló Rita Sallam, vicepresidenta de investigación de Gartner, los líderes de datos y analítica deben asimilar el impacto que pueden tener en el negocio estas tendencias. Y asimilar este conocimiento para adaptar sus modelos de negocio y sus modelos operativos, porque las organizaciones que no lo hagan se encontrarán en una clara desventaja competitiva frente a las organizaciones que sí adopten estos avances. Concretamente, dijo que “La historia de datos y el análisis sigue evolucionando, desde el apoyo a la toma de decisiones internas hasta la inteligencia continua, los productos de información y el nombramiento de directores de datos. Es fundamental obtener una comprensión más profunda de las tendencias tecnológicas que alimentan esa historia en evolución y priorizarlas en función del valor empresarial”.

Por su parte, Donald Feinberg, vicepresidente y analista de Gartner, afirmó que dentro del propio desafío que impone la digitalización y el creciente volumen de datos en las organizaciones se encierran también numerosas oportunidades. Apostando por la analítica y apoyándose en la ayuda que proporcionan los servicios de datos en la nube las organizaciones pueden extraer un gran valor de la información que reciben constantemente. Señaló que las estrategias y arquitecturas centralizadas tradicionales fracasan estrepitosamente ante la complejidad, el volumen y la naturaleza distribuida de los datos. Porque es preciso trabajar con ellos a una velocidad superior, para lo que es fundamental aplicar inteligencia continua.

Con estas premisas en mente, los expertos de Gartner han elaborado una lista con las diez principales tendencias que dominarán las tecnologías de datos y la analítica durante los próximos cinco años, y que los líderes digitales en las organizaciones deberán tener en cuenta para mantenerse al día y mejorar la competitividad en el negocio.

RECOMENDADOS:

Tecnologías que dan al dato el protagonismo que merece (WEBINAR) 

Cinco retos de la innovación en cloud

Informe IT Trends 2019: La realidad digital de la empresa española

Mejores prácticas para implementar una plataforma ágil

Robo de credenciales: prioriza la seguridad de tus apps

Instalación de Redes WiFi y LAN en Hoteles

Analítica aumentada

En el campo de la analítica no basta con estudiar los datos adecuadamente, sino que también hay que administrar bien cómo se elaboran, consumen y comparten los resultados de los propios análisis. Esto es lo que se conoce como analítica aumentada, que supone una importante irrupción en este sector, y que se basa en un uso más intensivo del aprendizaje automático y otras técnicas de inteligencia artificial para ir más allá del mero análisis de información.

Los expertos afirman que para 2020 el análisis aumentado de datos se habrá convertido en el principal motor de compras del mercado de analítica e inteligencia de negocio. Y también del negocio de la ciencia de la información, las plataformas de Deep Learning y de la analítica integrada. Y, dado lo importante que es extraer conclusiones valiosas de la analítica de datos, y que estas lleguen a las personas adecuadas en la medida justa, los expertos recomiendan a los líderes digitales que adopten el análisis aumentado a medida que sus plataformas de analítica vayan madurando.

Gestión de datos aumentada

Como ocurre en el estudio de la información, la administración de datos puede potenciarse mucho empleando las tecnologías de inteligencia artificial, y cada vez más empresas están comprendiendo esto. Se trata de aprovechar el aprendizaje automático y los motores de inteligencia artificial para que las diferentes categorías de administración de la información empresarial se autoconfiguren y se ajusten automáticamente. Los expertos definen como principales categorías la calidad de los datos, la administración de metadatos, la administración de datos maestros, la integración de los datos y los sistemas de administración de base de datos (DBMS), pero hay otras que también se pueden incluir dentro del concepto de gestión aumentada de datos.

Mediante la automatización de estas áreas se eliminan muchas tareas manuales, permitiendo que usuarios con menos conocimientos y experiencia técnica puedan utilizar los datos de forma más autónoma. Al mismo tiempo, permite al personal técnico de más cualificación encargarse de tareas más importantes para el negocio, que generen más valor. Y, uno de los aspectos más importantes de implementar una gestión de datos aumentada es que los metadatos pasan de ser un activo pensado para la auditoría o la elaboración de informes a una información más dinámica, que se puede usar activamente para impulsar el resto de aplicaciones de inteligencia artificial y aprendizaje automático.

Esto potencia las capacidades de la inteligencia de negocio basada en IA y permite obtener un mayor retorno de las inversiones en estas tecnologías, gracias a que la información está mejor gestionada en todo momento. Las previsiones de Gartner son que para finales de 2022 las tareas manuales de gestión de datos se reducirán hasta el 45%, gracias a la adopción del aprendizaje automático y la gestión automatizada de nivel de servicio.

Inteligencia continua

La analítica en tiempo real es clave para agilizar la toma de decisiones de negocio, y para agilizar los servicios a los clientes. Esto está llevando a muchas empresas a adoptar lo que Gartner define como inteligencia continua, un patrón de diseño en el que la analítica a tiempo real se integra en las operaciones comerciales, procesando de forma simultánea datos históricos y actuales para recomendar acciones en respuesta a eventos. Estos sistemas proporcionan recomendaciones comerciales en tiempo real y son capaces de tomar decisiones de forma automática, agilizando muchos procesos de negocio con una intervención humana mínima o nula.

Esto se logra aprovechando diferentes tecnologías como el análisis aumentado, el procesamiento de flujo de eventos, la optimización, la gestión de reglas de negocio y el aprendizaje automático. Como comentó Rita Sallam, de Gartner, “La inteligencia continua representa un cambio importante en el trabajo del equipo de datos y analítica”. Y dijo que esta tecnología supone un gran desafío para los equipos de analítica y Business Intelligence, pero también una gran oportunidad de ayudar a tomar decisiones de negocio más inteligentes en tiempo real. Y considera que es la tecnología más revolucionaria en cuanto a la inteligencia de negocio operacional, que vivirá un importante auge a partir de este año.

Inteligencia artificial explicable

A medida que crece el uso de la inteligencia artificial para reemplazar la toma de decisiones humanas en ciertas áreas de negocio, los responsables de introducir esta innovación en las empresas se ven en la necesidad de justificar de dónde provienen estas decisiones y cómo están diseñados los algoritmos. Para generar confianza entre los usuarios y los directivos de la organización necesitan hacer que los modelos de analítica y toma de decisiones automáticos sean más fáciles de interpretar y explicar, lo que supone un importante reto y una obligación en determinados escenarios.

Pero la mayoría de modelos de inteligencia artificial avanzada tienen un funcionamiento interno muy opaco y no son capaces de explicar el proceso que siguen para la emisión de recomendaciones o la toma de decisiones, algo que queda en manos de los técnicos que programan sus algoritmos.

Frente a esta opacidad, la conocida como Inteligencia Artificial Explicable que se emplea en ciertas plataformas de ciencia de datos y aprendizaje automático es capaz de generar automáticamente una explicación detallada del modelo que ha seguido para la toma de decisiones, que incluye la precisión, los atributos, las estadísticas del modelo y las características en un lenguaje comprensible.

Esto tiene una gran importancia cuando se trata de inteligencia artificial aplicada a campos como Business Intelligence, ya que los responsables de TI y los directivos pueden entender mejor cómo trabaja la IA en beneficio de la organización, pudiendo identificar importantes riesgos como el sesgo en el análisis de datos. Por ello los expertos opinan que en los próximos años se verá un crecimiento del mercado de este tipo de herramientas de inteligencia artificial.

Graph Analytics

Esta tecnología abarca una serie de técnicas de analítica que permite comprender las relaciones que se establecen entre personas, organizaciones y diferentes tipos de transacciones, entendiendo los datos como algo que va más allá de la información encerrada dentro de un único ámbito, organización o silo de datos. Gracias a Graph Analytics es posible modelar, explorar y consultar información de los repositorios de datos gráficos de forma eficiente, empleando complejas interrelaciones entre los diferentes silos de datos que se relacionan entre sí.

Gartner afirma que el uso del procesamiento de gráficos y los BDSM gráficos crecerá un 100% anual hasta 2022, lo que dará como resultado una ciencia de datos más compleja, adaptable e integral, capaz de extraer conclusiones más amplias, basadas en fuentes de datos interrelacionadas. Los expertos también señalan que hasta ahora esta tecnología se ha enfrentado a una barrera importante por la falta de técnicos capacitados para trabajar con ella, lo que ha limitado mucho su adopción.

Pero esperan que en los próximos años aumente significativamente su uso debido a que las organizaciones tienen necesidad de hacer preguntas cada vez más complejas, basadas en datos igualmente complejos, algo que cada vez es más difícil e, incluso, imposible de realizar a gran escala mediante consultas SQL.

Tejidos de datos

Gran parte de los datos con que trabajan las organizaciones se suben a la nube o provienen de ella, y los clientes, usuarios y trabajadores generan cada vez más información fuera de la estructura interna de la empresa, lo que da como resultado estructuras de almacenamiento y tratamiento de la información cada vez más distribuidas. En lo que se refiere a la analítica, esto complica las cosas para que las herramientas de análisis puedan acceder a los datos al ritmo necesario para entregar conclusiones y recomendaciones, sobre todo si es a tiempo real.

Para salvar estas distancias se están desarrollando nuevos tejidos de red, capaces de interconectar los diferentes repositorios y fuentes de información sin fricciones, y con el rendimiento adecuado. Además, el concepto de data fabric contempla el uso de plataformas de administración unificadas, que permiten el acceso a los datos y el procesamiento sin interrupciones a través de toda la infraestructura de la organización.

Pero la tarea es monumental y, por ahora, Gartner cree que desde ahora hasta 2022 los diseños de tejidos de red a medida se implementarán principalmente como una infraestructura estática. Esto obligará a las organizaciones a invertir posteriormente en el rediseño de tejidos de datos más dinámicos, que admitan más flexibilidad a la hora de incorporar con eficiencia nuevas fuentes de información.

Analítica conversacional

El procesamiento de lenguaje natural está proporcionando nuevas posibilidades en diferentes ámbitos de la tecnología, especialmente cuando se asocia a diferentes ramas de la inteligencia artificial. Ejemplos de ello se pueden ver en las nuevas tecnologías empleadas en la atención al cliente, como los chats conversacionales, pero no son los únicos.

Por ejemplo, en el campo de la analítica de datos hay un lugar importante para la tecnología NLP, materializada en lo que se conoce como analítica conversacional, que permite realizar las consultas de analítica mediante órdenes de voz. Según los analistas de Gartner, para el año 2020 la mitad de estas consultas se generarán a través de búsqueda, procesamiento de lenguaje natural o voz, o se generarán automáticamente.

Este avance en la adopción de la analítica conversacional se deberá a la creciente necesidad de analizar combinaciones complejas de datos y que la analítica sea más accesible para todos los miembros de las organizaciones, que se realizará mediante herramientas de búsqueda o asistentes virtuales con capacidades de reconocimiento de la voz.

Inteligencia artificial y machine learning comercial

A pesar de que los impulsores del código abierto están trabajando en el campo de la analítica, Gartner pronostica que para 2022 el 75% de las nuevas soluciones de analítica para usuarios finales que emplean técnicas de IA y ML estarán construidas como soluciones comerciales, en lugar de basarse en código abierto. Aunque los proveedores de productos comerciales están abiertos a la interconexión con el ecosistema de analítica de código abierto, proporcionando las características que demandan las empresas para escalar y democratizar la inteligencia artificial y el desarrollo empresarial. Por ejemplo, en la gestión de proyectos y modelos, la reutilización, la transparencia, el linaje de los datos y la cohesión e integración de plataformas con capacidades que no están presentes en las herramientas de código abierto.

Blockchain

La contabilidad distribuida y las cadenas de bloques aportan una mayor confiabilidad al ecosistema de la analítica, cuando se trata de manejar datos de fuentes potencialmente no confiables. Mediante blockchain y las tecnologías DLT se pueden concebir nuevos casos de uso para la analítica de datos de fuentes distantes pero interrelacionadas, manteniendo la seguridad y privacidad de la información.

Pero estas tecnologías todavía se encuentran en un estado incipiente en el campo de la analítica de datos, y los expertos afirman que pasarán varios años antes de que cuatro o cinco tecnologías de blockchain se conviertan en dominantes en este ámbito. Mientras tanto, los usuarios que quieran usar cadenas de bloques o DLT para este tipo de comunicaciones tendrán que emplear las tecnologías y estándares existentes, integrándolas con su infraestructura de datos y analítica.

Pero los costes de esta integración pueden superar los beneficios potenciales, y hasta que se establezcan tecnologías dedicadas a este sector no alcanzarán una adopción significativa. Porque las cadenas de bloques constituyen una fuente de datos más, no una base de datos, y por lo tanto no sustituirán a los sistemas de administración de datos actuales.

Servidores de memoria persistente

La analítica de datos, sobre todo la que se usa para sacar conclusiones en tiempo real, tiene unos requisitos técnicos muy elevados, y para que funcione con la suficiente velocidad no sirve cualquier infraestructura informática. En los últimos dos años se han lanzado plataformas de computación pensadas específicamente para estos usos, pero su coste es muy elevado. Pero los expertos confían en que la proliferación de los nuevos formatos de memoria persistente contribuirá a reducir los costos de esta tecnología, impulsando su adopción a partir de este año.

Por ahora, los servidores dedicados a la analítica avanzada se basan en la memoria de trabajo DRAM y en almacenamiento de estado sólido NAND Flash, pero ya existen nuevos tipos de memoria persistente que actúan como puente entre estas memorias, y que incluso pueden sustituirlas, elevando el rendimiento general del sistema para acelerar las cargas de trabajo de analítica en tiempo real.

Con el previsible aumento de precio de DRAM y NAND que llegará a partir de 2020 este tipo de memorias encontrarán cada vez más clientes en el ámbito de la infraestructura TI para analítica de datos. Con estas tecnologías será posible mejorar el rendimiento de las aplicaciones, la disponibilidad de la información, los tiempos de arranque, la agrupación de clústeres de datos y la seguridad, manteniendo un buen control del coste. En palabras de Donald Feinberg, “La cantidad de datos está creciendo rápidamente y la urgencia de transformar los datos en valor en tiempo real está creciendo a un ritmo igualmente rápido. Las nuevas cargas de trabajo del servidor exigen no solo un rendimiento más rápido de la CPU, sino también una memoria masiva y un almacenamiento más rápido”.

Por ello, al margen de la buena o mala salud del mercado de memoria, las organizaciones incrementarán la adopción de plataformas de computación de alto rendimiento basadas en las nuevas memorias persistentes para acelerar las cargas de trabajo de analítica e inteligencia artificial. Hasta el punto de que se generarán nuevas categorías de equipos diseñados especialmente para este trabajo, independientes de los servidores dedicados a otras tareas dentro de la organización. Y entre los clientes potenciales más importantes de este segmento también se encuentran los proveedores cloud, que ofrecen sus propios servicios de analítica basados en la nube.

TAGS Tendencias