Computación en memoria para las aplicaciones de nueva generación

  • Infraestructura

Big Data

El progreso de la inteligencia artificial, el big data y otras aplicaciones emergentes que trabajan con grandes volúmenes de datos requiere nuevas tecnologías capaces de garantizar un rendimiento adecuado. Entre las innovaciones más interesantes está la computación en memoria, que acelera los procesos al almacenar datos en la memoria RAM, y que en la próxima década va a convertirse en una parte fundamental de las infraestructuras de computación más potentes.

Recomendados: 

Cómo abordar la complejidad de un programa de Gestión de Identidades y Gobernanza Leer 

Gestión de identidades en la Educación Superior Leer 

La inteligencia artificial, la analítica en tiempo real o el big data son aplicaciones que requieren grandes cantidades de datos, que provienen de fuentes variadas, que cada vez están más diversificadas. En muchos casos, el acceso a estos datos no es lo suficientemente rápido, lo que baja el rendimiento general de estas aplicaciones. Esta diversificación será aún mayor en el futuro, y la industria está trabajando en nuevas arquitecturas y tecnologías que permitan aprovechar al máximo las capacidades más avanzadas de estas aplicaciones, en un mundo cada vez más globalizado y exigente en materia digital.

Una de las innovaciones que promete un gran margen de mejora es la memoria computacional, un concepto que se basa en almacenar parte de los datos en la memoria RAM de las computadoras, en vez de tener todos los datos en las plataformas de almacenamiento. Estas pueden estar alejadas de los servidores o tener sistemas de almacenamiento heredados de bajo rendimiento, y la memoria computacional permite trasladar datos críticos a la RAM, a los que se puede acceder de forma más rápida para alimentar estas aplicaciones, o simplemente para elaborar informes al momento.

Los expertos están convencidos de que la computación en memoria va a progresar rápidamente en la próxima década, impulsada por varios factores principales. Como explican en el último estudio elaborado por la firma Transparency Market Research, los más importantes serán la creciente demanda de acelerar el procesamiento y el análisis de big data, y la necesidad de reducir el coste de la RAM y el TCO general. Esto se ve apoyado por el gran aumento de servicios de Internet, banca móvil y otros avances que generan una demanda cada vez mayor de procesamiento de big data.

Y, al llegar el coronavirus estos factores han ganado aún más fuerza, debido a la rápida digitalización que se está viviendo en nuevas verticales que anteriormente estaban acometiendo la transformación digital a un ritmo muy lento. Así, en los próximos años se espera que el mercado de computación en memoria se beneficie del gran impulso de la informática en los sectores BFSI, TI y telecomunicaciones, comercio minorista y electrónico, salud y ciencias de la vida, transporte y logística, gobierno y defensa, energía y servicios públicos, medios y entretenimiento y la industria manufacturera.

Esto está impulsando el negocio para los principales proveedores de computación en memoria, que son Microsoft, Oracle, SAP, IBM y SAS Institute, que se están enfocando en desarrollar modelos de negocio que les permitan capitalizar el crecimiento de la demanda. La principal región por ahora seguirá siendo Norteamérica, seguida por Asia Pacífico y Europa, posiciones que probablemente se mantendrán en la próxima década, aunque Asia Pacífico probablemente gane participación en este tiempo.