Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y de análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Obtener más información

La TI perimetral consumirá más chipsets de IA que las infraestructuras en la nube

  • Inteligencia Artificial

Intel_Computacion_Neuromorfica_2

En los próximos años la inteligencia artificial va a expandirse del centro hacia el borde de la infraestructura, proporcionando servicios de nueva generación más cerca del usuario final. Esto hará que las tecnologías para la IA sean cada vez más importantes en la TI perimetral, y los expertos creen que para 2025 estos entornos generarán más ingresos por la adquisición de chipsets de IA que la infraestructura destinada a la nube.

La idea de una inteligencia artificial centralizada está dando paso al concepto de inteligencia distribuida, que se basa en situar la IA en los lugares donde se utiliza para que trabaje de forma más o menos independiente, en lugar de depender de unas instalaciones centrales. Esto significa construir infraestructuras en el borde con capacidades inteligentes de diferente nivel, que pueden ser desde centros de datos Edge independientes, capaces de soportar aplicaciones de IA a nivel local, a vastas redes de infraestructuras y dispositivos con capacidades de IA.

Para los expertos está claro que este es el futuro de la informática para la inteligencia artificial, en muchos casos y, aunque las arquitecturas de inteligencia artificial tradicionales y las basadas en los proveedores de la nube no van a desaparecer, sí van a perder peso en lo que se refiere a las tecnologías que les dan vida. Un ejemplo es el mercado de chipsets de IA, que según los analistas de ABI Research, para el año 2025 obtendrá unos ingresos de 12.200 millones de dólares provenientes de las aplicaciones de IA en el borde, superando finalmente a la TI para la nube (11.900 millones).

En su opinión, esto se deberá a varios factores, como es el creciente enfoque hacia las aplicaciones de baja latencia, la privacidad de los datos y la disponibilidad de capacidades de IA de bajo costo y ultra alta eficiencia, que dirige el camino hacia la computación Edge. Aunque, por el momento, la nube sigue siendo el nodo central de las aplicaciones de inteligencia artificial, ya que la mayoría de cargas de trabajo de IA se ejecutan en entornos de nube pública o privada.

Tradicionalmente, esto ha proporcionado flexibilidad y escalabilidad a los clientes, pero como explican los expertos, se ha producido un cambio de paradigma ante las necesidades de tener una IA más rápida, con menos latencia y por la obligación de garantizar la privacidad y la ciberseguridad, algo que se puede lograr más fácilmente y a menor coste en las instalaciones Edge. Y esta transición también tiene mucho que ver con la aparición de los nuevos modelos de entrenamiento de IA, las cargas de trabajo de inferencia en puertas de enlace, dispositivos y sensores, que se sirven de una nueva generación de chipsets de IA más eficientes, potentes y fiables.

Como explica Lian Jye Su, analista principal de ABI Research, “a medida que las empresas comienzan a buscar soluciones de inteligencia artificial en las áreas de reconocimiento de imágenes y objetos, manejo autónomo de materiales, mantenimiento predictivo e interfaz hombre-máquina para dispositivos finales, deben resolver las preocupaciones relacionadas con la privacidad de los datos, la eficiencia energética, la baja latencia y fuerte rendimiento informático en el dispositivo”.

Además, afirma que el concepto de IA en el borde será la respuesta a estas necesidades, porque, “al integrar un chipset de IA diseñado para realizar inferencia de alta velocidad y aprendizaje federado cuantificado o modelos de aprendizaje colaborativo, Edge AI lleva la automatización y el aumento de tareas a niveles de dispositivo y sensor en varios sectores. Tanto que crecerá y superará el mercado de chips de inteligencia artificial en la nube en 2025”.