El mercado de chipsets para la IA en el borde comienza a recuperarse
- Inteligencia Artificial
Durante el año pasado la pandemia ralentizó las ventas de chipsets destinados a las infraestructuras de computación perimetral para la inteligencia artificial, pero el mercado está volviendo a una tendencia de crecimiento. Según las últimas previsiones, las ventas van a crecer a una CAGR del 28,4% entre 2021 y 2026, para cuando se alcanzarían unos ingresos de 28.000 millones de dólares.
Recomendados: IT Trends 2021. Asimilando la aceleración digital Leer Por qué las plataformas de edge cloud complementan el enfoque multi-cloud Leer |
Mientras que los chipsets para la inteligencia artificial en grandes infraestructuras de la nube han crecido a una tasa interanual del 68% en 2020, el mercado de chipsets para IA en el borde se ha visto afectado por la crisis y solo ha aumentado un 1%, ya que las empresas han preferido contener el gasto. En ese tiempo se contrajo mucho la demanda de componentes y se paralizaron muchos despliegues, pero este año las cosas están cambiando, y los expertos prevén que comenzará un nuevo ciclo de crecimiento que durará, al menos, otros cinco años.
Según las estimaciones publicadas por la firma de investigación ABI Research, el mercado de chipsets de IA en el borde va a recuperarse con fuerza, creciendo a una CAGR del 28,4% entre 2021 y 2026. Para entonces, los ingresos mundiales de este segmento podrían alcanzar unos 28.000 millones de dólares, consolidando un mercado que tiene mucho futuro, gracias a la tendencia hacia la computación perimetral y las aplicaciones de inteligencia artificial en el borde.
Lian Jye Su, analista principal de ABI Research, comenta que “la demanda de IA en el borde no desaparecerá pronto. Los dispositivos Edge AI pueden procesar datos en bruto localmente, lo que reduce la dependencia de la conectividad constante en la nube. Los consumidores aprecian la experiencia de usuario mejorada que ofrece la baja latencia y la privacidad de los datos. Al mismo tiempo, cada vez más empresas buscan formas de dar sentido a los activos de datos de alto valor. Reconocen la importancia de la inteligencia artificial de vanguardia en aplicaciones clave, como el mantenimiento predictivo, la inspección de defectos y la vigilancia”.
Explica que muchas empresas están tratando de anticiparse a la creciente necesidad de potencia de computación Edge enfocada a la IA, entre ellas los grandes proveedores de la nube, que están lanzando soluciones de hardware y software para abordar este mercado en crecimiento. Además, están formando alianzas y asociaciones industriales para fomentar el desarrollo y la implementación de la inteligencia artificial perimetral. Esto está contribuyendo a reforzar el sector, estimulando la inversión en nuevas empresas especializadas en este campo, que en los próximos años recibirán mucho apoyo, especialmente en industrias como la automovilística.
Además, están surgiendo nuevas formas de sacar partido al concepto de IA en el borde, como el denominado Tiny Machine Learning (TinyML), que consiste en integrar pequeños modelos de aprendizaje automático en dispositivos de ultrabajo consumo. Esto permite a los sensores inteligentes conectados y a los dispositivos IoT tomar decisiones y actuar en base a los datos que reciben, por ejemplo, de temperatura, sonido, presión atmosférica, vibraciones y otros tipos de mediciones que se emplean en la industria, la automoción, las telecomunicaciones, el estudio del clima, las Smart Cities y muchos otros entornos que están surgiendo a raíz de la digitalización y la expansión de IoT.
Mientras tanto, también está creciendo el ecosistema de desarrolladores de software y plataformas enfocadas a la inteligencia artificial en el borde, algo que continuará en el futuro. Su explica que “estos proveedores ofrecen plataformas de operación de aprendizaje automático en el borde (MLOps) que facilitan todo el proceso de desarrollo e implementación, desde la recopilación y el procesamiento de datos hasta la capacitación, optimización y monitorización de modelos”.
Añade que “muchos introducen técnicas avanzadas de compresión y cuantificación de modelos de aprendizaje automático que permiten que los grandes modelos de aprendizaje profundo se reduzcan en tamaño, a la vez que mantienen su precisión y rendimiento. Esto libera los modelos de aprendizaje automático de los dispositivos ricos en recursos, ya que ahora se pueden implementar en una amplia gama de aparatos”.