La falta de regulaciones sobre la IA seguirá beneficiando a las grandes tecnológicas

  • Inteligencia Artificial

Muchos gobiernos están preparando regulaciones sobre el uso de la inteligencia artificial para los próximos años, con el fin de establecer controles sobre el tratamiento inteligente de los datos. Pero se corre el riesgo de que sean ineficaces si no se establece un criterio internacional unificado, lo que beneficiará a las grandes multinacionales tecnológicas, que podrán seguir impulsando leyes que les resulten ventajosas.

  Recomendados....

» El CIO estratégico vincula la optimización de costes a los resultados de negocio (Gartner) Informe
» Plataformas de comunicaciones empresariales bajo suscripción, ¿por qué? Documento
» Headless CMS, un abanico de oportunidades en los proyectos empresariales
Leer

La inteligencia artificial se ha convertido en una de las tecnologías más disruptivas y muchas empresas están desarrollando y utilizando software de IA para ampliar el alcance de la automatización. La IA tiene un gran potencial para acelerar todo tipo de procesos relacionados con los datos, pero también presenta numerosos riesgos derivados del tratamiento de la información, a causa del sesgo, el entrenamiento insuficiente o inadecuado y otros problemas.

Conscientes de estos riesgos, las autoridades de muchos países están preparando regulaciones sobre el uso de la inteligencia artificial que verán la luz a partir del año que viene. Con ello quieren establecer un mayor control sobre la forma en que la IA trabaja con la información confidencial, minimizando su posible impacto negativo.

Pero, como explican los investigadores de GlobalData, estas nuevas leyes podrían ser ineficaces si no se establece una visión unificada a nivel internacional. La diferencia de criterio entre los gobiernos beneficiará a las grandes corporaciones tecnológicas, interesadas en que las autoridades no ejerzan un control muy férreo sobre sus actividades relacionadas con la inteligencia artificial.

En Estados Unidos prima la visión de la industria tecnológica, mientras que en China la del gobierno, por su interés en controlar las actividades de la población, y la UE busca proteger más los derechos de los ciudadanos. Esta disparidad afecta a muchos aspectos de las regulaciones, que según los analistas de GlobalData no ofrecerán las mismas garantías de seguridad, privacidad, transparencia ni precisión, y las grandes tecnológicas tratarán de moldearlas a su favor, aduciendo que estas regulaciones pueden obstaculizar sus esfuerzos de innovación y ser más perjudiciales que beneficiosas.

En opinión de Martina Raveni, analista temática de GlobalData, “más gobiernos promulgarán regulaciones de IA que buscan estándares técnicos y éticos más altos, utilizando técnicas de aprendizaje automático (ML) que respaldan la privacidad de los datos y los derechos de acceso como el aprendizaje federado. A medida que se implementen más regulaciones de datos e inteligencia artificial a nivel mundial, los algoritmos serán objeto de un escrutinio cada vez mayor debido a las imprecisiones”. Pone como ejemplo el marco legislativo propuesto por la UE para reducir el sesgo algorítmico de la IA y crear un espacio digital más seguro.

Por otra parte, los desarrolladores de inteligencia artificial necesitarán esforzarse por crear una IA explicable (XIA), que permitirá a los usuarios y reguladores comprender mejor los procesos de toma de decisiones de esta tecnología. Esto permitirá recuperar la confianza en una tecnología que se utilizará en numerosos ámbitos de la sociedad y los negocios digitales.

Raveni dice que “las empresas invertirán más en prácticas XAI, como el aprendizaje automático automatizado (AutoML) y el entrenamiento de datos sintéticos, para automatizar tareas iterativas que consumen mucho tiempo y evitar problemas como los datos creados artificialmente. Del mismo modo, los programas de IA responsable (RAI), que abarcan el cumplimiento de la gobernanza y la explicabilidad, serán parte de la agenda ejecutiva de los principales adoptantes de IA”.