El desarrollo de una IA Responsable está siendo más lento de lo previsto

  • Inteligencia Artificial

inteligencia artificial IA

Las iniciativas que pretenden crear una Inteligencia Artificial Responsable están progresando, pero menos de lo que afirman las organizaciones implicadas. Según los expertos, más de la mitad sobreestima sus capacidades en este campo y el progreso de sus proyectos, y afirman que todavía queda mucho camino por recorrer hasta lograr una IA que siga unas normas éticas respetuosas con las personas y sus derechos.

Recomendados: 

IT Trends 2021. La TI salva el negocio Webinar

COVID-19, ¿cuánto y cómo ha influido en las estrategias de TI? Leer

Cómo abordar la complejidad de un programa de Gestión de Identidades y Gobernanza Leer 

En el futuro la inteligencia artificial se hará cargo de gran cantidad de procesos que impactarán en la vida de las personas, por lo que los expertos están cada vez más preocupados por la forma en que la IA interpreta los datos de que se alimenta y por las normas que rigen su toma de decisiones. Evitar el sesgo es un gran reto, y para lograrlo se están buscando formas de desarrollar lo que se conoce como una Inteligencia Artificial Responsable (RAI), que se pueda usar con seguridad y equidad en el mundo real, sin perjudicar a los humanos por cuestiones de privacidad o discriminación entre otras.

Muchas organizaciones están trabajando en el desarrollo de una IA Responsable, pero según una reciente investigación de BCG GAMMA, la unidad de analítica avanzada e inteligencia artificial de Boston Consulting Group, su éxito es menor de lo que se piensa. Según sus investigadores, el 55% de las empresas dedicadas a la IA Responsable sobreestiman la madurez de sus iniciativas RAI. Y menos de la mitad de los que creen haber completado sus programas con éxito tenido éxito los han implementado completamente. Esto pone en duda las previsiones optimistas sobre el desarrollo de una IA explicable, basada en el ética.

En este estudio han analizado los datos proporcionados por los directivos de más de 1.000 empresas, y los expertos de BCG explican que las organizaciones involucradas en el desarrollo de una IA Responsable se encuentran en cuatro etapas de madurez diferentes. Estas son: rezagadas, categoría que engloba al 14% de las iniciativas actuales, en desarrollo (34%), avanzada (31%) y líder (21%). Su clasificación se ha determinado en base a su progreso en siete aspectos diferentes, que incluyan la justicia y equidad, la gobernanza de los datos y la privacidad, y la IA humana.

Según explica uno de los autores de este estudio, Steven Mills, director de ética de BCG GAMMA, “los resultados fueron sorprendentes, ya que muchas empresas son demasiado optimistas sobre la madurez de su implementación de la IA responsable. Aunque muchas organizaciones están haciendo progresos, está claro que la profundidad y la amplitud de la mayoría de los esfuerzos están por debajo de lo que se necesita para garantizar realmente una IA responsable”.

Uno de los aspectos interesantes que revela este estudio es que, aunque los directivos de las empresas están preocupados por los riesgos que tienen los posibles fallos en los sistemas de IA, su objetivo de lograr una IA Responsable responde también a la necesidad de generar mayor valor, no solo al de mitigar estos riesgos. En este sentido, Sylvain Duranton, líder global de BCG GAMMA, explica que “cada vez más, las organizaciones más inteligentes con las que estoy hablando se están moviendo más allá del riesgo para centrarse en los importantes beneficios empresariales de la RAI, incluyendo la diferenciación de la marca, el atractivo como empleador y la retención de los empleados, y una cultura de innovación responsable, que está respaldada por el propósito y los valores corporativos”.

Otros datos a considerar en esta investigación son que los programas de RAI se encuentran menos desarrollados en tres áreas principales, que son justicia y equidad, mitigación del impacto social y medioambiental, e Inteligencia Artificial humana. Además, el estudio revela que la mayoría de las organizaciones que han entrado en la etapa de madurez en sus iniciativas cuentan con una persona y un comité que guía su estrategia de RAI.

Por otro lado, el país de procedencia de la organización influye más en la madurez de su proyecto que el sector en el que opera. Y también la región, destacando la mayor madurez de las iniciativas en Europa y Norteamérica. Y, a nivel sectorial, el enfoque y el propósito del desarrollo de la IA varía, ya que los organismos públicos que quieren una IA Responsable priman menos los beneficios empresariales, a diferencia de las organizaciones del sector industrial o las finanzas.

Llorenç Mitjavila, socio responsable de BCG GAMMA en Iberia, concluye este informe diciendo que “debemos abordar la inteligencia artificial no sólo desde la perspectiva tecnológica sino con un enfoque holístico que contemple el impacto de sus aplicaciones y ponga a los individuos y sus derechos en el centro con el objetivo de construir entre todos una IA transparente y explicable”.