Siete medidas clave para que las empresas desarrollen sistemas éticos de IA
- Vídeos
Un 70% de los consumidores espera que las empresas ofrezcan experiencias de IA transparentes y justas, según un informe de Capgemini. Sólo el 53% de las organizaciones tiene un líder responsable de la ética de los sistemas de IA.
Recomendados: Inteligencia Artificial, ¿cómo lo aplico en mi empresa? Webinar La empresa impulsada por IA Leer |
La Inteligencia Artificial (IA) tiene la capacidad de transformar positivamente la sociedad y el medio ambiente, y para aprovechar todo su potencial, las organizaciones deben centrarse en abordar los desafíos éticos. Así lo indica el nuevo informe del Instituto de Investigación de Capgemini, AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust, que señala que un 62% de los consumidores cree que los negocios son completamente transparentes en el uso de sus datos personales en comparación con el 76% de 2019. El estudio también afirma que sólo el 53% de las empresas tiene un líder responsable de la ética de los sistemas de IA. Además, la gobernanza, la rendición de cuentas de la IA y el despliegue de herramientas y marcos pragmáticos para el desarrollo y uso de estos sistemas tiene un alto coste para las organizaciones.
El informe pone de relieve siete medidas clave para que las empresas desarrollen sistemas de IA éticamente firmes sostenidos sobre una base sólida de liderazgo, gobierno y prácticas internas:
• Definir de manera clara el propósito previsto de los sistemas de IA y evaluar su impacto potencial general.
• Implementar de forma proactiva la IA para el beneficio de la sociedad y el medioambiente.
• Integrar proactivamente principios de diversidad e inclusión a través de la vida útil de los sistemas de IA.
• Aumentar la transparencia con la ayuda de herramientas tecnológicas.
• Humanizar la experiencia de IA y garantizar la supervisión humana de sus sistemas.
• Garantizar la seguridad tecnológica de los sistemas de IA.
• Proteger la privacidad de las personas, capacitándolas y poniéndolas a cargo de las interacciones de IA.
"Dado su potencial, el uso ético de la IA debe garantizar que no se daña a las personas. Al mismo tiempo, debe estar respaldada por humanos que rindan cuentas y se hagan responsables cuando las cosas no funcionan como deben. Además, crea una oportunidad para perseguir el bienestar social y la mejora medioambiental", indica Anne-Laure Thieullent, responsable de Inteligencia Artificial y analítica de datos de Capgemini. "La IA es una tecnología de transformación con la capacidad de lograr avances de gran alcance en negocios, así como en la sociedad y el entorno. En vez de temer el impacto de estos sistemas en la sociedad y las personas, es posible dirigir activamente la IA para que se oponga a los prejuicios contra minorías e, incluso, corregir los prejuicios existentes en la sociedad actual. Esto significa que las organizaciones, gubernamentales o no, que cuentan con las capacidades de IA, grandes cantidades de datos y un propósito de trabajar para el bienestar social y medioambiental han de asumir una responsabilidad mayor para abordar estas cuestiones y beneficiar a las sociedades ahora y en el futuro, mientras respetan principios de transparencia y establecen reglas para la rendición de cuentas".
El documento resalta igualmente que, aunque las empresas están más sensibilizadas a nivel moral, la puesta en marcha de una inteligencia artifical ética no es uniforme. Por ejemplo, un 64% de los directivos señala que su negocio avanza en su capacidad de explicar el razonamiento de IA (frente al 32% en 2019), mientras que el número de directivos que ha tomado medidas para establecer dimensiones de “justicia” (65% en 2020 vs. 66% en 2019) y “auditabilidad” (45% en 2020 vs. 46% en 2019) en sus sistemas de IA no ha avanzado. Al mismo tiempo, la transparencia ha caído del 73% al 59%, a pesar del hecho de que el 58% de los negocios dice haber fomentado la concienciación entre su personal sobre problemas que pueden surgir del uso de IA. El texto también pone de manifiesto que el 70% de los consumidores busca una explicación más clara de los resultados, y espera de las compañías interacciones de IA transparentes y justas.
Los prejuicios de los sistemas de IA
Los informes indican que los conjuntos de datos recopilados para el sector sanitario y público están sometidos a sesgos sociales y culturales. Esto no se limita al sector público. El estudio de Capgemini llega a la conclusión de que el 65% de los directivos dice ser consciente del problema de las inclinaciones discriminatorias de los sistemas de IA. Es más, casi un 60% de las organizaciones ha sido estudiada jurídicamente y un 22% se ha enfrentado a reacciones negativas de sus clientes en los últimos dos o tres años, a raíz de decisiones tomadas por estos sistemas. De hecho, el 45% de los consumidores apunta que compartirá sus experiencias negativas con su familia y amistades y les desaconsejará cualquier relación con esas empresas; un 39% planteará sus preocupaciones y exigirá una explicación, y otro 39% cambiará el canal de IA por una interacción humana de mayor coste. Más de una cuarta parte de los consumidores (27%) declara que dejaría de tratar con la compañía en general.
Compromiso con las cuestiones éticas
Otro dato preocupante es el hecho de que sólo el 53% de las organizaciones cuente con un responsable de ética de IA. Es esencial que un alto directivo esté encargado de estas cuestiones para garantizar que se priorizan de la forma adecuada desde la alta dirección, y para crear sistemas de IA sólidos en el ámbito moral. Además, la responsabilidad de los resultados éticos de las aplicaciones de IA debe recaer sobre directivos tanto del área de tecnología como de negocio. Según el estudio, únicamente la mitad ha declarado tener una línea de atención confidencial o una figura de mediación que facilite a los consumidores y el personal el planteamiento de cuestiones éticas con los sistemas de IA.
El gobierno ético ya es un requisito
La necesidad de un código ético empresarial viene también impulsada por el aumento de marcos normativos. Por ejemplo, la Comisión Europea ha publicado unas directrices con principios éticos clave que deberían utilizarse en el diseño de aplicaciones de IA. Entretanto, las pautas formuladas por la Comisión Federal de Comercio de los EE. UU. (FTC) a principios de 2020 piden una IA transparente. Esta reclamación se apoya en que, cuando un sistema con funciones de IA toma una decisión desfavorable (como la denegación de un crédito a un cliente), la compañía debería mostrar a la persona afectada los datos clave utilizados para llegar a esa decisión, y otorgarle el derecho de modificar cualquier información errónea. Sin embargo, aunque el 73% de las empresas del mundo informaba a sus usuarios sobre cómo podían afectarles las decisiones de la IA en 2019, esta cifra se ha desplomado hasta el 59% en la actualidad.
De acuerdo con el informe, estas salvaguardas son muestra de las circunstancias actuales provocadas por la covid-19, así como de necesidades de la sociedad y del medio ambiente, la complejidad creciente de los modelos de IA y un cambio en el comportamiento de la población consumidora, todo lo cual ha alterado las funcionalidades de los algoritmos. Factores nuevos, como una preferencia por la seguridad, las compras al por mayor o una falta de datos pasados adecuados para formar a las inteligencias artificiales, han provocado el rediseño de los sistemas empresariales para adaptarse a la nueva normalidad, lo que se ha traducido en una menor transparencia.