Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y de análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Obtener más información

Riesgos de implantar la inteligencia artificial en el sector público

  • Inteligencia Artificial

GMV Inteligencia Artificial

El avance de la IA en las organizaciones aportará numerosas ventajas operativas gracias a que aporta nuevos niveles de automatización, pero también conlleva riesgos, ya que sus decisiones tienen un impacto en las personas. Esto tendrá especial importancia en las administraciones públicas, que deben considerar más que nadie cuestiones clave como la transparencia, la precisión, la seguridad y la ética en el uso de la inteligencia artificial.

Las diferentes ramas de la inteligencia artificial están encontrando su lugar en diferentes ámbitos tecnológicos, tanto en las empresas como en las administraciones públicas. Estas tecnologías aportan una mayor inteligencia de negocio, acelerando la toma de decisiones, y permiten alcanzar una mayor automatización en todo tipo de procesos vinculados al ámbito digital. Según indican estudios recientes el retorno de las inversiones en IA está siendo desigual en función del entorno en que se aplique, pero ciertos sectores clave están registrando un ROI del 20% o más en sus despliegues de inteligencia artificial, lo que está siendo percibido con optimismo por las empresas que han desplegado iniciativas digitales basadas en la IA, y entre las que se lo están planteando.

Igual que en otras industrias, el sector público se está abriendo a la IA, con la idea de que puede proporcionar mejoras en la toma de decisiones, agilizar tareas administrativas, detectar posibles intentos de evasión fiscal o alertar ante situaciones de riesgo social, entre otras cosas. Y, además de mejorar la efectividad de la Administración, los expertos opinan que la IA podría ayudar a reducir los costes en diferentes ámbitos. Pero también alertan de que para evitar la problemática que puede generar un mal uso de la inteligencia artificial en relación a la ciudadanía, el gobierno debe prestar especial atención a una serie de factores de riesgo. Así opinan los analistas de la firma McKinsey, que identifican varios puntos calientes.

Por un lado, señalan que los algoritmos de inteligencia artificial aplicados a los datos confidenciales y a la interacción con los ciudadanos deben ser altamente precisos, de forma que no tengan sesgos (involuntarios) que puedan distorsionar las conclusiones extraídas mediante la IA. En este sentido, McKinsey afirma que se debe potenciar en uso de técnicas avanzadas de machine learning para incrementar la exactitud en la interpretación de los datos, y mejorar la eficiencia en la toma de decisiones, sin perjudicar a las personas.

En cuanto al sesgo que puede haber en la interpretación de los datos, los expertos indican que existen mecanismos que pueden reducir la introducción de factores discriminatorios, por ejemplo considerando diferentes a personas en base a su raza, edad, sexo, o nivel socioeconómico. En este sentido, apuntan a enfoques como el denominado “ceguera deliberada”, que permitiría evitar esta clase de distinciones, aunque hay otros conceptos que también ayudan a evitar la mala interpretación de la información por los sistemas automatizados.

Otro de los condicionantes para que las administraciones públicas puedan aprovechar las ventajas de la inteligencia artificial es la transparencia. El uso de esta tecnología debe ser explicable para la población, y responder a unas necesidades concretas, bien delimitadas, y que estén en conocimiento de la ciudadanía, para que haya una mayor aceptación. Uno de los ámbitos clave es el soporte para la toma de decisiones, y no la automatización de la misma. Y, para que las personas comprendan por qué la IA emite sus recomendaciones, el personal y los ciudadanos implicados deben conocer los mecanismos que llevan a estos sistemas inteligentes a indicar esas recomendaciones.

El informe de McKinsey también destaca que el uso de la IA en la administración pública debe responder a criterios de estabilidad, según los cuales los usuarios y los ciudadanos deben tener una percepción clara de cuándo es preciso hacer cambios en el sistema, de cómo estos pueden alterar el funcionamiento de los algoritmos, y de qué efectos pueden tener estos cambios en el propio sistema.

Para lograr todo esto, los expertos afirman que es fundamental mantener el control de todo el proceso de desarrollo e implementación de la inteligencia artificial desde las primeras fases. Así es posible controlar su funcionamiento en cada paso, evitando que la IA funcione de forma perjudicial para la administración y la sociedad, algo que podría tener consecuencias una vez que los sistemas alcancen capacidades operativas reales. Destacan especialmente que el despliegue de soluciones basadas en IA debe llevarse a cabo con cuidado y vigilando estrechamente a cada paso, teniendo en cuenta todos los factores implicados en el futuro trabajo de la inteligencia artificial.