La UE quiere liderar el desarrollo de estándares globales para la IA
- Inteligencia Artificial
Un informe publicado por la el Parlamento Europeo señala que el futuro de la inteligencia artificial está en complementar a los humanos, y su desarrollo debería guiarse por estándares éticos y valores democráticos. Aunque sus autores reconocen que la UE se ha quedado atrás en la carrera por el liderazgo tecnológico, creen que debería tomar parte en las regulaciones sobre el uso de la IA, para evitar que partes interesadas guíen el proceso siguiendo otros criterios.
El pasado 22 de marzo el comité especial del Parlamento Europeo sobre inteligencia artificial publicó una serie de recomendaciones sobre el desarrollo de la inteligencia artificial, tras 18 meses de investigación. En su informe señala que el debate público sobre el uso de la IA debe centrarse en el gran potencial de esta tecnología para complementar a los humanos. Según su visión, es fundamental que se establezcan estándares claros para que la inteligencia artificial evolucione en base a unos parámetros éticos y a los valores democráticos que promueve la Unión.
Según su percepción, la UE se ha quedado atrás en la carrera mundial por el liderazgo tecnológico, pero debe asumir un papel principal en el establecimiento de los estándares globales que regularán el diseño y la utilización de la inteligencia artificial. En caso contrario, cabe la posibilidad de que estos estándares se desarrollen siguiendo criterios que no tengan en cuenta a las personas.
En su documento, los eurodiputados que forman parte de este comité han señalado las opciones políticas que podrían desbloquear el potencial de la IA para mejorar la productividad laboral, potenciar la innovación, el crecimiento sostenible y la creación de empleo en áreas como la salud, el medio ambiente y la lucha contra el hambre.
Axel Voss, miembro del comité, dice que “la UE ahora tiene la oportunidad única de promover un enfoque de IA confiable y centrado en el ser humano, basado en los derechos fundamentales que gestiona los riesgos y aprovecha al máximo los beneficios que la IA puede brindar a toda la sociedad”. Y afirma que es necesario crear un marco legal que deje margen para la innovación y para crear un mercado digital único guiado por unos estándares claros. Por ello, dice que “necesitamos la máxima inversión y una infraestructura digital robusta y sostenible a la que todos los ciudadanos puedan acceder”.
Entre sus sugerencias está que la UE no siempre debe regular la IA como una tecnología, sino que se deben tener en cuenta otros factores, como el riesgo que genera para las personas si no se utiliza adecuadamente. Por ello se han planteado como objetivo establecer una hoja de ruta para el desarrollo de regulaciones para la IA en la Unión Europea de cara a 2030. Y hacen hincapié en las cuestiones éticas y legales que se deberían abordar de cara al futuro, así como en la necesidad de alcanzar un consenso sobre el uso responsable de la inteligencia artificial en ámbitos como la investigación militar en sistemas de armas autónomos.
Y también plantean los peligros de un mal uso de la IA para labores de vigilancia, que podrían poner en riesgo la privacidad y la protección de datos de las personas. La UE ya se ha convertido en un ejemplo a nivel mundial en estos temas, con regulaciones como GDPR, que otros países están tratando de emular. Mientras tanto, los regímenes autoritarios están utilizando esta tecnología para llevar a cabo una vigilancia masiva de la población y restringir sus libertades, y las grandes plataformas tecnológicas se sirven de la IA para obtener más información sobre las personas, atendiendo a intereses comerciales, algo que va en contra de los valores de la UE.