En 4 años el 90 % de los ingenieros de software programará con IA
- Inteligencia Artificial
La Inteligencia Artificial está transformando de manera radical nuestro mundo y, por ende, nuestras industrias. Sin embargo, surgen preguntas cruciales sobre sus riesgos y tendencias
Las respuestas a estas cuestiones se han ofrecido durante la celebración de SOFTING TIC&TALK, organizado por ITI, centro tecnológico especializado en TIC, en la Ciudad Politécnica de la Innovación (CPI) de Valencia. Durante el encuentro, Laura Olcina, directora gerente de ITI, ha sido la encargada de dar la bienvenida a esta nueva edición de SOFTING TIC&TALK. “Lo más importante de la tecnología no es la tecnología en sí misma, sino lo que se consigue gracias a ella”, ha destacado Olcina, y ha añadido que “este evento se presenta como un espacio de reflexión para abordar juntos las últimas tendencias tecnológicas a través de las experiencias y los conocimientos de los expertos”.
Francisco Ricau, director de Información Estratégica e Innovación Empresarial en ITI, ha puntualizado que “la IA no sustituye personas ni trabajos, sino tareas, por lo que no reemplazará a los programadores, pero se convertirá en una herramienta fundamental en su día a día”. En esta línea, Ricau ha indicado que “en 2028, el 90 % de los ingenieros de software programará con Inteligencia Artificial para aumentar su productividad”. En esta línea, uno de los temas actuales que están generando debate es la aprobación del nuevo Reglamento Europeo de Inteligencia Artificial (AIA) de la Unión Europea, que entrará en vigor de manera progresiva en un plazo de entre 6 y 24 meses, y se irá revisando y adaptando, ya que “la tecnología avanza y la regulación de los derechos humanos debe ir de manera paralela”.
Así lo ha explicado Eduardo de Celis, abogado y profesor asociado en la Universidad de León, quien ha detallado que el marco legislativo debe ayudar a innovar al sector tecnológico generando un entorno seguro. “Si los participantes respetan y siguen la guía de las autoridades, podrán seguir experimentando con sandboxes, es decir, con entornos de pruebas para software, sin sanciones administrativas por infracciones legales”, ha expresado de Celis. En efecto, la IA conlleva riesgos, por ejemplo, “la calificación social, la vigilancia masiva, la manipulación del comportamiento causando daños o la suplementación de personalidad, entre otros”, ha señalado el abogado. Por ello, según de Celis, “el uso de la IA deberá responder a códigos de conducta y obligaciones de transparencia, como informar a las personas de que están interactuando con un sistema de IA”, y ha incidido en que “si se vulnera la normativa, las multas pueden ascender a los 30 millones de euros”.