Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y de análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Obtener más información

La defensa estadounidense adopta principios éticos para el uso de la IA

  • Inteligencia Artificial

GMV Inteligencia Artificial

El Departamento de Defensa de los Estados Unidos acaba de anunciar que ha adoptado los principios éticos para el uso de la inteligencia artificial que ha propuesto la Junta de Innovación en Defensa. Con ello quieren establecer un mayor control para prevenir problemas potenciales como el sesgo involuntario, y mantener una rutina de pruebas para verificar el buen funcionamiento de la tecnología.

Teniendo en cuenta el trabajo que realizan las agencias gubernamentales de defensa, aplicar la inteligencia artificial a sus procesos es una práctica de riesgo, ya que las implicaciones militares de un mal uso de la IA pueden ser muy graves. Por ello, la Junta de Innovación en Defensa (DIB) de los Estados Unidos ha propuesto un código ético para el uso de la IA en el Departamento de Defensa (DoD) del país, que ha sido aprobado el pasado 24 de febrero.

Recomendados: 

Informe IT Trends: 2020, el año de la consolidación digital Leer

Ciberseguridad en 2020, ¿qué podemos esperar? Registro

Tendencias TI 2020, visionando el futuro. Webinar ondemand.

Con este código, la agencia quiere asegurarse de que se siguen directrices muy claras a la hora de recurrir a la IA, minimizando cualquier riesgo potencial. Según dijo el secretario Mark Esper, “la adopción de principios éticos de inteligencia artificial mejorará el compromiso del departamento de mantener los más altos estándares éticos, como se describe en la estrategia de inteligencia artificial del Departamento de Defensa, al tiempo que mantiene la sólida historia del ejército de los EEUU sobre la aplicación de pruebas rigurosas y estándares de campo para innovaciones tecnológicas”.

El nuevo código ético del DoD se basa en cinco estándares principales. El primero es la responsabilidad, según el cual el Departamento de Defensa usará niveles apropiados de juicio y cuidad cuando se utilice la IA. El segundo es que la IA será equitativa, es decir, que en su aplicación se minimizará el sesgo involuntario que surge de una mala programación de las máquinas. El tercero es que la IA debe ser rastreable, lo que significa que el personal al cargo estará altamente capacitado, y que el DoD será transparente sobre las metodologías que use.

El cuarto es que debe ser fiable, para lo que todas las capacidades de inteligencia artificial estarán sujetas a pruebas que garanticen su seguridad y efectividad. Finalmente, el quinto principio es la gobernabilidad, según el cual el DoD se compromete a diseñar la IA para que cumpla funciones previstas mientras posee la capacidad de detectar y evitar consecuencias no deseadas. El responsable de aplicar estos principios en toda la agencia y de garantizar que se cumplan será el Centro Conjunto de IA del Departamento de Defensa.

Según dijo Dana Deasy, CIO del DoD, “la ética sigue a la vanguardia de todo lo que el departamento hace con la tecnología de inteligencia artificial, y nuestros equipos utilizarán estos principios para guiar la prueba, el campo y la ampliación de las capacidades habilitadas para la inteligencia artificial en todo el Departamento de Defensa”.