Europa quiere establecer unos principios éticos para la inteligencia artificial
- Inteligencia Artificial
La Comisión Europea está preocupada por las implicaciones que tendrá el uso de la inteligencia artificial en el futuro. Por ello, acaba de publicar un borrador que recoge los principios éticos que se deberán tener en cuenta para el desarrollo de una IA confiable, que no introduzca conflictos en su interacción con el ser humano.
Una de las tecnologías más disruptivas del momento es la inteligencia artificial, a la que se atribuyen grandes capacidades y que parece tener posibles aplicaciones en casi cualquier sector relacionado con la tecnología. Pero este gran avance introduce nuevas complicaciones de cara a su interacción con el ser humano, y los expertos están preocupados por las implicaciones éticas que pueden surgir en el desarrollo de la IA y en su interacción con el ser humano.
Muchas de las aplicaciones de la IA son aportar automatismo a tareas que tradicionalmente realizaban las personas, y en el futuro se intentará que estas máquinas sean capaces de tomar ciertas decisiones por sí solas, que podrían tener implicaciones para los seres humanos. Esto genera una serie de preocupaciones lógicas, que ya surgieron cuando se desarrollaron los conceptos modernos de la inteligencia artificial y la robótica, a mediados del siglo pasado. Fue entonces cuando Isaac Asimov, considerado por la mayoría como el padre de la robótica en la ciencia ficción, creó las llamadas “leyes de la robótica”, que imponían una serie de reglas básicas que regían el comportamiento de la inteligencia artificial que gobernaba los robots.
Sus novelas ahondaron en las implicaciones de la existencia de seres artificiales dotados de inteligencia, cuyas acciones podían tener consecuencias para los humanos, y con el tiempo la inteligencia artificial se ha convertido en una “realidad”. Por ahora, no se asemeja en absoluto a la inteligencia humana, pero estas máquinas están cada vez más dotadas de independencia y, algunas, de capacidades como el aprendizaje automático. Esto eleva su potencial de cara al futuro, y está encontrando posibles aplicaciones en numerosos sectores. Pero, a la vez que está evolucionando, los expertos están cada vez más preocupados por las consecuencias de una IA creada sin las adecuadas limitaciones, en especial las de índole ética.
Por ello, los responsables de la Comisión Europea han elaborado un borrador que recoge los principios éticos que deberían gobernar el desarrollo de la inteligencia artificial de forma segura y confiable, para que en el futuro no se generen conflictos como los relatados en las novelas de ciencia ficción que tratan este tema. Este documento ha sido consensuado por un comité de 52 expertos independientes que provienen tanto del sector privado como de instituciones académicas y representantes de la sociedad civil. Este grupo, denominado AI HLEG (Grupo de Expertos en Inteligencia Artificial de Alto Nivel), valora el gran potencial de la IA para transformar la sociedad y los negocios, pero alerta de que es importante alcanzar “una comprensión y compromiso con la creación de una inteligencia artificial confiable”.
Los dos principios básicos que propone este grupo son, primero, que estas tecnologías deben respetar los derechos fundamentales, las leyes y garantizar un propósito ético. Y, segundo, que “la inteligencia artificial debe ser técnicamente robusta y confiable”. Pero también identifican que, incluso cumpliendo estos principios y con la base de unas buenas intenciones, se pueden producir daños involuntarios a las personas, las organizaciones o los gobiernos. Por ello, afirman que se debe crear un marco regulatorio para que este entorno de máquinas inteligentes sea verdaderamente confiable.
Para lograrlo proponen una serie de derechos fundamentales y de principios que generen una base ética que rija la propia creación y el desarrollo de las tecnologías de inteligencia artificial, muy relacionadas con las famosas tres leyes de la robótica concebidas por Asimov. Este borrador pone énfasis en que la IA deberá estar centrada en el ser humano y reflejar los derechos fundamentales, los valores sociales y unos principios éticos basados en hacer el bien, no provocar daño, mantener la autonomía de los humanos, asegurar la justicia y que sus decisiones se puedan explicar y justificar.
Por otro lado, remarca la importancia de tener muy en cuenta las situaciones que impliquen a grupos de especial vulnerabilidad, como los niños, las personas con discapacidad y las minorías. Y también se debe considerar con cuidado su actuación en situaciones en que exista una asimetría de poder o de información, por ejemplo entre jefes y empleados, o entre empresas y consumidores.
Para lograr estos objetivos, los expertos del grupo afirman que los principios que rijan el ámbito de actuación y los límites de la inteligencia artificial deben ser la base del diseño de estas tecnologías. Y destacan especialmente los conceptos de la responsabilidad, la autonomía de los humanos, un diseño común para todos, el uso adecuado de la información, el respeto a la privacidad, la transparencia y la robustez y seguridad a nivel tecnológico. También dice que las empresas deberían tener un código deontológico para el uso de la inteligencia artificial, que tenga en cuenta la diversidad en los equipos humanos que trabajen en el desarrollo y la utilización de la tecnología basada en IA. Según han informado, este documento ya ha entrado en una fase de revisión pública, en la que se admiten sugerencias para mejorarlo, y su publicación definitiva se hará en marzo de 2019.