Los altos ejecutivos serán responsables de implementar prácticas éticas de IA

  • Inteligencia Artificial

GMV Inteligencia Artificial

Un estudio realizado por una gran compañía tecnológica señala que en Europa los altos directivos se convertirán en los responsables de implementar la ética en el uso de la inteligencia artificial. La mayoría de los CEO ya se están preparando para este cambio en su rol, pero menos de una cuarta parte de las empresas a nivel global está aplicando este concepto a la IA, lo que eleva el riesgo derivado del sesgo en el tratamiento de la información.

La inteligencia artificial se expande a numerosos entornos tecnológicos, pero desde los primeros experimentos con esta tecnología se ha detectado un grave riesgo de que se produzcan determinados sesgos que afecten a los resultados que brinda la IA, y que pueden tener repercusiones en las personas. Estos problemas son inherentes a la inteligencia artificial, tal y como se ha conocido hasta ahora, ya que el tratamiento de la información mediante estas herramientas está sujeto a las instrucciones marcadas en los algoritmos, que muchas veces no consideran aspectos como la ética.

El resultado es que al manejar la información y posteriormente llevar a cabo acciones de forma autónoma o emitir recomendaciones, la inteligencia artificial puede (y suele) discriminar a ciertos grupos, ya sea por edad, procedencia, religión, estatus económico y otros factores que no deberían establecer diferenciaciones entre las personas en lo que se refiere al tratamiento de sus datos.

Este problema es de sobra conocido y las empresas deben lidiar con él en sus iniciativas para implementar tecnologías basadas en la inteligencia artificial. Para mitigarlo la industria y las autoridades competentes está trabajando en formas de aplicar criterios basados en la ética en el propio desarrollo de la IA, pero muchas veces esto depende de las políticas dictadas por los líderes de las organizaciones.

Por ello, como revela un reciente estudio realizado por IBM, los altos ejecutivos van a convertirse en los responsables de implementar la ética en el uso de la IA. En el ámbito europeo el 64% de los encuestados señaló que los ejecutivos no técnicos son los principales responsables de implementar normas éticas en la inteligencia artificial. A nivelo global, la mayoría de los CEO afirma estar preparado para hacerlo, pero en la práctica menos de una cuarta parte de las organizaciones está llevando a cabo acciones para que esto se haga realidad.

Esta investigación deja claro que, a pesar del interés en lograr una IA confiable, que pueda ayudar a alcanzar los objetivos de sostenibilidad, responsabilidad social corporativa, diversidad e inclusión, existe una brecha importante entre las intenciones manifestadas por los ejecutivos y las acciones reales que se llevan a cabo en este sentido dentro de las organizaciones.

Aumenta la concienciación entre los ejecutivos

Esta encuesta revela que en Europa el 30% de los CEO son considerados como los máximos responsables de la ética en el uso de la inteligencia artificial. Lo mismo considera el 10% de los miembros de la junta directiva en general, el 5% de los consejeros generales, el 6% de los responsables de privacidad y el 6% de los responsables de riesgo y compliance.

Un 64% de los encuestados en la región menciona al CEO o a otro de los altos ejecutivos como la persona de más influencia en la estrategia de aplicación de la ética dentro de la organización. Pero no solo a una única persona, sino que un 56% menciona a más de la mitad de los miembros de la junta, y un 37% a los propios accionistas, lo que refleja cómo los empleados consideran que los máximos responsables deben involucrarse directamente para integrar consideraciones éticas en la organización.

Avances hacia una IA confiable basada en la ética

Los resultados de esta investigación indican que casi tres cuartas partes de los altos ejecutivos de Europa consideran importante aplicar la ética en la inteligencia artificial, y un 73% cree esto proporciona una ventaja competitiva. Además, un 55% de quienes ven la IA y la ética de la IA como un factor importante para la organización señalan que esto les permite superar a su competencia en campos cada vez más importantes, como la sostenibilidad, la responsabilidad social corporativa, la diversidad y la inclusión.

Esto está llevando a muchas empresas a dar los primeros pasos en este sentido, y más de la mitad de los encuestados en Europa afirma que su organización ya ha empezado a implementar la ética de la IA en su enfoque actual de la ética empresarial. Un 42% de los entrevistados en la región señala que su empresa ha desarrollado mecanismos éticos específicos para la inteligencia artificial y un proceso de auditoría y revisión para asegurarse de que se cumplen estas directrices.

Aumenta la urgencia por garantizar el cumplimiento con criterios éticos

El cambio de percepción de la ética en las organizaciones está llevando a los ejecutivos a prepararse para los cambios que traerá este enfoque, y a nivel global un 79% de los CEO se consideran preparados para integrar la este factor, un porcentaje que ha aumentado mucho desde el 21% de 2018. Asimismo, más de la mita de las empresas apoyan públicamente los principios comunes para aplicar la ética en las tecnologías basadas en inteligencia artificial.

Pero la realidad es que menos de una cuarta parte de las empresas encuestadas en todo el mundo ha comenzado a aplicar este concepto, y menos de un 20% puede decir que las prácticas y las acciones de la empresa coinciden o superan sus principios y valores fundamentales.

En lo que se refiere a la diversidad, un 68% de los encuestados en todo el mundo reconoce que para mitigar el sesgo en la IA es importante que sus entornos de trabajo sean igualmente diversos e inclusivos. Aunque, paradójicamente, los equipos de trabajo de IA son 5,5 vences menos inclusivos para las mujeres, cuatro veces menos para las personas LGBT+ y 1,7 veces menos inclusivos en lo que se refiere a la raza.

Como explica Jesús Mantas, Global Managing Partner de IBM Consulting, “a medida que muchas empresas utilizan hoy en día algoritmos de IA en su negocio, se enfrentan potencialmente a crecientes demandas internas y externas para diseñar estos algoritmos de forma que sean justos, seguros y dignos de confianza. Sin embargo, ha habido poco progreso dentro de la industria en la incorporación de la ética de la IA en sus prácticas”.

Mantas añade que los resultados de este estudio “demuestran que la creación de una IA confiable es un imperativo empresarial y una expectativa de la sociedad, no solo una cuestión de compliance. En este sentido, las empresas pueden implementar un modelo de gobernanza e integrar los principios éticos en todo el ciclo de vida de la IA”.

Recomendaciones para implementar la ética de la IA

En su informe afirma que es el momento de que las empresas se comprometan con la aplicación de la ética, y pone en valor que las organizaciones que implementan una estrategia de ética de IA de amplio espectro, vinculada a todas las unidades de negocio, logran una clara ventaja competitiva de cara al futuro. Y para lograrlo emite una serie de recomendaciones.

La primera es adoptar un enfoque multifuncional y colaborativo, ya que lograr que la inteligencia artificial opere siguiendo unos criterios éticos fundamentales se requiere un enfoque integral y un conjunto de habilidades común a todas las partes implicadas dentro de la organización. Esto incluye tanto a los altos ejecutivos como a los diseñadores y científicos dedicados al comportamiento, a los científicos de datos y a los ingenieros de IA, ya que cada uno debe hacer su parte para lograr que la inteligencia artificial sea confiable.

El segundo consejo es establecer una gobernanza tanto organizativa como del ciclo de vida de la IA, lo que permitirá que la disciplina de la ética de IA funcione como debe. Para lograrlo es fundamental adoptar un enfoque holístico que ayude a fomentar, gestionar y gobernar las soluciones de IA durante todo su ciclo de vida, abarcando tanto la forma en que esta tecnología se alimenta de información hasta las prácticas y políticas de los productos.

Por último, los expertos aconsejan ampliar la colaboración más allá de la propia organización, buscando conocimientos, apoyos y alianzas con socios tecnológicos clave enfocados al campo de la inteligencia artificial. Esto incluye tanto empresas como expertos de la comunidad académica, startups y otros partners del ecosistema que puedan contribuir al establecimiento de una “interoperabilidad ética”.