Las grandes organizaciones contratarán a forenses expertos en IA

  • Inteligencia Artificial

Según Gartner, el 75% de las grandes compañías va a contratar a forenses expertos en tecnologías como la inteligencia artificial y el aprendizaje automático para analizar los registros de los incidentes de violación de privacidad, sesgos en el análisis de datos y otros problemas que se producen en estos sistemas. El objetivo que persiguen es reducir los riesgos de perder reputación y de empeorar la imagen de marca, problemas que tienen un grave impacto en los negocios.

La inteligencia artificial, el aprendizaje automático y otras tecnologías que trabajan con datos tienen un enrome potencial para mejorar los negocios en la era digital, pero actualmente ya se han registrado graves incidentes de violación de privacidad en los sistemas de algunas importantes compañías que emplean estas tecnologías. Y también problemas con el sesgo en la interpretación de los datos por parte de la IA.

Esto tiene consecuencias negativas para las organizaciones, que han decidido atajar el problema siguiendo una estrategia inteligente. Según afirman los expertos de Gartner, de ahora a 2023 el 75% de las grandes empresas va a contratar a expertos forenses con conocimientos sobre sobre la privacidad y la confianza de los clientes que emplean este tipo de plataformas, para que estudien a fondo las cusas de estas violaciones de seguridad.

Con ello quieren entender mejor lo que ha sucedido y poner freno a los posibles problemas que implica usar estas tecnologías tal y como lo están haciendo actualmente, ya que está claro que en las organizaciones donde esto ha sucedido no se está realizando un tratamiento responsable de la información. Y esto está dañando seriamente su reputación e imagen de marca, lo que puede resultar en una pérdida de clientes y de competitividad en sus respectivos sectores.

Y otros problemas que pueden dañar la imagen de las empresas que emplean diferentes formas de inteligencia artificial es el sesgo en el tratamiento de la información, que puede acabar segregando a clientes y usuarios en función de parámetros como la edad, el género, la raza, las creencias religiosas o su lugar de residencia. Y también existen otros sesgos en el funcionamiento interno de la propia inteligencia artificial, que pueden dar como resultado errores que minen la confianza de los clientes o recomendaciones y predicciones erróneas que lleven los negocios por mal camino.

Como comentó Jim Hare, vicepresidente de investigación de Gartner, “Se necesitan nuevas herramientas y habilidades para ayudar a las organizaciones a identificar estas y otras posibles fuentes de sesgo, crear más confianza en el uso de modelos de IA y reducir el riesgo de reputación y marca corporativa. Cada vez más líderes de datos y análisis y directores de datos (CDO) están contratando a investigadores forenses y de ética de ML”.

Según señaló Hare, aunque, “el número de organizaciones que contratan a los investigadores forenses y de ética de ML sigue siendo escaso hoy, ese número se acelerará en los próximos cinco años”, un período en el que la mayoría de grandes organizaciones habrá adoptado esta estrategia para prevenir futuros problemas.