Estrategias para construir una IA que garantice la privacidad de los usuarios

  • Inteligencia Artificial

Muchas organizaciones han comenzado a utilizar aplicaciones basadas en inteligencia artificial para optimizar sus operaciones y mejorar el servicio a sus clientes, pero el desarrollo de los algoritmos es muy opaco y poco comprensible. Esto genera riesgos por el sesgo y también en materia de privacidad, que pueden tener consecuencias negativas para la organización, y los expertos recomiendan una serie de consejos para construir una IA que verdaderamente respete la privacidad de los datos.

Uno de los principales enfoques para desarrollar modelos de negocios digitales es situar al cliente en el centro, lo que permite comprender mejor sus necesidades y desarrollar productos, servicios y experiencias de cliente adaptadas a sus requisitos y, en definitiva, más satisfactorias. Como otras estrategias relacionadas con lo digital la base de este modelo está en extraer el valor de los datos a través de tecnologías como la inteligencia artificial, pero existe una serie de riesgos emergentes al aplicar innovaciones en datos basadas en IA, principalmente derivados del sesgo y la falta de garantías de privacidad.

Los expertos de Capgemini destacan lo importante que es la personalización para muchas industrias, desde la automoción a la salud o el comercio minorista, donde las empresas se están esforzando por recopilar información sobre los clientes para desarrollar productos y servicios altamente personalizados. Esto incluye información personal sobre estilos de vida, hábitos en los desplazamientos y una gran cantidad de información sensible, que debe ser debidamente protegida ya que es propiedad de los usuarios.

En los próximos años las organizaciones deberán cambiar de enfoque para capturar estos datos con el consentimiento de los usuarios, ofreciendo diversos beneficios a cambio de que cedan sus datos y rindiendo cuentas de lo que harán con ellos. Y en el caso de información tan delicada como los datos médicos o financieros será más difícil convencer a las personas de que otorguen permiso a las empresas para utilizar sus datos, por lo que se deben ofrecer las máximas garantías de protección de la privacidad.

En su informe, los investigadores de Capgemini destacan que contar con un gran volumen de datos de los usuarios es especialmente importante para desarrollar modelos de inteligencia artificial que permitan personalizar las aplicaciones según sus necesidades y preferencias. Pero estos modelos podrían ser sometidos a ingeniería inversa para identificar y extraer los datos privados empleados en su entrenamiento, lo que supone un gran riesgo, y ya se han dado casos graves de este tipo de violaciones. Por ello, recomiendan a las empresas que quieran crear modelos de IA que garanticen la privacidad de los datos que consideren ciertos enfoques en función de su objetivo.

Crear herramientas de IA centradas en la privacidad

Para desarrollar nuevas tendencias digitales en el ámbito de la salud, como la teleasistencia personalizada, es preciso desarrollar modelos de IA entrenados con datos sanitarios de los pacientes. Estos pueden ser recogidos por los dispositivos de monitorización conectados, que gracias a esta IA subyacente podrían emitir recomendaciones a los usuarios sobre hábitos de vida saludables y sobre el cuidado de sus enfermedades particulares, por ejemplo. En Capgemini explican que una forma de proteger la privacidad de estos datos tan sensibles sería almacenarlos y procesarlos en los propios dispositivos, pero esto requeriría enormes capacidades de computación y almacenamiento. Pero si esto se traslada a infraestructuras TI perimetrales, manteniendo los datos en el borde sin que la empresa reciba los datos en sí, se podría proteger mejor la privacidad de los usuarios.

Aunque existen algunas dificultades para lograrlo, ya que a más compleja sea la información que manejen estas aplicaciones, más dependerá de otras fuentes externas, como sucede con la meteorología. Y esto potencialmente podría abrir vías de entrada a la fuente de otros datos manejados en estas plataformas, como la ubicación del usuario final. Ante estos problemas los expertos aconsejan adoptar otros enfoques, como el uso de servidores proxy para este tipo de solicitudes de información, haciendo que el receptor no pueda conocer los datos y los motivos del solicitante.

Modelado de datos sin riesgo para la privacidad

En el caso anterior, el uso de servidores proxy puede ser una buena solución en lo que se refiere a brindar servicios al usuario, pero cuando se quiere recopilar su información para desarrollar modelos de IA útiles para el negocio los desafíos son diferentes. Por ejemplo, para crear un modelo de IA para estudiar enfermedades, o para saber cuándo y cómo utilizan los usuarios sus dispositivos de monitorización de la salud para maximizar su aprovechamiento uy personalizar los servicios.

Si se adopta un enfoque basado en la nube para capturar y almacenar los datos se generan riesgos de privacidad, por mucho que se cifren los datos en las transmisiones, ya que deben descifrarse para entrenar el modelo de IA, y se podría aplicar ingeniería inversa para identificar a los usuarios. Además, para el descifrado se requeriría el consentimiento de cada persona, y no se puede dar por hecha su disponibilidad. La solución que proponen los expertos es adoptar técnicas que permitan combinar datos anónimos en modelos más grandes sin que nadie pueda ver información que pueda conducir al usuario de origen.

Técnicas para ofrecer privacidad a los usuarios

Para evitar que cualquier intruso pueda realizar ingeniería inversa sobre los datos que proporcionan los usuarios se pueden insertar registros falsos, haciendo que sólo el modelo de IA pueda filtrar ese “ruido”, lo que evitaría que los ciberdelincuentes o cualquier otro interesado pueda identificar a los usuarios reales. En Capgemini explican que existen otras técnicas más sofisticadas que permiten mayores garantías de privacidad de extremo a extremo, como la privacidad diferencial, que realiza cambios aleatorios en los datos en el punto donde se recopilan, es decir, en el dispositivo que los captura, antes de transmitirlos.

Así, tanto el modelo de IA que utiliza esta información como cualquiera que pueda robarla no puede estar seguro de la veracidad y precisión de estos datos. Aunque conociendo el nivel de aleatoriedad y la probabilidad de que una parte de los datos no sea correcta se podría reconstruir una imagen bastante precisa a nivel de grupo, que permitiría conocer con bastante precisión el comportamiento de usuario.

Para paliar estos riesgos está comenzando a utilizarse el cifrado homomórfico, que permite procesar los datos mientras permanecen encriptados. Esto ya está permitiendo encontrar datos sobre personas con una determinada dolencia sin poder identificar a las personas en sí, pudiendo hacer cálculos y crear modelos útiles basados en datos verdaderamente anónimos. Los expertos creen que esta fórmula se popularizará en los próximos años, ofreciendo nuevas posibilidades a las organizaciones y respetando al máximo la privacidad de los usuarios.

Aplicaciones que preservan la privacidad

Conscientes de los problemas que plantea la privacidad para el desarrollo de aplicaciones y la fabricación de dispositivos que recopilan datos personales, los proveedores de estas soluciones están integrando estas cuestiones en la fase de diseño de sus soluciones. Así, en esta etapa temprana se debe abarcar la exploración de los datos disponibles, la obtención e información en base a los datos y la agregación de datos útiles, como la ubicación o la información meteorológica.

Los investigadores afirman que su el cálculo de esta información se realiza total o parcialmente en el dispositivo se deben tener en cuenta las capacidades y restricciones a nivel técnico. Y consideran fundamental explorar técnicas de privacidad de datos que aseguren que el usuario no puede ser identificado, lo que exige una comprensión profunda de los datos que se procesan para establecer las directivas de privacidad. Su conclusión principal es que, a media que los riesgos cibernéticos aumentan y se vuelven más sofisticados, la privacidad debe formar parte del desarrollo de la IA desde sus primeras etapas, y no como un añadido posterior.