Inteligencia artificial y blockchain para combatir los vídeos falsos
- Seguridad
El problema de los vídeos falsos o manipulados está cobrando dimensiones importantes y, antes de que se vuelva inmanejable, las autoridades y la industria de medios audiovisuales y periodismo está trabajando en la forma de combatir los Deepfakes de vídeo. Para ello se estudia la forma de aplicar la inteligencia artificial en el campo de la detección, y las cadenas de bloques para la certificación del contenido y las emisiones de vídeo.
En los últimos tiempos se han desarrollado tecnologías que permiten realizar vídeos con imágenes falsas y un realismo que los hace difíciles de distinguir de una imagen verdadera. Para ello se emplean tecnologías basadas en la inteligencia artificial, con las que se han realizado producciones cuanto menos sorprendentes, con protagonistas tan destacados como Arnold Schwatzenegger, Ruyan Reynolds, Elon Musk o Tom Cruise, en los que se intercambian las imágenes dinámicas de diferentes personas con gran realismo.
Esta tecnología se puede usar para llevar a cabo falsificaciones, y es cada vez más difícil detectar cuándo una imagen de este tipo es falsa, lo que tiene preocupados a los especialistas de diferentes campos. Porque esto puede usarse para falsear vídeo de seguridad o pruebas gráficas de delitos, o para producir vídeos falsos con las imágenes de personas sin su consentimiento, pudiendo implicarles en todo tipo de actividades en las que no han participado, incluyendo delitos. Y también para fabricar noticias falsas en vídeo, que pueden alcanzar gran viralidad antes de que se detecte que son falsificaciones.
Con esta perspectiva los gobiernos y las empresas de seguridad cibernética están cada vez más preocupadas por encontrar una forma confiable de identificar estas imágenes, y hacerlo lo antes posible. Para lograrlo, los expertos en tecnología señalan que es necesario emplear, como mínimo, tecnologías tan sofisticadas como las empleadas en la producción de estas imágenes. Y grandes formas como Facebook o Microsoft se han embarcado en proyectos para desarrollar tecnologías capaces de detectar cuando se ha usado la inteligencia artificial para manipular un vídeo.
Este problema de los vídeos DeepFake, además, alcanza dimensiones muy importantes al considerar el impacto global que puede tener la manipulación de imágenes de personas que después se difunden en las redes y los medios de comunicación. Un ejemplo puede ser falsear las declaraciones de un político en época de elecciones, pero hay infinidad de casos en los que el impacto de imágenes falsas puede ser difícil de contrarrestar. Y, para lograrlo, los expertos creen que se debe mejorar la forma de identificar los contenidos falsos, algo que se podría hacer con inteligencia artificial, pero también sería necesario contar con un sistema de certificación de la veracidad de las imágenes.
Trabajando en estas dos líneas de acción, detectando las falsificaciones con más eficacia y empleando un sistema de certificación de vídeos originales, los expertos creen que podía reducirse mucho el problema de los vídeos falsificados en muchos entornos. Porque los principales entendidos en la materia señalan que sería casi imposible abordar este problema solo a través de la detección. A medida que la IA se vaya popularizando, este tipo de falsificaciones será más fácil de producir, y aunque se alcance una tasa de identificación elevada, quedarían miles e, incluso, millones de vídeos falsos en circulación.
Para complementar la detección se necesitaría una forma de certificación o verificación del contenido desde su propio origen. Muchos barajan a posibilidad de usar “marcas de agua” insertadas digitalmente, y se está hablando cada vez más de la posibilidad de que las propias cámaras de vídeo inserten esta información durante la grabación.
Así se podría ayudar a que la identificación de las imágenes falsas llegase al 90% del total, sin comprometer la calidad de imagen. Y aquí es donde entraría en juego la tecnología blockchain. Cada vez más expertos afirman que escribiendo esta información en cadenas de bloques se crearía un sistema eficaz e inviolable. Mediante un registro compartido, distribuido, transparente y fiable del origen de los vídeos, cualquier integrante de la cadena podría rastrear su origen y verificar que es verdadero y no ha sido manipulado, desde los creadores a los consumidores de la información.
Esto generaría un beneficio adicional para quienes transmiten estos vídeos, tanto cadenas de televisión como medios online, que podrán defender la veracidad de lo que transmiten y no sufrir acusaciones de falsedad. Además, los propios protagonistas de los vídeos no se enfrentarán a los problemas que podría ocasionales la suplantación de identidad en vídeo falsos.