Cómo utiliza Intel la IA para luchar contra los deepfakes

No hace muchos años que los deepfakes parecían una tecnología de imitación de los humanos conseguida gracias a los avances de la potencia de computación.


Pero también algo a lo que había que estar atentos, por su capacidad de imitar aspectos y voces humanas de personas, más o menos conocidas.

Tanto, que un deepfake logra engañar con bastante facilidad a muchos de quienes lo ven. En la actualidad, los deepfakes están muy extendidos, y son tan reales, que pueden utilizarse, y de hecho se utilizan, para todo tipo de fines dañinos, como hackear cuentas y servicios, y difundir información falsa.

Por eso, detectarlos y evitar su uso fraudulento es imprescindible para evitar todo tipo de problemas. En Intel Labs  se han puesto manos a la obra y han desarrollado una tecnología de detección de deepfakes que se encarga de localizarlos y de neutralizarlos. Pero antes de entrar en detalles sobre la tecnología, es conveniente conocer qué es lo que conocemos por deepfake.

Qué es un deepfake

Cuando hablamos de deepfakes nos referimos a vídeos, mensajes de voz o imágenes en los que el personaje que habla o aparece en ellos no es real. Su imagen o su voz se han creado mediante Inteligencia Artificial. Un deepfake utiliza arquitecturas de deep learning complejas, como las redes adversarias generativas, para generar contenido que sea creíble y tenga un nivel de realismo muy elevado.

Gracias a esto, los modelos de IA con los que trabajan pueden generar personalidades artificiales, vídeos en los que un personaje hace playback con una sincronización perfecta e incluso convertir texto a imagen. Todo con un nivel de realismo tan alto que cuesta distinguir lo real de lo que no lo es. A veces, el término deepfake también hace referencia a contenido real que ha sido alterado y modificado para dar otra impresión distinta a la que causaba el original.

La labor de Intel en la detección de deepfakes

De detectar todo esto, entre otras cosas, se encarga el equipo de Ilke Demir, una investigadora de Intel que ha explicado cómo son los métodos de detección de deepfakes que emplea Intel, cómo funciona la tecnología que lo hace posible y las consideraciones éticas del desarrollo e implementación de estas herramientas.

El equipo de Demir se encarga de examinar los conocidos como deepfakes computacionales. Es decir las formas artificiales de contenido generadas por máquinas, y señala que se llaman deepfakes precisamente porque para crear este tipo de contenidos con IA generativa se emplea una arquitectura de deep learning compleja.

A pesar de que puede sonar complicado, los ciberdelincuentes han adoptado en muchos casos esta tecnología como apoyo para sus fechorías y ataques online. También lo han hecho internautas con malas ideas. Ambos grupos han creado vídeos y audios falsos para engañar sobre política, crear vídeos falsos de contenido para adulto con supuestos famosos que no eran mas que personajes creados por IA con la cara del famoso que querían denigrar sus autores o para manipular el mercado. También para suplantar a personas reales y conseguir dinero de manera turbia. Esto hace que la detección y neutralización de deepfakes sea cada vez más importante.

Para ello, Intel Labs ha desarrollado una de las primeras plataformas de detección de deepfakes en tiempo real. Para conseguirlo, en vez de buscar falsificaciones o engaños, la tecnología que incorpora se centra en detectar lo que sí es real. Para ello usa una técnica conocida como fotopletismografía.

Mediante esta técnica, el sistema de detección analiza los cambios de color en los vasos sanguíneos debido al contenido de oxígeno, que se puede visualizar en las imágenes. Así, con este sistema, se puede detectar si una imagen estática o dinámica de una persona es real o artificial.

Según Demir, por tanto, en Intel Labs están «intentando fijarse en lo que es real«. El latido del corazón es una de las señales que tienen para ello, porque cuando el corazón impulsa la sangre, la sangre que va a las arterias, lleva oxígeno, y los vasos cambian de color por el contenido de oxígeno de la sangre. Esto no es visible para el ojo humano, pero sí para los ordenadores.

Aplicaciones de la tecnología

La tecnología de detección de deepfakes de Intel está siempre implementada ya en diversas plataformas y entidades de todo tipo de sectores. Entre ellas, herramientas para redes sociales o de creación de contenido, agencias de noticias, emisoras de radio y televisión, startups y ONGs. Integrando la tecnología en sus flujos de trabajo, las organizaciones y empresas pueden identificar mejor, así como reducir, la propagación de los deepfakes y la desinformación.

Eso sí, a pesar del potencial que un deepfake tiene para los usos fraudulentos, también tiene aplicaciones legítimas. De hecho, una de sus primeras aplicaciones fue la creación de avatares para representar mejor a las personas en entornos digitales. También para permitir que los usuarios de internet puedan utilizar imágenes de personas creadas de manera artificial para utilizarlas online y evitar así intrusiones en su privacidad basadas en su aspecto o sus rasgos, así como para evitar que los reconozcan.

Asegurar un desarrollo ético en la implementación de las tecnologías de Inteligencia Artificial es muy importante. Por eso, el equipo de Medios de confianza de Intel (Intel Trusted Media) colabora con antropólogos, científicos sociales e investigadores sobre uso para evaluar y refinar la tecnología. Intel cuenta también con un Consejo de IA Responsable, que se encarga de revisar los sistemas de Inteligencia Artificial para asegurarse de que cuentan con principios éticos y responsables y señalar los que no lo sean. Entre ellos, posibles sesgos, y limitaciones, aparte de identificar casos de uso que puedan ocasionar daños.

En Intel trabajan en tareas relacionadas con la detección de deepfakes y del sesgo en la IA todo tipo de profesionales: juristas, científicos sociales o psicólogos. Todos trabajan de manera conjunta, según Demir, para acotar los detalles que pueden llevar a identificar el sesgo. Tanto algorítmico como sistemático o de datos, entre otros. Este equipo se encarga de revisar código para descubrir posibles casos en los que una tecnología pueda hacer daño a la gente.

La solución de Intel, por tanto, se encarga de la detección de un deepfake en tiempo real, y ofrece una solución eficaz y escalable al problema de su proliferación para usos negativos. Es por tanto una herramienta útil para combatirlos a medida que se van extendiendo y crece su nivel de sofisticación. Pero no se quieren quedar ahí, y en la compañía señalan que desarrollar e implementar tecnologías de detección para acabar con la desinformación y otras consecuencias dañinas es cada vez más importante. Por eso necesitan centrarse en seguir avanzando para mejorar en ello, apoyándose en la IA.