Utilizan el sonido para intentar engañar a los consumidores con noticias falsas y otras estafas. Se trata de Project Mockingbird, y su fin es proteger a los consumidores de los ciberdelincuentes que utilizan audio generado con IA, y manipulado, para intentar engañar y estafar, y también para manipular la opinión pública.
En este tipo de engaños, los delincuentes generan por ejemplo un vídeo con una fuente legítima, como un presentador de informativos de prestigio. En él insertarán sonido falso para simular que este presentador dice cosas que no son ciertas. Este tipo de material manipulado se puede utilizar para el engaño solo, o junto con otros materiales escritos, creados para dar mayor credibilidad, y por tanto mayores posibilidades de éxito, al engaño.
Project Mockingbird se encarga de detectar si un audio en el que hay una declaración, una conversación o se afirman unos hechos determinados, lo han generado las personas que aparentemente lo han dicho, o no. Para ello se basa en la escucha de las palabras que se dicen en el audio. Con esto, McAfee quiere ayudar a luchar contra una tendencia cada vez más preocupante: el uso de la IA generativa para crear deepfakes convincentes.
Los contenidos con audio falso creados van desde el clonado de la voz de personas que aparecen en un vídeo a la suplantación en imagen y sonido de familiares y amigos pidiendo dinero a quienes se envía el mismo, dificultando que se distinga si son ellos de verdad o no. Por eso McAfee, consciente de que es importante que los consumidores puedan distinguir el contenido real del manipulado, ha desarrollado un modelo de IA capaz de detectar el audio generado por IA.
Project Mockingbird, cuyo nombre hace referencia a la capacidad de un pájaro que vive en el continente americano de imitar el sonido de otras aves, emplea una mezcla de modelos de detección categóricos, de comportamiento y contextuales, todos con IA. Estos le permiten detectar los audios falsos con una tasa de precisión del 90%. Según han manifestado desde la compañía, esta tecnología de detección de deepfakes se integrará en un producto desarrollado para proteger a los usuarios.
Sus aplicaciones son múltiples, ya que con ella los consumidores podrán detectar audios manipulados, o directamente falsos, en una amplia variedad de escenarios, que van desde los archivos que reciben por diversas fuentes hasta las publicaciones en redes sociales. Es en estas últimas donde, precisamente, pueden estar más expuestos a este tipo de falsificaciones y manipulaciones.
Steve Grobman, CTO de McAfee, ha señalado que «con las últimas capacidades de detección con IA de McAfee, ofreceremos a los clientes una herramienta que supera el 90% de precisión al ayudar a la gente a entender su mundo digital, y valorar la posibilidad de que un contenido sea distinto de lo que parece. Por tanto, de manera similar a una predicción del tiempo que indica un 70% de probabilidad de lluvia y te ayuda a planificar el día, nuestra tecnología equipa con información para tomar decisiones informadas de si un contenido es lo que aparenta«.
Grobman ha recordado también que «los casos de uso para esta tecnología de detección de IA son muy amplios, y serán muy útiles para los consumidores en medio de un aumento de la desinformación y los fraudes generados por IA. Con las capacidades de detección de audio de deepfakes, daremos el poder de saber lo que es real o no directamente a los consumidores. Les ayudaremos a evitar estafas con cheapfakes, en las que un famoso clonado asegura que ha puesto en marcha una promoción por un tiempo limitado, y también nos aseguraremos de que los consumidores saben al momento, cuando vean un vídeo sobre un candidato a la presidencia, si es real o generado por IA con fines maliciosos. Esto lleva la protección en la era de la IA a un nuevo nivel. Queremos dar a los usuarios la claridad y confianza para tener en cuenta los matices en nuestro nuevo mundo impulsado por IA, para proteger su privacidad, identidad y bienestar online«.