Varias imágenes sexualmente explícitas con el rostro de Taylor Swift inundaron las redes esta semana. Son deepfakes, contenido falso generado con inteligencia artificial. Una de las fotos viralizadas en X (antes Twitter) fue vista más 47 millones de veces antes de ser eliminada. El escándalo ha dejado en evidencia uno de los peligros de las nuevas herramientas —advertido por expertos desde hace años—, que afecta especialmente a las mujeres.
X tardó cerca de 17 horas en suspender la cuenta —de un usuario «verificado», por cierto— que publicó el material en cuestión. Antes, la imagen se reenvió más de 24.000 veces y logró cientos de miles de «me gusta». «Taylor Swift AI» se convirtió en tendencia, lo que impulsó la difusión del contenido.
«La publicación de imágenes de desnudos no consensuales (NCN) está estrictamente prohibida en X y tenemos una política de tolerancia cero hacia dicho contenido», dijo luego la red social de Elon Musk en un comunicado. Pero el problema trasciende a esta plataforma.
Estos deepfakes de Taylor Swift, por ejemplo, circularon primero por Telegram. 404 Media informó que estas imágenes se originaron en un grupo de esta aplicación de mensajería, donde los usuarios comparten imágenes explícitas de mujeres que son generadas utilizando inteligencia artificial.
Esta vez fue Taylor Swift, pero la práctica ya suma varias víctimas. Este mes, NBC News detectó deepfakes pornográficas de una treintena de celebridades femeninas. No tuvieron que hacer una investigación muy exhaustiva: les bastó con googlear el nombre del artista junto al término «deepfake».
El caso de Taylor Swift como prueba del daño de los deepfakes
La inteligencia artificial generativa vino a impulsar una práctica violenta que se desarrolla desde hace años. Sensity AI, una empresa con sede en Ámsterdam que se dedica a detectar contenido falso, ya advertía en 2019 que el 96 % de los vídeos deepfake en internet eran pornográficos. Y que la mayoría tenía como víctimas a mujeres.
Entre el 2018 y 2020, los vídeos falsos disponibles en internet —no solo pornográficos— se estaban duplicando cada seis meses. Con las nuevas herramientas de inteligencia artificial generativa, se supone un crecimiento considerable en la difusión.
No solo afecta a Taylor Swift y otras artistas famosas. Sensity AI también detectó en 2020 que al menos 100.000 deepfakes pornográficos de mujeres se habían distribuido en grupos de Telegram. Usuarios de estos canales dijeron entonces que usaban bots para generar el contenido. Con estas herramientas, creaban deepfakes usando fotos que mujeres reales habían publicado en sus redes sociales.
Un escándalo estalló en septiembre pasado en Almendralejo, España. Más de 20 niñas de entre 11 y 17 años denunciaron que habían generado imágenes de ellas desnudas con herramientas de inteligencia artificial. El material se distribuyó por Telegram y WhatsApp, informó la BBC.
Reality Defender, una empresa de ciberseguridad, dijo al New York Times que es casi seguro que las imágenes de Taylor Swift se crearon a través de un modelo de difusión. Es la tecnología que impulsa a varias de las nuevas herramientas generativas de imágenes más famosas, como las de OpenAI, Google o Midjourney. Ben Colman, CEO de Reality Defender, explicó que actualmente hay más de 100.000 aplicaciones y modelos disponibles públicamente.
«Lo que le pasó a Taylor Swift no es nada nuevo. Durante años, las mujeres han sido blanco de deepfakes sin su consentimiento», dijo Yvette D. Clarke, congresista demócrata de Estados Unidos. «Y con los avances en inteligencia artificial, crear deepfakes es más fácil y económico», escribió en X. Hay varios estados en este país que restringen este tipo de contenidos, pero la legislación federal es limitada en este sentido.
¿Qué están haciendo las grandes tecnológicas?
Las herramientas más famosas, como las de Google y OpenAI, no permiten la creación de contenido sexualmente explícito o que use la identidad de personas reconocidas —como políticos o artistas—. Pero las grandes tecnológicas tienen gran influencia en la difusión de deepfakes como las de Taylor Swift.
Google permite a las víctimas solicitar la eliminación de estos contenidos, pero no busca ni elimina deepfakes porno de forma proactiva. «Solo revisamos las URL que usted o su representante autorizado envían en el formulario», indican en la plantilla para hacer la solicitud.
Microsoft, por su parte, considera a los deepfakes porno dentro de su categoría de imágenes íntimas no consensuales (NCII). Al igual que Google, dispone de un formulario para que las víctimas denuncien los contenidos que aparecen en Bing.
«La distribución de NCII es una grave violación de la privacidad y la dignidad personal con efectos devastadores para las víctimas», dijo Courtney Gregoire, directora de seguridad digital de Microsoft, en agosto pasado. «Microsoft prohíbe NCII en nuestras plataformas y servicios, incluida la solicitud de esta o la defensa de la producción o redistribución de imágenes íntimas sin el permiso de la persona afectada», aclaró Gregoire.
En ambos buscadores, sin embargo, se prioriza en los resultados a varios portales que se promocionan como especializados en deepfakes pornográficos de celebridades. La mayoría del contenido es de mujeres. Google y Bing también destacan varias aplicaciones para generar este tipo de material violento.
Una investigación de Wired encontró en octubre al menos 35 sitios dedicados al porno deepfake. Otros 300 publican algún tipo de este material realizado sin consentimiento. Son cientos de miles de videos.