Roba 25 millones de dólares a una empresa usando un deepfake

Este incidente ha sido calificado como la primera estafa de videoconferencia deepfake en Hong Kong.

Un profesional de finanzas en Hong Kong fue víctima de una estafa de 25 millones de dólares a través de una videoconferencia que resultó ser un deepfake de un CTO de la sede en Londres. Los estafadores utilizaron inteligencia artificial para crear videos y voces falsas, convenciendo al empleado para que realizara 15 transferencias a cinco cuentas bancarias locales. 

Los videos generados por IA se crearon a partir de conferencias on-line genuinas anteriores. Para dar profundidad y credibilidad a la estafa, los perpetradores utilizaron cuentas falsas de WhatsApp, correo electrónico y videoconferencias individuales con miembros del personal de Hong Kong. Así lo cree el superintendente senior de la policía de la ciudad, Baron Chan Shun-ching, motivo por el cual la víctima no se percató del engaño.

Deepfake: una amenaza cada vez mayor

El problema de los deepfakes no se limita a Hong Kong, y los casos van en aumento. Además, dado el avance de la IA generativa, cada vez parecen más reales, y pronto será imposible diferenciar entre una falsificación y la realidad, lo cual es realmente preocupante.

En los Estados Unidos, los senadores introdujeron un proyecto de ley que permitiría a las víctimas retratadas en deepfakes pornográficos generados por IA sin consentimiento demandar a los creadores de los videos. La propia UE también está analizando esta problemática. En India, un video generado por IA del actor Rashmika Mandanna apareció on-line en noviembre, lo que llevó al ministro de Tecnología de la Información, Rajeev Chandrasekhar, a advertir que las plataformas de redes sociales serían responsables de los deepfakes que sus usuarios publican.

Estos incidentes subrayan la creciente amenaza de los deepfakes y la necesidad de tomar medidas para protegerse contra ellos. Aunque los deepfakes pueden haber sido considerados una amenaza menor en el pasado, ahora ya no lo son, y las consecuencias pueden ser bastante graves.