La popularidad de ChatGPT y otros chatbots de inteligencia artificial ha permeado en todos los sectores, incluyendo el de la ciberdelincuencia. La capacidad de generar extractos de código o aplicaciones provocó que algunos hackers la agregaran a su catálogo de herramientas. Pese a los avances, la tecnología no es muy eficaz para programar malware.
De acuerdo con un reporte de Trend Micro, el interés en el uso de inteligencia artificial generativa ha crecido en el mundo criminal. Algunos hackers utilizan ChatGPT para escribir o mejorar código fuente que usarán en aplicaciones maliciosas. No obstante, la mayoría se enfrenta a un problema común: las barreras de seguridad implementadas por los fabricantes.
Las barandillas de OpenAI han obligado que los hackers busquen alternativas para eliminar la censura. Algunos foros ofrecen consejos para hacer jailbreak a ChatGPT y deshacerse de las limitantes, mientras que otros proponen versiones enfocadas al desarrollo de malware. Según Trend Micro, ninguna de las dos es confiable todavía.
Los expertos en seguridad sugieren que algunos modelos de inteligencia artificial que se venden en el mercado negro serían versiones de ChatGPT con jailbreak. Las aplicaciones funcionarían como un contenedor que redirige las solicitudes a los servicios de OpenAI empleando un VPN. Aunque muchas se anunciaron con bombo y platillo, la mayoría no está a la venta.
Trend Micro pone como ejemplo FraudGPT, DarkBARD o DarkGPT, tres modelos de lenguaje ofrecidos en el canal de Telegram de "Cashflow Cartel". Ninguno de ellos está disponible y algunos anuncios donde se mencionaban ya desaparecieron. Actores maliciosos habrían sacado provecho de la fiebre por la IA generativa para estafar a las personas.
WormGPT sería la IA más efectiva para desarrollar malware, pero ya no existe
De entre toda la oferta de modelos y chatbots, WormGPT se alza como la única alternativa real. El hermano oscuro de ChatGPT surgió en la dark web como una alternativa para saltarse los bloqueos de OpenAI. Según su creador, el chatbot es capaz de desarrollar aplicaciones maliciosas con Python usando lenguaje natural, la mayoría de ellas indetectables por los sistemas de antivirus.
En una entrevista con Brian Krebs, el autor reveló que WormGPT utiliza GPT-J, un modelo de código abierto de 6.000 millones de parámetros. Según su creador, el conjunto de datos con que entrenaron a su inteligencia artificial es muy grande y su eficacia es similar a la de ChatGPT con jailbreak.
Aunque WormGPT demostró su efectividad creando malware y correos de phishing, la visibilidad que generó el proyecto resultó contraproducente. Hace unos días, su autor anunció el fin del proyecto debido a la mala publicidad en los medios de comunicación.
"Inicialmente, todo el marketing que rodeaba al producto giraba en torno a la idea de que permitía actividades blackhat debido a que era un IA sin censura. Sin embargo, rápidamente nos dimos cuenta de que sería mucho mejor admitir ambos lados de la moneda, por lo que cambiamos nuestro enfoque.
A los pocos días, con toda la publicidad del proyecto, nos encontramos con numerosos medios de comunicación cuyo único objetivo era presentarnos como una herramienta pésima y altamente ilegal."
WormGPT tuvo una vida muy corta, aunque eso no significa que una alternativa esté en camino. El mayor inconveniente de crear una IA enfocada a generar malware y otras actividades ilegales es el coste de desarrollo. Entrenar un modelo de lenguaje requiere tiempo y recursos, por lo que es poco factible que todos los chatbots que se venden en la dark web sean legítimos.