El avance de la Inteligencia Artificial (IA) está impulsado técnicas y estrategias aprovechadas por cibercelincuentes para desarrollar nuevos tipos de malware y mejorar los ya existentes. Con las posibilidades que surgieron gracias a esta tecnología, es posible crear campañas de desinformación a gran escala y videollamadas falsas, entre otras amenazas informáticas.
Para esto, los cibercriminales se sirven de modelos grandes de lenguaje (LLM) que replican al del famoso ChatGPT, pero con fines acordes a los intereses que imperan en el mundo del ciberdelito. Dos ejemplos de estos modelos son WormGPT y FraudGPT, ambos disponibles en la dark web.
Según un informe publicado en IJSR CSEIT (Revista Internacional de Investigación Científica en Informática, Ingeniería y Tecnología de la Información), FraudGPT es una herramienta de IA generativa por suscripción que permite crear correos de phishing muy convincentes en distintos idiomas, o páginas web falsas.
Este modelo, que representa un gran recurso para cibercriminales, fue descubierto por la plataforma Netenrich en julio de 2023, a través de la dark web y canales de Telegram.
WormGPT, por su parte, también permite redactar correos de phishing de forma sencilla y crear malware en Python. Este LLM surge a partir de GPT-J, un modelo de código abierto creado en 2021 por la firma de investigación y desarrollo EleutherAI, y nutrido con una cantidad de parámetros equivalente a los de GPT-3 –el modelo detrás de la versión gratuita de ChatGPT–.
Para usar WormGPT se debe pagar una suscripción mensual de entre 60 y 100 euros, o realizar un pago anual de 550 euros. FraudGPT, en tanto, cuesta 200 dólares al mes o 1.700 al año.
FraudGPT funciona como una versión de ChatGPT pero sin restricciones de seguridad, por lo que permite crear virus informáticos indetectables, elaborar páginas de phishing, herramientas de hackeo e incluso aprender a piratear.
Investigadores de Trustwave, compañía que certifica la seguridad de distintos tipos de software, hicieron pruebas de FraudGPT y lo compararon con ChatGPT.
Los resultados mostraron que aunque ChatGPT ofrece el código y el correo para ataques de phishing, esto requiere de varios intentos y modificaciones en el prompt (indicaciones para el modelo). Además, el resultado incluye una advertencia, y tampoco llega a ser tan convincente como el de FraudGPT.
La empresa de ciberseguridad Proofpoint identificó un incremento en el uso de IA para la ejecución de estafas avanzadas, como la conocida "pig butchering" o "carnicería de cerdos", con la que los estafadores engordan la confianza de sus víctimas antes de despojarlas de sus activos.
A esta técnica se suman el uso de deepfakes, videos y audios manipulados, que afectan principalmente a funcionarios gubernamentales, empresarios y celebridades.
En ese sentido, los investigadores han observado como los atacantes de TA499, un grupo delictivo cibernético, recurren a videollamadas falsificadas mediante IA para suplantar a políticos y otras figuras públicas.
La imitación de estos individuos busca extraer información confidencial o comprometedora de las víctimas, con el fin de extorsionarlas o ridiculizarlas posteriormente mediante la publicación en redes sociales. Además, se ha identificado el riesgo de que la IA ayude a crear armas bioquímicas y se infiltre en el software de infraestructuras críticas, riesgos que las regulaciones existentes todavía no pueden abarcar.