En Resumen

  • Investigadores de Cambridge analizaron 97.895 hilos en foros criminales y hallaron que el 97,3% no usaba IA para delitos.
  • Los populares chatbots "oscuros" como WormGPT resultaron ser ChatGPT con jailbreak; su propio creador admitió que el producto era puro marketing.
  • El mayor riesgo real, advirtieron los autores, es que despidos masivos en tecnología empujen a desarrolladores capacitados hacia el cibercrimen.

Durante tres años, empresas de ciberseguridad, gobiernos y laboratorios de IA advirtieron que la IA generativa desataría una nueva generación de hackers potenciados. Sin embargo, según un nuevo estudio académico que investigó el tema, estos hackers potenciados en su mayoría usan ChatGPT para escribir spam y generar desnudos por diversión.

El estudio, titulado Stand-Alone Complex or Vibercrime?, fue publicado en arXiv por investigadores de Cambridge y otras universidades, y tiene como objetivo comprender cómo el mundo del cibercrimen está adoptando realmente la IA, no cómo dicen los proveedores de ciberseguridad que lo está haciendo.

"Presentamos aquí uno de los primeros intentos de un estudio empírico de métodos mixtos sobre los patrones tempranos de adopción de IA generativa en el mundo del cibercrimen", escribieron los investigadores.

El equipo analizó 97.895 hilos de foros publicados tras el lanzamiento de ChatGPT en noviembre de 2022, extraídos del conjunto de datos CrimeBB del Centro de Cibercrimen de Cambridge, que recopila foros de la web oscura y la web subterránea. Ejecutaron modelos de temas, leyeron manualmente más de 3.200 hilos y se sumergieron etnográficamente en la escena.

La conclusión no es favorable para la comunidad del alarmismo sobre la IA: el 97,3% de los hilos de la muestra fueron clasificados como "otros", es decir, que no trataban realmente sobre el uso de la IA para el crimen. Solo el 1,9% involucraba a alguien que utilizaba herramientas de vibe coding.

«No es más que un ChatGPT sin restricciones»

¿Recuerdan WormGPT, FraudGPT y la oleada de chatbots supuestamente maliciosos que inundaron los titulares en 2023? Los datos de los foros cuentan una historia diferente.

La mayoría de las publicaciones sobre productos de "IA oscura", encontraron los investigadores, eran personas que pedían acceso gratuito, especulaciones ociosas y quejas de que las herramientas no funcionaban. El desarrollador de un popular servicio de IA oscura terminó admitiendo ante los miembros del foro que el producto era un ejercicio de marketing.

"Al final del día, [CybercrimeAI] no es más que un ChatGPT sin restricciones", escribió el desarrollador, antes de que el proyecto cerrara. "Cualquiera en Internet puede usar una técnica de jailbreak conocida y lograr los mismos resultados, si no mejores".

Para finales de 2024, señalan los investigadores, los jailbreaks para los modelos principales se habían vuelto desechables. La mayoría deja de funcionar en una semana o menos. Los modelos de código abierto pueden ser objeto de jailbreak de forma indefinida, pero son lentos, consumen muchos recursos y están congelados en el tiempo.

"Las barreras de seguridad para los sistemas de IA están demostrando ser tanto útiles como eficaces", concluyen los autores, en lo que ellos mismos califican como un hallazgo contraintuitivo para un artículo crítico.

El vibe coding es real. El vibe hacking, en su mayoría, no lo es

El artículo aborda directamente el ampliamente cubierto informe de Anthropic de agosto de 2025, que afirmaba que Claude Code había sido utilizado para ejecutar una campaña de extorsión mediante "vibe hacking" contra 17 organizaciones. Los datos del equipo de Cambridge sencillamente no muestran ese patrón en el mundo subterráneo más amplio.

En los foros que estudiaron, los asistentes de codificación con IA se utilizan de la misma forma que los desarrolladores convencionales los usan: como reemplazos de autocompletado y Stack Overflow para programadores ya capacitados. Los actores de bajo nivel se quedan con scripts prefabricados, porque los scripts prefabricados funcionan.

Los investigadores encontraron que incluso los hackers desconfían de sus herramientas de hacking generadas con vibe coding. "La codificación asistida por IA es un arma de doble filo. Acelerará el desarrollo, pero también amplifica riesgos como el código inseguro y las vulnerabilidades en la cadena de suministro", afirmó un usuario en un foro monitoreado por los investigadores.

Otro advirtió sobre la pérdida de habilidades a largo plazo: "Ahora está claro que usar IA para programar provoca una degradación negativa muy rápida de tus habilidades", escribió un hacker en un foro. "Si tu objetivo es solo lanzar estafas SaaS y no te importa la calidad, seguridad o rendimiento del código, el vibe coding puede ser viable. (También parece viable para el phishing)."

Esto contrasta marcadamente con las alarmistas predicciones de Europol, que advirtió en 2025 que la IA totalmente autónoma podría algún día controlar redes criminales.

Dónde la IA realmente está ayudando a los criminales

La disrupción, cuando aparece, se da en la base de la cadena alimentaria.

Los estafadores de SEO están usando LLMs para producir en masa spam de blogs en busca de ingresos publicitarios en declive. Los estafadores románticos y los operadores de eWhoring están incorporando clonación de voz y generación de imágenes. Los vendedores de esquemas para hacerse rico rápido están produciendo eBooks escritos por IA para vender a $20 la unidad.

El mercado más perturbador que encontraron los investigadores involucra servicios de generación de imágenes de desnudos. Un operador anunciaba: "Soy capaz de desnudar a cualquier chica con IA… 1 foto = $1, 10 fotos = $8, 50 fotos = $40, 90 fotos = $75".

Nada de esto es cibercrimen sofisticado. Es la misma estafa de bajo margen y alto volumen que impulsó la industria del spam durante dos décadas, ahora con herramientas ligeramente mejores.

La observación final de los investigadores es la más contundente. La mayor forma en que la IA termina perturbando el ecosistema del cibercrimen, sugieren, puede no ser haciendo a los criminales más capaces. Puede ser empujando a desarrolladores despedidos del sector tecnológico legítimo hacia el mundo subterráneo en busca de trabajo.

"En los últimos meses, la ansiedad por la disrupción del mercado laboral provocada por estas herramientas está aumentando de forma precipitada", se lee en el artículo. "Esto puede terminar siendo la forma más importante en que las herramientas de IA generativa perturben el ecosistema del cibercrimen: despidos masivos, recesión económica y un mercado laboral frío que empuja a desarrolladores legítimos y más capacitados hacia las comunidades subterráneas de esquemas para hacerse rico rápido, fraude y cibercrimen".

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.