Por Jason Nelson
4 min lectura
La inteligencia artificial generativa ha revolucionado casi todos los aspectos de la vida diaria en un tiempo relativamente corto. Sin embargo, un efecto secundario desafortunado de este avance hacia la corriente principal es el aumento de estafas de phishing que utilizan esta tecnología. Un nuevo informe de la empresa de ciberseguridad SlashNext indica que los correos electrónicos de phishing han aumentado un 1.265% desde el lanzamiento de ChatGPT.
Además del desarrollo de herramientas de inteligencia artificial generadoras de malware como WormGPT, Dark Bart y FraudGPT, que se están propagando en la dark web, los ciberdelincuentes también están encontrando nuevas formas de hacer jailbreak al chatbot de inteligencia artificial insignia de OpenAI.
"Cuando ChatGPT se lanzó en febrero, observamos un aumento drástico en el número de ataques de phishing, obviamente impulsado en parte por el éxito general de los ataques", dijo Patrick Harr, CEO de SlashNext, a Decrypt.
Los ataques de phishing se refieren a un ciberataque que se presenta en forma de correo electrónico, mensaje de texto o mensaje en redes sociales que parece provenir de una fuente confiable. Los ataques de phishing también pueden estar diseñados para dirigir a las víctimas a sitios web maliciosos que las engañan para que firmen transacciones con su billetera de criptomonedas y luego drenen sus fondos.
Según el informe de SlashNext, en el último trimestre de 2022 se enviaron diariamente 31.000 ataques de phishing, lo que representó un aumento del 967% en el phishing de credenciales. Según SlashNext, el 68% de todos los ataques de phishing son compromisos de correo electrónico empresarial (BEC) basados en texto, y el 39% de todos los ataques basados en dispositivos móviles fueron ataques de phishing por SMS (smishing).
"Aunque ha habido cierto debate sobre la verdadera influencia de la IA generativa en la actividad de los ciberdelincuentes, sabemos por nuestra investigación que los actores de amenazas están aprovechando herramientas como ChatGPT para ayudar a redactar sofisticados compromisos de correo electrónico empresarial dirigidos y otros mensajes de phishing", dijo Harr.
"En su esencia, estos son ataques basados en enlaces que intentan que usted entregue sus credenciales, nombre de usuario y contraseña", agregó Harr, señalando que los ataques de phishing también pueden llevar a la instalación de ransomware más persistente. "El ataque al Colonial Pipeline fue un ataque de phishing de credenciales, [los atacantes] pudieron obtener acceso al nombre de usuario y contraseña de un usuario".
A medida que los ciberdelincuentes utilizan IA generativa para atacar a las víctimas, Harr dijo que los profesionales de ciberseguridad deberían pasar al ataque y combatir la IA con IA.
"Estas empresas deben incorporar [IA] directamente en sus programas de seguridad para que [la IA] esté constantemente buscando en todos sus canales de mensajería para eliminar estas [amenazas]", dijo. "Por eso mismo utilizamos IA generativa en nuestras propias herramientas para detectar y no solo bloquear, sino también predecir cómo ocurrirá la siguiente".
Pero aunque Harr es optimista sobre la capacidad de la IA para atrapar a las IA maliciosas en acción, reconoce que se necesitará más que decirle a ChatGPT que esté atento a las amenazas cibernéticas.
"Debes tener el equivalente de una aplicación privada de modelo de lenguaje grande que se encuentre encima de eso, y que esté ajustada para buscar las amenazas maliciosas", dijo.
Si bien los desarrolladores de IA como OpenAI, Anthropic y Midjourney han trabajado arduamente para incluir salvaguardias contra el uso de sus plataformas con fines maliciosos, como ataques de phishing y la difusión de información errónea, los usuarios expertos están comprometidos a eludirlas.
La semana pasada, la Corporación RAND publicó un informe que sugería que los terroristas podrían aprender a llevar a cabo un ataque biológico utilizando chatbots generativos de IA. Si bien el chatbot no explicaba cómo construir el arma, mediante el uso de indicaciones de desbloqueo, se podía hacer que el chatbot explicara cómo se debía llevar a cabo el ataque.
Los investigadores también descubrieron que al utilizar idiomas poco conocidos o utilizados como el zulú y el gaélico, podían hackear ChatGPT y hacer que el chatbot explicara cómo escapar después de robar una tienda.
En septiembre, OpenAI lanzó una convocatoria abierta a profesionales ofensivos de ciberseguridad, también conocidos como Equipos Rojos, para ayudar a encontrar vulnerabilidades de seguridad en sus modelos de IA.
"Las empresas deben replantear sus posturas de seguridad", concluyó Harr. "Necesitan utilizar herramientas basadas en IA generativa para detectar y responder a estas cosas o, lo que es más importante, no solo responder, sino también detectar, bloquear y detener antes de que actúen".
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.