Los avances en inteligencia artificial son una espada de doble filo para las empresas de ciberseguridad que trabajan en finanzas descentralizadas.

La firma de ciberseguridad Web3 Forta Network monitorea más de $40B en activos en cadena para clientes como Polygon, Compound, Lido, ZenGo, y la plataforma de préstamos de criptomonedas Euler Finance, que perdió $200M el mes pasado en un ataque cibernético que Forta previó.

"Muchos de nuestros modelos de aprendizaje automático en el ataque Euler detectaron [esto] incluso antes de que se robaran los fondos, lo que le dio al equipo de Euler unos minutos de anticipación para decir, 'Oye, tu protocolo está a punto de ser atacado, deberías tomar alguna medida'", dijo Christian Seifert, investigador de Forta Network, a Decrypt.

“La cadena de bloques se presta muy bien a estos enfoques de aprendizaje automático porque los datos son públicos”, explicó Seifert. “Podemos ver cada transacción, cada cuenta, podemos ver cuánto dinero se pierde en realidad, y eso es un gran precursor para entrenar algunos de estos modelos”.

A pesar de que el sistema Forta reconoció la actividad maliciosa en el protocolo de blockchain de Euler y envió alertas a Euler, la empresa no pudo actuar lo suficientemente rápido para cerrar su red antes de que se robaran los fondos. Sin embargo, después de negociaciones con el hacker, los clientes fueron compensados.

“Todos los fondos recuperables tomados del protocolo Euler el 13 de marzo han sido devueltos con éxito por el explotador”, dice la publicación compartida por la cuenta oficial de Twitter de Euler.

“Antes de la explotación, se emitieron tres alertas críticas de Forta”, dijo Forta en una publicación de blog. “Lamentablemente, en este caso, el ataque [Euler] aún sucedió demasiado rápido para la respuesta manual estándar de un multisig para pausar el contrato”.

Seifert se unió a Forta en abril de 2022 después de 15 años en Microsoft, donde fue Gerente Principal de Grupo supervisando el equipo de ciberseguridad y detección de amenazas del gigante tecnológico. Forta se lanzó en 2021 con $23 millones recaudados por Andreessen Horowitz, Coinbase Ventures, Blockchain Capital y otros.

Mientras Forta puede aprovechar su propio aprendizaje automático para identificar actividades maliciosas en blockchain, Seifert ve el lado negativo de la IA en la posible manipulación de ChatGPT, el chatbot desarrollado por OpenAI que ha recibido $10B en inversión de su antiguo empleador.

“Hay dos caras de la moneda”, dice Seifert. “Creo que mucha tecnología de IA puede ser utilizada para crear ataques de ingeniería social más personalizados y convincentes.

“Probablemente pueda alimentar su perfil de LinkedIn a ChatGPT y pedirle que escriba un correo electrónico que lo incite a hacer clic en ese enlace, y será altamente personalizado”, explicó. “Así que creo que las tasas de clics aumentarán con el uso malicioso de algunos de estos modelos”.

“En el lado positivo, el aprendizaje automático es una parte integral de la detección de amenazas”, señaló Seifert.

Un informe a principios de este mes de Immunefi encontró que los hacks en la industria de criptomonedas aumentaron un 192% año tras año, de 25 a 73 en el último trimestre. Otro importante hackeo de criptomonedas ha visto $10 millones en Ethereum robados desde diciembre.

Scott Gralnick es el director de asociaciones de canal en Halborn, una empresa de ciberseguridad blockchain que ha recaudado $90 millones en financiamiento y cuyos clientes incluyen a Solana y Dapper Labs.

“La nueva tecnología siempre creará una espada de doble filo”, dijo Gralnick. “Así como las personas intentarán aprovechar la IA para probar nuevos vectores de ataque, nuestros hackers éticos de sombrero blanco intentarán proteger éticamente los ecosistemas en general utilizando esta tecnología para fortalecer nuestro arsenal de herramientas para proteger a estas empresas y ecosistemas”.

Microsoft lanzó recientemente Security Copilot, un servicio de chat que permite al personal de ciberseguridad hacer preguntas relacionadas con incidentes de seguridad para recibir respuestas generadas por IA con instrucciones paso a paso sobre cómo mitigar riesgos. Seifert espera que los empleados de ciberseguridad aprovechen los modelos de lenguaje de IA al simplificar los protocolos.

“Lo nuevo ahora son estos grandes modelos de lenguaje que pueden entender muy bien el contexto, pueden entender muy bien el código”, dice Seifert. “Creo que eso abrirá la puerta principalmente para los respondedores de incidentes.

“Si piensas en un respondedor de incidentes que se enfrenta a una alerta y una transacción en el espacio web3, es posible que no sepa qué buscar, ¿y puede usarse un gran modelo de lenguaje para transformar estos datos técnicos en lenguaje natural, de modo que sea más accesible a un público más amplio?” preguntó. “¿Puede esa persona hacer preguntas en lenguaje natural para guiar la investigación?”

Un estudio reciente de Pew Research de 11,004 adultos estadounidenses encontró que el 32% de los estadounidenses cree que en los próximos 20 años, la inteligencia artificial tendrá un impacto mayormente negativo en los trabajadores, mientras que solo el 13% dijo que la IA ayudará más que perjudicará a la fuerza laboral. 

Count Seifert en la minoría.

“Una cosa de la que siempre hablan es, 'Oh, ¿la IA va a reemplazar a los humanos?' No creo que sea el caso”, dice. “Creo que la IA es una herramienta que puede aumentar y apoyar a los humanos, pero siempre necesitarás un humano en el proceso para algunas de estas decisiones que se toman."

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.