En Resumen

  • OpenAI y Microsoft frustran cinco ataques cibernéticos "afiliados al estado" provenientes de grupos en China, Irán, Corea del Norte y Rusia.
  • Los hackers intentaron utilizar GPT-4 para una variedad de actividades maliciosas, incluyendo campañas de phishing, generación de scripts y evasión de detección de malware.
  • A pesar de los esfuerzos de OpenAI para fortalecer la ciberseguridad, los hackers continúan encontrando formas de eludir las restricciones y hacer que ChatGPT responda con contenido peligroso.

OpenAI, desarrollador de ChatGPT, dijo que se asoció con su principal inversor, Microsoft, para frustrar cinco ataques cibernéticos "afiliados al estado".

Según OpenAI, los ataques cibernéticos, provinieron de dos grupos afiliados a China: Charcoal Typhoon y Salmon Typhoon, así como de Crimson Sandstorm afiliado a Irán, Emerald Sleet afiliado a Corea del Norte y Forest Blizzard afiliado a Rusia.

Los grupos intentaron utilizar GPT-4 para la investigación de herramientas de empresa y ciberseguridad, depuración de código, generación de scripts, campañas de phishing, traducción de documentos técnicos, evasión de detección de malware e investigación de tecnología de comunicación por satélite y radar, según OpenAI. Las cuentas fueron terminadas después de ser identificadas.

"Hemos interrumpido a cinco actores afiliados al estado que intentaron utilizar servicios de IA en apoyo de actividades cibernéticas maliciosas", dijo OpenAI en una publicación de blog, en la que también compartió el "enfoque para detectar e interrumpir a dichos actores con el fin de promover el intercambio de información y la transparencia con respecto a sus actividades".

AD

OpenAI y Microsoft no respondieron de inmediato a la solicitud de comentarios de Decrypt.

"La gran mayoría de las personas utilizan nuestros sistemas para ayudar a mejorar su vida diaria, desde tutores virtuales para estudiantes hasta aplicaciones que pueden transcribir el mundo para personas con discapacidad visual", dijo OpenAI. "Como ocurre con muchos otros ecosistemas, hay algunos actores maliciosos que requieren atención constante para que todos los demás puedan seguir disfrutando de los beneficios".

Microsoft Threat Intelligence, un portavoz de Microsoft, dijo a Decrypt que utiliza un gráfico de seguridad para identificar, agrupar y rastrear amenazas, lo que permite una detección rápida de los peligros emergentes.

"A través de nuestra visibilidad global, Microsoft aprovecha billones de señales para potenciar nuestros esfuerzos de inteligencia de amenazas", dijo el portavoz. "Estas señales contienen información de seguridad relevante, que se recopila, procesa y enriquece para formar un gráfico de seguridad inteligente que permite a nuestros defensores proteger a los clientes".

AD

Si bien OpenAI detuvo con éxito estas instancias, la compañía reconoció la imposibilidad de detener cada mal uso.

Después de un aumento de deepfakes y estafas generadas por IA tras el lanzamiento de ChatGPT, los responsables de la formulación de políticas intensificaron el escrutinio de los desarrolladores de IA generativa. En septiembre, OpenAI anunció una iniciativa para fortalecer la ciberseguridad en torno a sus modelos de IA, incluido recurrir a "equipos de evaluación" de terceros para encontrar vulnerabilidades en la seguridad de OpenAI.

A pesar de la inversión de OpenAI en ciberseguridad y la implementación de medidas para evitar que ChatGPT responda con respuestas maliciosas, racistas o peligrosas, los hackers han encontrado formas de hacer jailbreak al programa y hacer que el chatbot haga precisamente eso. En octubre, investigadores de la Universidad de Brown descubrieron que el uso de idiomas menos comunes como el zulú y el gaélico podía eludir las restricciones de ChatGPT.

OpenAI enfatizó la necesidad de mantenerse al tanto de las amenazas en constante evolución y destacó su enfoque para asegurar sus modelos de IA, incluyendo la transparencia, colaborar con otros desarrolladores de IA y aprender de ataques cibernéticos del mundo real.

La semana pasada, más de 200 organizaciones, incluyendo OpenAI, Microsoft, Anthropic y Google, se unieron a la Administración Biden para formar el Instituto de Seguridad de IA y el Consorcio del Instituto de Seguridad de IA de EE. UU. (AISIC), con el objetivo de desarrollar inteligencia artificial de manera segura, combatir deepfakes generados por IA y abordar preocupaciones de ciberseguridad.

"Al continuar innovando, investigando, colaborando y compartiendo, dificultamos que los actores maliciosos permanezcan sin ser detectados en todo el ecosistema digital y mejoramos la experiencia para todos los demás", dijo OpenAI.

Editado por Ryan Ozawa. Actualizado para agregar un comentario de Microsoft.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.