En Resumen

  • Científicos del MIT desarrollan defensa contra deepfakes mediante cambios de codificación en imágenes generadas por IA.
  • Proponen inmunizar imágenes con perturbaciones imperceptibles para evitar que modelos de IA creen deepfakes realistas.
  • Propuestas adicionales incluyen marcas de agua y colaboración de desarrolladores de plataformas de IA.

Las deepfakes o noticias falsas siguen siendo una preocupación crucial para las fuerzas del orden y los expertos en ciberseguridad, y las Naciones Unidas han dado la alarma sobre su papel en la propagación del odio y la desinformación en línea. Un equipo de científicos del MIT ahora afirma haber desarrollado una defensa novedosa contra la utilización de fotos reales como arma.

Durante una presentación en la Conferencia Internacional sobre Aprendizaje Automático de 2023 el martes, los investigadores explicaron que pequeños cambios de codificación pueden causar distorsiones significativas en las imágenes generadas por IA derivadas.

El equipo propuso específicamente mitigar el riesgo de deepfakes creados con modelos de difusión grandes mediante la adición de cambios pequeños o "ataques" a las imágenes que son difíciles de ver, pero que modifican el funcionamiento de los modelos, lo que hace que generen imágenes que no parecen reales.

"La idea clave es inmunizar las imágenes para hacerlas resistentes a la manipulación por parte de estos modelos", dijeron los investigadores. "Esta inmunización se basa en la inyección de perturbaciones adversarias imperceptibles diseñadas para interrumpir el funcionamiento de los modelos de difusión objetivo, obligándolos a generar imágenes irreales".

Un ataque de codificador de este tipo teóricamente desviaría todo el proceso de generación de difusión y evitaría la creación de imágenes falsas realistas.

Sin embargo, los investigadores del MIT reconocen que estos métodos requerirían la participación de los desarrolladores de plataformas de IA para implementarlos y no pueden depender de los usuarios individuales.

"La abundancia de datos fácilmente disponibles en Internet ha desempeñado un papel importante en los avances recientes en el aprendizaje profundo, pero también ha planteado preocupaciones sobre el posible mal uso de dichos datos durante el entrenamiento de los modelos", dijeron los investigadores.

También se han propuesto protecciones de imagen más convencionales, como las marcas de agua, como una forma de hacer que los deepfakes sean más detectables. Bibliotecas de fotos como Getty, Shutterstock y Canva utilizan marcas de agua para evitar el uso de contenido no pagado o sin licencia.

Las principales empresas de IA generativa OpenAI, Google y Microsoft recientemente plantearon la posibilidad de una iniciativa coordinada de marca de agua para facilitar la identificación de imágenes generadas por IA.

Siguiendo a las empresas de IA, los investigadores del MIT también propusieron el uso de marcas de agua, pero reconocieron que el software de detección de deepfakes o las marcas de agua no pueden proteger las imágenes de ser manipuladas en primer lugar.

"Aunque algunos métodos de detección de deepfakes son más efectivos que otros, ningún método único es infalible", dijeron los investigadores.

El equipo también reconoció que los generadores de imágenes y texto seguirán avanzando y que las medidas preventivas deberán seguir mejorando, o de lo contrario eventualmente serán fácilmente eludidas.

El MIT aún no ha respondido a la solicitud de comentarios de Decrypt.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.