Grupos de Extrema Derecha Utilizan IA Para Difundir Deepfakes de Hitler: Informe

Los videos generados por inteligencia artificial de Adolf Hitler buscan despertar simpatía, recibiendo millones de visitas en plataformas sociales.

Por Jason Nelson

3 min lectura

Grupos de extrema derecha están aprovechando la inteligencia artificial para difundir videos deepfake de Adolf Hitler y otras imágenes pro-nazis en un intento de generar simpatía por el tirano, según un informe reciente del Instituto para el Diálogo Estratégico (ISD), una organización sin ánimo de lucro con sede en el Reino Unido.

Fundado en 2006, el instituto es una organización de defensa política que rastrea la desinformación y el discurso de odio en línea. Según su informe más reciente, el ISD señaló que se utilizaron generadores de voz de IA para crear versiones en inglés de los discursos de Hitler, y que estos videos acumularon más de 50 millones de visualizaciones en X, YouTube, TikTok e Instagram en 2024.

"Las plataformas de redes sociales han luchado durante mucho tiempo con la propagación de ideologías neonazis, pero la glorificación directa de Hitler y el revisionismo en torno a su papel en el Holocausto presentan una amenaza nueva y única”, dijo la Directora de Tecnología de la sucursal estadounidense del instituto, Isabelle Frances-Wright, a Decrypt. “La inteligencia artificial ha exacerbado aún más esta amenaza, permitiendo a actores malintencionados difundir la retórica de Hitler a una audiencia más amplia y joven."

El ISD informó que muchos videos de TikTok presentaban clips de 20-30 segundos de discursos de Hitler en inglés con música de fondo, promoviendo mensajes antisemitas, anti-musulmanes, anti-inmigrantes y supremacistas blancos.

“El contenido de odio, ya sea legal o no, tiende a volverse viral en la mayoría de las plataformas de redes sociales”, dijo el Profesor de Estudios de Información de la UCLA Ramesh Srinivasan a Decrypt.

Desde agosto, videos y publicaciones de Hitler e iconografía nazi han obtenido más de 28,4 millones de visualizaciones en X, TikTok e Instagram, según el informe.

"Los analistas pudieron detectar fácilmente contenido en X que probablemente violaba sus políticas, con solo 11 publicaciones recibiendo más de 11,2 millones de visitas en un período de una semana”, señaló el informe. “Este contenido estaba más fácilmente disponible que en otras plataformas a través de búsquedas básicas."

En una actualización de sus políticas en 2023, X dijo que la plataforma prohíbe el "contenido odioso", incluyendo incitación, insultos, deshumanización e imágenes de odio, incluidas fotos de perfil, nombres de usuario o biografías de perfil.

“El desafío clásico que hemos estado tratando de regular es el papel de los algoritmos", explicó Srinivasan. "Estas reglas computacionales se aplican a todos los datos y publicaciones, y están entrenadas para promover contenido que es más probable que se vuelva viral. Como resultado, el contenido más visible suele ser el más perjudicial.”

Meta, TikTok y Google no respondieron de inmediato a las solicitudes de comentarios de Decrypt.

Srinivasan dijo que quienes estaban creando finalmente el contenido probablemente eran una mezcla de alborotadores y manipuladores políticos en ciernes: “En un nivel, está el hacker; en otro, más sofisticado, el targeting psicométrico y psicográfico”, dijo, haciendo referencia al papel que jugó Cambridge Analytica durante las elecciones presidenciales de EE. UU. en 2016.

“Esa es una gran parte de lo que impulsa internet en este momento”, dijo.

“Tiene efectos materiales reales, especialmente en lugares sin un medio de comunicación fuerte”, agregó. “La desinformación, los discursos de odio y los discursos marginales promovidos por aquellos con un gran número de seguidores están diseñados intencionalmente para volverse virales. Este tipo de contenido capta la atención, pero también nos está dividiendo.”

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados