Por Jason Nelson
6 min lectura
La plaga de la creación maliciosa de deepfakes se ha extendido mucho más allá del ámbito de las celebridades y figuras públicas, y un informe sobre imágenes íntimas no consensuales (NCII) encuentra que la práctica solo crece a medida que los generadores de imágenes evolucionan y se multiplican.
"Desvestir con IA" está en aumento, según un informe de la empresa de análisis de redes sociales Graphika, que describe la práctica como el uso de herramientas de IA generativa ajustadas para eliminar la ropa de las imágenes subidas por los usuarios.
La comunidad de juegos y transmisiones en Twitch lidió con el problema a principios de enero de 2023 cuando el destacado presentador Brandon 'Atrioc' Ewing reveló accidentalmente que había estado viendo deepfakes pornográficos generados por IA de streamers femeninas a las que llamaba amigas, según un informe de Kotaku.
Ewing regresó a la plataforma en marzo, arrepentido e informando sobre las semanas de trabajo que había realizado para mitigar el daño que había causado. Pero el incidente abrió las compuertas para toda una comunidad en línea.
El informe de Graphika muestra que el incidente fue solo una gota en el océano.
"Utilizando datos proporcionados por Meltwater, medimos el número de comentarios y publicaciones en Reddit y X que contenían enlaces de referencia a 34 sitios web y 52 canales de Telegram que ofrecen servicios sintéticos de NCII", escribió el analista de inteligencia de Graphika, Santiago Lakatos. "Estos sumaron 1.280 en 2022 en comparación con más de 32.100 hasta ahora este año [2023], lo que representa un aumento del 2.408% en volumen año tras año".
Graphika, con sede en Nueva York, dice que la explosión en NCII muestra que las herramientas han pasado de ser discutidas en foros de nicho a convertirse en una industria emergente.
"Estos modelos permiten a un mayor número de proveedores crear fácil y económicamente NCII fotorrealistas a gran escala", dijo Graphika. "Sin estos proveedores, sus clientes necesitarían alojar, mantener y ejecutar sus propios modelos de difusión de imágenes personalizados, un proceso que consume tiempo y a veces costoso".
Graphika advierte que el aumento en la popularidad de las herramientas de desnudar con IA podría llevar no solo a la creación de material pornográfico falso, sino también al acoso dirigido, la extorsión sexual y la generación de material de abuso sexual infantil (CSAM).
Según el informe de Graphika, los desarrolladores de este tipo de herramientas se anuncian en las redes sociales para llevar a los posibles usuarios a sus sitios web, chats privados de Telegram o servidores de Discord donde se pueden encontrar las herramientas.
"Algunos proveedores son explícitos en sus actividades, afirmando que ofrecen servicios de 'desnudar' y publicando fotos de personas a las que afirman haber 'desnudado' como prueba", escribió Graphika. "Otros son menos explícitos y se presentan como servicios de arte con IA o galerías de fotos Web3, pero incluyen términos clave asociados con NCII sintético en sus perfiles y publicaciones".
Si bien este tipo de herramientas IAs generalmente se centran en imágenes al desnudo, también se han utilizado para crear videos deepfakes utilizando la apariencia de celebridades, incluyendo a la personalidad de YouTube Mr. Beast y al icónico actor de Hollywood Tom Hanks.
Algunos actores como Scarlett Johansson y el actor indio Anil Kapoor están recurriendo al sistema legal para combatir la amenaza continua de los deepfakes de IA. Sin embargo, mientras que los artistas principales pueden recibir más atención de los medios, las artistas para adultos dicen que rara vez se escuchan sus voces.
"Es realmente difícil", dijo la legendaria actriz para adultos y jefa de Star Factory PR, Tanya Tate, a Decrypt. "Si alguien está en el mainstream, seguramente es mucho más fácil".
Incluso sin el auge de la inteligencia artificial y la tecnología deepfake, Tate explicó que las redes sociales ya están llenas de cuentas falsas que utilizan su imagen y contenido. No ayuda el estigma continuo al que se enfrentan las trabajadoras sexuales, lo que obliga a ellas y a sus seguidores a permanecer en las sombras.
En octubre de 2023, la firma británica de vigilancia en internet, Internet Watch Foundation (IWF), en un informe separado, señaló que se encontraron más de 20.254 imágenes de abuso infantil en un solo foro de la dark web en tan solo un mes. La IWF advirtió que la pornografía infantil generada por inteligencia artificial podría "abrumar" internet.
Gracias a los avances en la generación de imágenes de IA, la IWF advierte que la pornografía deepfake ha avanzado hasta el punto en que se ha vuelto cada vez más complejo distinguir entre imágenes generadas por IA e imágenes auténticas, lo que lleva a las fuerzas del orden a perseguir fantasmas en línea en lugar de víctimas reales de abuso.
"Entonces está esa cosa continua de que no puedes confiar en si las cosas son reales o no", dijo Dan Sexton, CTO de Internet Watch Foundation, a Decrypt. "Las herramientas que nos dirán si las fotos o videos son reales o no, no son 100% creíbles, y por lo tanto, tampoco puedes confiar en ellas".
En cuanto a Ewing, Kotaku informó que el streamer regresó diciendo que estaba trabajando con periodistas, tecnólogos, investigadores y mujeres afectadas por el incidente desde su transgresión en enero de 2023. Ewing también dijo que envió fondos al bufete de abogados Morrison Cooper de Ryan Morrison, con sede en Los Ángeles, para brindar servicios legales a cualquier mujer en Twitch que necesitara su ayuda para emitir avisos de eliminación a los sitios que publicaban imágenes de ellas.
Ewing agregó que recibió investigaciones sobre la profundidad del problema de deepfake de la misteriosa investigadora de deepfake Genevieve Oh.
"Traté de encontrar los 'puntos brillantes' en la lucha contra este tipo de contenido", dijo Ewing.
Editado por Ryan Ozawa.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.