En Resumen
- Grupo de vigilancia advierte sobre aumento de pornografía infantil generada por IA que circula en línea en foros de la dark web.
- Explican que los delincuentes intercambian consejos para evitar detección utilizando modelos de IA locales en lugar de los almacenados en la nube.
- El grupo de vigilancia teme que las imágenes falsas generadas por IA compliquen el trabajo policial y la protección de menores al perder tiempo identificándolas.
Un grupo de vigilancia de Internet con sede en el Reino Unido está sonando las alarmas sobre un aumento en la cantidad de material de abuso sexual infantil (CSAM) generado por inteligencia artificial que circula en línea, según un informe de The Guardian.
La Fundación de Vigilancia de Internet (IWF) dijo que los grupos de pedófilos están discutiendo e intercambiando consejos sobre cómo crear imágenes ilegales de niños utilizando modelos de IA de código abierto que se pueden descargar y ejecutar localmente en computadoras personales en lugar de ejecutarse en la nube, donde los controles y herramientas de detección generalizados pueden intervenir.
Fundada en 1996, la Fundación de Vigilancia de Internet es una organización sin fines de lucro dedicada a monitorear Internet en busca de contenido de abuso sexual, específicamente dirigido a niños.
"Hay una comunidad técnica dentro de los delincuente, especialmente en los foros de la web oscura o dark web, donde están discutiendo esta tecnología", dijo el Director de Tecnología de IWF, Dan Sexton, a the Guardian. "Están compartiendo imágenes, están compartiendo modelos de [IA]. Están compartiendo guías y consejos".
La proliferación de CSAM falsos complicaría las prácticas actuales de aplicación de la ley.
"Nuestra preocupación es que, si las imágenes de abuso sexual infantil generadas por IA se vuelven indistinguibles de las imágenes reales, existe el peligro de que los analistas de IWF puedan perder tiempo valioso intentando identificar y ayudar a las fuerzas del orden a proteger a niños que no existen", dijo Sexton en un informe anterior de IWF.
Los ciberdelincuentes que utilizan plataformas de IA generativa para crear contenido falso o deepfakes de todo tipo son una preocupación creciente para las fuerzas del orden y los responsables políticos. Los deepfakes son videos, imágenes o audios generados por IA que fabrican personas, lugares y eventos.
Para algunos en Estados Unidos, el problema también está en primer plano. En julio, el gobernador de Louisiana, John Bel Edwards, firmó el proyecto de ley legislativa SB175 que condenaría a cualquier persona declarada culpable de crear, distribuir o poseer imágenes deepfake ilegales que representen a menores a una pena obligatoria de cinco a 20 años de prisión, una multa de hasta $10.000 o ambas.
Ante la preocupación de que los deepfakes generados por IA puedan llegar a las elecciones presidenciales de Estados Unidos en 2024, los legisladores están redactando proyectos de ley para detener esta práctica antes de que pueda despegar.
El martes, los senadores estadounidenses Amy Klobuchar (D-MN), Josh Hawley (R-MO), Chris Coons (D-DE) y Susan Collins (R-ME) presentaron el Acta de Protección de las Elecciones contra la Inteligencia Artificial Engañosa, con el objetivo de detener el uso de la tecnología de IA para crear material de campaña engañoso.
Durante una audiencia del Senado de Estados Unidos sobre IA, el presidente de Microsoft, Brad Smith, sugirió utilizar políticas de Conozca a su Cliente o Know Your Customer (KYC), similares a las utilizadas en el sector bancario para identificar a los delincuentes que utilizan plataformas de IA con fines nefastos.
"Hemos sido defensores de eso", dijo Smith. "De modo que si hay abuso de los sistemas, la empresa que ofrece el servicio de [IA] sabe quién lo está haciendo y está en una mejor posición para evitar que suceda".
La IWF aún no ha respondido a la solicitud de comentarios de Decrypt.