Escándalo de Pornografía Escolar Usando IA Sacude Escuela Secundaria en Sídney, Australia

Un estudiante en Sídney, Australia, presuntamente utilizó inteligencia artificial para crear y distribuir imágenes explícitas de deepfake de compañeras de clase mientras aumenta la preocupación por el mal uso de la IA.

Por Jose Antonio Lanz

4 min lectura

Un estudiante de secundaria en Sídney, Australia, enfrenta una investigación policial y acciones disciplinarias después de presuntamente usar inteligencia artificial para crear imágenes deepfake pornográficas de sus compañeras de clase, marcando uno de los primeros incidentes importantes relacionados con la IA en un entorno educativo en Australia.

Un deepfake es una imagen falsa generada mediante algoritmos de deep learning. Es altamente realista y, dependiendo de la calidad, difícil de diferenciar de una foto real. Generalmente, son imágenes de contenido para adulto, aunque no necesariamente tienen que serlo.

El estudiante, cuyo nombre no fue revelado por la policía, presuntamente extrajo fotos de cuentas de redes sociales y eventos escolares para generar imágenes explícitas con IA de múltiples chicas. Luego distribuyó el contenido a través de perfiles falsos en redes sociales, según correos electrónicos enviados por funcionarios escolares a los padres, según informaron medios locales.

La Policía de Nueva Gales del Sur inició una investigación tras recibir informes de "imágenes inapropiadas producidas y distribuidas en línea", según The Guardian. La policía está trabajando tanto con el Comisionado de Seguridad Electrónica como con el Departamento de Educación para abordar el incidente.

"La escuela ha sido informada de que un estudiante masculino de año 12 presuntamente ha usado inteligencia artificial para crear un perfil que se asemeja a sus hijas y otras", decía el correo electrónico de la escuela a los padres afectados, según medios locales. "Desafortunadamente, se han utilizado fotos inocentes de redes sociales y eventos escolares".

Este no es un caso aislado. Aproximadamente 530.000 adolescentes en el Reino Unido se han encontrado con deepfakes de desnudos, según un estudio de Internet Matters, una organización sin fines de lucro con sede en Londres. El año pasado, noticias locales en Seattle, Washington, informaron que un adolescente compartió deepfakes de sus compañeros de clase en redes sociales. El año anterior, un grupo de estudiantes mujeres en Nueva Jersey descubrió que sus compañeros de clase usaron sus fotos vestidas como base para generar deepfakes de imágenes desnudas de ellas.

El problema parece estar extendiéndose a medida que la IA generativa facilita la creación de prácticamente cualquier cosa. Una encuesta del Centro para la Democracia y la Tecnología encontró que el 50% de los profesores de secundaria de EE.UU. conoce al menos un caso donde alguien de su escuela fue representado en contenido explícito generado por IA.

La Ministra de Educación de Nueva Gales del Sur, Prue Car, calificó el incidente como "aborrecible" durante una conferencia de prensa el jueves. "Habrá acciones disciplinarias para el estudiante", dijo Car, elogiando al subdirector de la escuela por su rápida acción al manejar la situación.

El Departamento de Educación enfatizó su postura de tolerancia cero hacia este tipo de comportamiento. "Nuestra máxima prioridad es asegurar que nuestros estudiantes se sientan seguros", dijo un portavoz del departamento a The Guardian. La escuela está proporcionando apoyo continuo de bienestar a los estudiantes afectados.

Este incidente sigue a un caso similar en Victoria en junio pasado, donde un estudiante de 17 años presuntamente creó imágenes explícitas generadas por IA de aproximadamente 50 compañeras de clase. Ese estudiante recibió una advertencia policial después de la investigación.

Los expertos legales señalan vacíos en la legislación actual para manejar contenido explícito generado por IA. El Senado australiano aprobó legislación en agosto de 2023 dirigida a la pornografía deepfake no consensual, mientras que defensores en EE.UU. impulsan la Ley de Prevención de Deepfakes de Imágenes Íntimas.

Otras iniciativas legales para abordar este problema incluyen la Ley de Responsabilidad de Deepfakes, la legislación anti-deepfakes de Singapur y el Acta de la UE sobre IA.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados