En Resumen
- El regulador eSafety de Australia reportó que las quejas sobre Grok se duplicaron en los últimos meses por generar imágenes sexualizadas.
- Julie Inman Grant advirtió que algunos informes involucran posible material de explotación sexual infantil generado por el chatbot de xAI.
- David Pocock propuso multas de $102.000 para quienes compartan deepfakes no consensuados y $510.000 para empresas que incumplan.
El jueves, el regulador independiente de seguridad en línea de Australia emitió una advertencia sobre el creciente uso de Grok para generar imágenes sexualizadas sin consentimiento, revelando que su oficina ha visto duplicarse las quejas sobre el chatbot de IA en los últimos meses.
La Comisionada de eSafety del país, Julie Inman Grant, señaló que algunos informes involucran posible material de explotación sexual infantil, mientras que otros se relacionan con adultos sometidos a abuso basado en imágenes.
"Estoy profundamente preocupada por el creciente uso de IA generativa para sexualizar o explotar a las personas, particularmente cuando están involucrados niños", publicó Grant en LinkedIn el jueves.
Los comentarios surgen en medio del creciente rechazo internacional contra Grok, un chatbot construido por la startup de IA xAI del multimillonario Elon Musk, que puede ser solicitado directamente en X para alterar las fotos de los usuarios.
Grant advirtió que la capacidad de la IA para generar "contenido hiperrealista" está facilitando que los actores maliciosos creen abuso sintético y dificultando que los reguladores, las fuerzas del orden y los grupos de seguridad infantil respondan.
A diferencia de competidores como ChatGPT, xAI de Musk ha posicionado a Grok como una alternativa "provocadora" que genera contenido que otros modelos de IA se niegan a producir. El pasado agosto, lanzó el "Modo Picante" específicamente para crear contenido explícito.
Grant advirtió que los códigos industriales aplicables de Australia requieren que los servicios en línea implementen salvaguardas contra el material de explotación sexual infantil, ya sea generado por IA o no.
El año pasado, eSafety tomó medidas de aplicación contra servicios de "nudify" ampliamente utilizados, forzando su retiro de Australia, agregó.
"Ahora hemos entrado en una era donde las empresas deben asegurar que los productos de IA generativa tengan salvaguardas y barreras apropiadas integradas en cada etapa del ciclo de vida del producto", afirmó Grant, señalando que eSafety "investigará y tomará las medidas apropiadas" utilizando toda su gama de herramientas regulatorias.
Deepfakes en aumento
En septiembre, Grant aseguró la primera sanción por deepfake de Australia cuando el tribunal federal multó al hombre de Gold Coast Anthony Rotondo con $212.000 (A$343.500) por publicar pornografía deepfake de mujeres australianas prominentes.
La Comisionada de eSafety llevó a Rotondo a los tribunales en 2023 después de que desafiara las notificaciones de eliminación, diciendo que "no significaban nada para él" ya que no era residente australiano, luego envió por correo electrónico las imágenes a 50 direcciones, incluida la oficina de Grant y medios de comunicación, según un informe de ABC News.
Los legisladores australianos están presionando por protecciones más fuertes contra los deepfakes no consensuados más allá de las leyes existentes.
El senador independiente David Pocock introdujo el Proyecto de Ley de Enmienda de Seguridad en Línea y Otra Legislación (Mi Cara, Mis Derechos) 2025 en noviembre, que permitiría que las personas que compartan deepfakes no consensuados sean multadas con $102.000 (A$165.000) por adelantado, con empresas enfrentando sanciones de hasta $510.000 (A$825.000) por incumplimiento de las notificaciones de eliminación.
"Ahora vivimos en un mundo donde cada vez más cualquiera puede crear un deepfake y usarlo como quiera", afirmó Pocock en una declaración, criticando al gobierno por estar "dormido al volante" en cuanto a protecciones de IA.

