En Resumen

  • Tres menores de Tennessee demandaron a xAI alegando que Grok generó material de abuso sexual infantil con sus fotografías reales.
  • El Center for Countering Digital Hate estimó que Grok produjo 23.338 imágenes sexualizadas de menores en solo 11 días de enero.
  • Las demandantes buscan $150.000 por violación bajo la Ley Masha, daños punitivos y una orden judicial permanente contra xAI.

Tres menores de Tennessee han demandado a xAI de Elon Musk en una acción colectiva federal, alegando que Grok generó material de abuso sexual infantil utilizando sus fotografías reales y que la empresa diseñó deliberadamente su chatbot de IA sin los estándares de seguridad de la industria, para luego lucrar con el resultado.

La demanda, presentada el lunes en el Distrito Norte de California, alega que Grok fue utilizado para crear y distribuir material de abuso sexual infantil (CSAM) generado por IA usando sus imágenes reales.

Las menores, identificadas como Jane Doe 1, 2 y 3, señalaron que el contenido alterado fue compartido en plataformas como Discord, Telegram y sitios de intercambio de archivos, causándoles un daño emocional duradero y perjuicio reputacional.

"xAI —y su fundador Elon Musk— vieron una oportunidad de negocio: una oportunidad para lucrar con la depredación sexual de personas reales, incluidos niños", se lee en la demanda. "Conociendo el tipo de contenido dañino e ilegal que podía —y sería— producido, xAI lanzó Grok, un modelo de inteligencia artificial generativa con funciones de creación de imágenes y videos que respondería a prompts para crear contenido sexual con la imagen o video real de una persona".

Las presuntas víctimas describen incidentes ocurridos entre mediados de 2025 y principios de 2026, cuando sus fotos reales fueron alteradas en imágenes explícitas y circularon en línea.

En uno de los casos, una de las víctimas fue alertada por un usuario anónimo que encontró carpetas con contenido generado por IA que se intercambiaba entre cientos de usuarios.

Las demandantes alegan que un perpetrador accedió a Grok a través de una aplicación de terceros que había licenciado la tecnología de xAI, una estructura que, según el expediente, xAI utilizó deliberadamente para distanciarse de la responsabilidad legal mientras continuaba lucrando con el modelo subyacente.

En el momento de mayor rechazo público en enero, Musk escribió en X que no tenía "conocimiento de ninguna imagen de menores desnudos", y añadió que "cuando se le pide generar imágenes, se negará a producir cualquier contenido ilegal".

Según un hallazgo del Center for Countering Digital Hate citado en la demanda, Grok produjo un estimado de 23.338 imágenes sexualizadas de menores entre el 29 de diciembre de 2025 y el 9 de enero de este año, aproximadamente una cada 41 segundos.

Las presuntas víctimas buscan daños de al menos $150.000 por violación bajo la Ley Masha, además de la devolución de ingresos, daños punitivos, honorarios de abogados y una orden judicial permanente, así como la restitución de ganancias bajo la Ley de Competencia Desleal de California.

Las demandas se acumulan

La demanda es una de las primeras en responsabilizar directamente a una empresa de IA por la presunta producción y distribución de CSAM generado por IA que representa a menores identificables, y llega mientras Grok enfrenta investigaciones simultáneas en los EE.UU., la UE, el Reino Unido, Francia, Irlanda y Australia.

"Cuando un sistema está diseñado intencionalmente para manipular imágenes reales y convertirlas en contenido sexualizado, el abuso resultante no es una anomalía, sino un resultado previsible", señaló Even Alex Chandra, socio de IGNOS Law Alliance, a Decrypt.

Chandra afirmó que los tribunales podrían no aceptar una simple defensa de plataforma, señalando que un sistema de IA generativa podría ser "tratado como una plataforma en términos de interacción con el usuario", pero "evaluado como un producto" al analizar el diseño de seguridad, con un "escrutinio particularmente estricto" aplicado en los casos de CSAM debido a las mayores obligaciones de protección infantil.

También agregó que los tribunales probablemente se centrarán en las medidas de seguridad, señalando que la empresa podría tener que demostrar "evaluaciones de riesgo y medidas de seguridad por diseño antes del lanzamiento", junto con mecanismos que bloqueen activamente los resultados dañinos.

Decrypt se comunicó con Musk a través de xAI y SpaceX para solicitar comentarios.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.