En Resumen

  • Una nueva ley en Luisiana criminaliza deepfakes de abuso sexual infantil: hasta 20 años de prisión y multas de $10.000.
  • Los deepfakes generados por IA plantean desafíos para la ciberseguridad y la detección, según la nueva ley.
  • Luisiana se une a otros estados en la regulación de los deepfakes, incluyendo "porno vengativo": penas de hasta 30 años de prisión y multas de $50.000.

Una nueva ley de Luisiana que entrará en vigor el 1 de agosto criminalizará la producción y posesión de deepfakes que representen el abuso sexual de menores.

El proyecto de ley legislativo de Luisiana SB175, firmado por el gobernador de Luisiana, John Bel Edwards, establece que cualquier persona condenada por crear, distribuir o poseer imágenes deepfake ilegales que representen a menores podría enfrentar una pena obligatoria de 5 a 20 años de prisión, una multa de hasta $10.000 o ambas penas.

Los deepfakes son videos generados por inteligencia artificial que fabrican personas, lugares y eventos. Los deepfakes representan un desafío creciente para la ciberseguridad y las fuerzas del orden debido a los avances en la inteligencia artificial que hacen que los deepfakes sean cada vez más difíciles de detectar.

Louisiana, que ocupa el puesto 49 de 50 estados en el bienestar infantil y el segundo en pobreza, se une a varios otros estados de EE. UU., incluyendo California, Texas y Virginia, que han regulado o prohibido los deepfakes.

Otra sección del SB175, dirigida a plataformas en línea y sitios que alojan el llamado "porno vengativo", establece que cualquier persona que anuncie, distribuya o venda deepfakes sexuales que involucren a una persona sin su consentimiento, o que incluya a un menor de edad, podría enfrentar de 10 a 30 años de prisión obligatoria, una multa de hasta $50.000, o ambas cosas.

Si el tiempo tras las rejas y una multa cuantiosa no fueran suficientes, los legisladores de Louisiana se aseguraron de incluir que cualquier sentencia emitida bajo la nueva ley también incluiría "trabajo duro".

En mayo, los deepfakes de víctimas de asesinato infantil se volvieron virales en las redes sociales después de ser subidos a TikTok. Uno de los clips mostraba una recreación generada por IA de Royalty Marie Floyd, cuya abuela fue acusada de su asesinato en 2018.

En junio, el Secretario General de la ONU, António Guterres, advirtió sobre el uso de la IA y los deepfakes en las redes sociales para alimentar el odio y la violencia en zonas de conflicto.

"Nos estamos adentrando en una era en la que ya no podemos creer lo que vemos", dijo Marko Jak, cofundador y CEO de Secta Labs con sede en Austin, a Decrypt en una entrevista. "En este momento, es más fácil porque los deepfakes aún no son tan buenos y a veces se puede ver que es obvio".

Las agencias de aplicación de la ley ya han dado la alarma sobre los delincuentes que utilizan deepfakes para estafas y extorsiones. El mes pasado, el Buró Federal de Investigaciones de EE. UU. dijo que la agencia continúa recibiendo informes de víctimas, incluidos menores, cuyas fotos y videos se utilizaron en contenido explícito.

Citando el posible mal uso de su última plataforma de voz generada por IA, Voicebox, Meta dijo que no la lanzaría al público.

"Si bien creemos que es importante ser abiertos con la comunidad de IA y compartir nuestra investigación para avanzar en el estado del arte en IA", dijo el portavoz de Meta a Decrypt en un correo electrónico. "También es necesario encontrar el equilibrio adecuado entre la apertura y la responsabilidad".

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.