Las capacidades de la IA generativa para crear imágenes realistas son impresionantes, pero la Oficina Federal de Investigación de EE.UU. afirma que los delincuentes están utilizando deepfakes para extorsionar a sus víctimas.

"El FBI sigue recibiendo informes de víctimas, incluidos niños menores de edad y adultos no consentidores, cuyas fotos o vídeos fueron alterados para convertirlos en contenido explícito", dijo la agencia en una alerta PSA el lunes.

El FBI afirma que las fuerzas del orden recibieron el año pasado más de 7.000 denuncias de extorsión en línea dirigida a menores, con un aumento de las víctimas de las llamadas "estafas de sextorsión" que utilizan deepfakes desde abril.

Un deepfake es un tipo cada vez más común de contenido de vídeo o audio creado con inteligencia artificial que representa eventos falsos que son cada vez más difíciles de discernir como falsos, gracias a plataformas de IA generativa como Midjourney 5.1 y DALL-E 2 de OpenAI.

AD

En mayo, se hizo viral un deepfake del CEO de Tesla y Twitter, Elon Musk, realizado para estafar a inversionistas en criptomonedas. El vídeo compartido en las redes sociales contenía imágenes de Musk de entrevistas anteriores, editadas para encajar en la estafa.

No todos los deepfakes son maliciosos: un deepfake del Papa Francisco con una chaqueta blanca de Balenciaga se hizo viral a principios de este año y, más recientemente, también se han utilizado deepfakes generados por IA para devolver a la vida a víctimas de asesinato.

En sus recomendaciones, el FBI advierte contra el pago de cualquier rescate, ya que hacerlo no garantiza que los delincuentes no publiquen el deepfake de todos modos.

El FBI también aconseja precaución a la hora de compartir información y contenidos personales en línea, lo que incluye utilizar funciones de privacidad como hacer que las cuentas sean privadas, vigilar la actividad en línea de los niños y estar atento a comportamientos inusuales de personas con las que hayas interactuado en el pasado. La agencia también recomienda realizar búsquedas frecuentes de información personal y familiar en Internet.

AD

Otros organismos que han dado la voz de alarma son la Comisión Federal de Comercio de EE.UU., que ha advertido de que los delincuentes han estado utilizando deepfakes para engañar a víctimas desprevenidas para que envíen dinero tras crear un deepfake de audio de un amigo o familiar que dice que ha sido secuestrado.

"La inteligencia artificial ya no es una idea descabellada sacada de una película de ciencia ficción. Estamos viviendo con ella, aquí y ahora. Un estafador podría utilizar la IA para clonar la voz de tu ser querido", dijo la FTC en una alerta al consumidor en marzo, añadiendo que todo lo que necesita el delincuente es un breve clip de audio de la voz de un familiar para que la grabación parezca real.

El FBI aún no ha respondido a la solicitud de comentarios de Decrypt.

Stay on top of crypto news, get daily updates in your inbox.