En Resumen
- Los deepfakes generados por IA se vuelven más desafiantes de detectar a medida que los generadores de imágenes se vuelven más avanzados.
- Los líderes mundiales y la aplicación de la ley están preocupados por los peligros de los deepfakes en las redes sociales y las zonas de conflicto.
- La tecnología blockchain y la sabiduría de la multitud podrían ser soluciones para abordar el problema de los deepfakes.
A medida que los generadores de imágenes de IA se vuelven más avanzados, detectar deepfakes se está volviendo más desafiante que nunca. La aplicación de la ley y los líderes mundiales continúan sonando la alarma sobre los peligros de los deepfakes generados por IA en las redes sociales y en zonas de conflicto.
"Estamos entrando en una era en la que ya no podemos creer lo que vemos", dijo Marko Jak, cofundador y CEO de Secta Labs, a Decrypt en una entrevista. "En este momento, es más fácil porque los deepfakes (noticias falsas) aún no son tan buenos y a veces se puede ver que es obvio".
Según Jak, no estamos tan lejos del punto en el que ya no sea posible discernir una imagen falsa a simple vista, quizás falte un año para eso. Y él debería saberlo: Jak es el CEO de una empresa generadora de imágenes de IA.
Jak co-fundó Secta Labs en 2022; la startup de inteligencia artificial generativa con sede en Austin que se enfoca en crear imágenes de alta calidad generadas por IA. Los usuarios pueden cargar fotos de sí mismos y convertirlas en retratos y avatares generados por IA.
#NewProfilePic courtesy @sectalabs haha 🔥🔥 pic.twitter.com/WVrb24xGGc
— Marko (@markojak_) June 13, 2023
Como explica Jak, Secta Labs considera a los usuarios como los propietarios de los modelos de IA generados a partir de sus datos, mientras que la empresa es simplemente custodio que ayuda a crear imágenes a partir de estos modelos.
El posible mal uso de modelos de IA más avanzados ha llevado a los líderes mundiales a pedir una acción inmediata sobre la regulación de la IA y ha llevado a las empresas a decidir no lanzar sus herramientas avanzadas al público.
La semana pasada, después de anunciar su nueva plataforma de voz generada por inteligencia artificial llamada Voicebox, Meta dijo que no lanzaría la IA al público.
"Si bien creemos que es importante ser abiertos con la comunidad de IA y compartir nuestra investigación para avanzar en el estado del arte en IA", dijo un portavoz de Meta a Decrypt en un correo electrónico. "También es necesario encontrar el equilibrio adecuado entre la apertura y la responsabilidad".
A principios de este mes, el Buró Federal de Investigaciones de EE. UU. advirtió sobre estafas de extorsión de deepfakes generadas por IA y criminales utilizando fotos y videos tomados de las redes sociales para crear contenido falso.
Jack dijo que la respuesta para combatir las deepfakes, puede no estar en ser capaz de detectar un deepfake, sino en ser capaz de exponerlos.
"La IA es la primera forma en que podrías detectar [un deepfake]", dijo Jak. "Hay personas construyendo inteligencia artificial a la que puedes ingresar una imagen como un video y la IA puede decirte si fue generada por IA".
La IA generativa y el potencial uso de imágenes generadas por IA en cine y televisión es un tema candente en la industria del entretenimiento. Los miembros de SAG-AFTRA votaron antes de entrar en negociaciones contractuales para autorizar una huelga, una preocupación significativa, la inteligencia artificial.
Jak agregó que el desafío es la carrera armamentista de la IA que se desarrolla a medida que la tecnología se vuelve más avanzada y los actores malintencionados crean deepfakes más avanzados para contrarrestar la tecnología diseñada para detectarlos.
Reconociendo que la blockchain ha sido sobreutilizada, e incluso algunos podrían decir que sobrevalorada como solución para problemas del mundo real, Jak dijo que la tecnología y las criptomonedas podrían resolver el problema de los deepfakes.
Pero, aunque la tecnología puede resolver muchos problemas con los deepfakes, Jak dijo que una solución más sencilla, como la sabiduría de la multitud, podría ser la clave.
"Una de las cosas que vi que hizo Twitter, que creo que fue una buena idea, son las notas de la comunidad, donde la gente puede agregar algunas notas para dar contexto al tweet de alguien", dijo Jak. "Un tweet puede ser desinformación al igual que un deepfake", dijo. Jak agregó que sería beneficioso para las corporaciones de redes sociales pensar en formas de aprovechar sus comunidades para validar si el contenido circulado es auténtico.
"La blockchain puede abordar problemas específicos, pero la criptografía podría ayudar a autenticar el origen de una imagen", dijo. "Esto podría ser una solución práctica, ya que se ocupa de la verificación de la fuente en lugar del contenido de la imagen, independientemente de lo sofisticado que sea el deepfake".