En Resumen

  • Microsoft y Meta lanzan políticas contra anuncios políticos engañosos por IA, protegiendo la integridad electoral.
  • Microsoft introdujo "Credenciales de contenido" y un Centro de Comunicaciones Electorales para asegurar transparencia y seguridad en las campañas.
  • Meta ahora exige a los anunciantes revelar uso de IA en anuncios políticos, combatiendo desinformación y deepfakes en plataformas.

Microsoft está intensificando los esfuerzos para frenar la creación de anuncios políticos engañosos, uniéndose a la empresa matriz de Facebook, Meta, en la implementación de nuevas políticas esta semana dirigidas a los engañosos anuncios políticos generados por IA de cara a la temporada electoral de 2024.

En una publicación de blog  realizada el martes, el presidente de Microsoft, Brad Smith, y Teresa Hutson, vicepresidenta de Tecnología para los Derechos Fundamentales, explicaron cómo el gigante tecnológico abordará la IA en la publicidad política.

"El mundo en 2024 puede ver a múltiples estados autoritarios buscar interferir en los procesos electorales", dijo Microsoft. "Y pueden combinar técnicas tradicionales con IA y otras nuevas tecnologías para amenazar la integridad de los sistemas electorales".

Smith y Hutson dijeron que el compromiso de protección electoral de Microsoft para los votantes incluye "información transparente y autoritaria" sobre las elecciones, que los candidatos tengan la capacidad de confirmar el origen del material de campaña y que tengan un recurso cuando la inteligencia artificial distorsione su imagen o contenido. El compromiso también abordó la protección de las campañas políticas contra amenazas cibernéticas.

Para ayudar a las campañas a mantener el control de su contenido, Microsoft dijo que está lanzando "Credenciales de contenido como servicio", una nueva herramienta que utiliza la marca de agua digital de la Coalición de Procedencia y Autenticidad de Contenido que utiliza la criptografía para codificar detalles sobre el origen del contenido. Microsoft también está lanzando un Centro de Comunicaciones Electorales para ayudar a asegurar las elecciones.

"Ninguna persona, institución o empresa puede garantizar que las elecciones sean libres y justas", dijo Microsoft. "Pero, al dar un paso adelante y trabajar juntos, podemos lograr avances significativos en la protección del derecho de todos a elecciones libres y justas".

Microsoft aún no ha respondido a la solicitud de comentarios de Decrypt.

Por su parte, Meta, el gigante de las redes sociales, está enfocándose en la desinformación y los anuncios políticos engañosos en sus diversas plataformas, anunciando el miércoles que las campañas políticas deben revelar el uso de IA.

"En el Año Nuevo, los anunciantes que publiquen sobre temas sociales, elecciones y política en Meta deberán revelar si la imagen o el sonido ha sido creado o alterado digitalmente, incluyendo con IA, para mostrar a personas reales haciendo o diciendo cosas que no han hecho o dicho", escribió en Twitter el presidente de Asuntos Globales de Meta, Nick Clegg wrote.

Clegg explicó que los anunciantes deben completar un proceso de autorización e incluir un descargo de responsabilidad que indique quién pagó por el anuncio.

La nueva política de Meta establece que los anunciantes deben revelar siempre que un anuncio relacionado con temas sociales, elecciones y anuncios políticos contenga imágenes o videos fotorrealistas y audio diseñado para sonar o parecerse a un humano.

Según Meta, la política incluye anuncios que presentan una imagen generada por IA o un deepfake de una persona haciendo o diciendo algo que nunca hizo. La política también incluye anuncios que utilizan imágenes realistas o metraje manipulado para tergiversar un "evento" inexistente.

Meta dice que la nueva política no se aplica a ajustes de tamaño de imagen, recorte, corrección de color o mejora de imagen, a menos que los cambios sean "consecuentes o relevantes para la afirmación, aseveración o problema planteado en el anuncio".

"Esta política entrará en vigor en el nuevo año y será obligatoria a nivel mundial", dijo Meta.

Meta aún no ha respondido a la solicitud de comentarios de Decrypt.

Con el avance rápido de la IA generativa, los responsables de la formulación de políticas, las empresas y las fuerzas del orden intentan ponerse al día. Sin embargo, con nuevas herramientas de IA que surgen a diario, es una batalla cuesta arriba combatir los deepfakes.

El mes pasado, una nueva IA de "intercambio de caras" llamada FaceFusion mostró lo rápido que se puede intercambiar el rostro de una persona por otro utilizando el modelo gratuito y de código abierto.

Los ciberdelincuentes también han recurrido a modelos de IA generativa para acelerar los ataques de phishing. En julio, se descubrió en la Darkweb un clon malicioso de ChatGPT llamado WormGPT que podía utilizarse para lanzar ataques de correo electrónico.

Chatbots como ChatGPT y su primo malicioso utilizan IA generativa para crear texto, imágenes y videos basados en las indicaciones del usuario. Otros modelos de IA de la Darkweb a los que recurren los ciberdelincuentes incluyen FraudGPT, DarkBert y DarkBart.

Y un informe de octubre de la firma de ciberseguridad SlashNext señaló que los ataques de phishing por correo electrónico han aumentado un 1.265% desde el lanzamiento de ChatGPT de OpenAI. Los anuncios generados por IA en la televisión pueden ser más fáciles de manejar, pero la propagación de deepfakes de IA en línea ha hecho sonar las alarmas de los vigilantes de Internet.

"Así que está esa cosa continua de que no puedes confiar en si las cosas son reales o no", dijo anteriormente Dan Sexton, CTO de Internet Watch Foundation, a Decrypt. "Las cosas que nos dirán si las cosas son reales o no, no son 100% seguras, y por lo tanto, tampoco puedes confiar en ellas".

En agosto, la Comisión Federal de Elecciones de Estados Unidos abordó los deepfakes generados por IA después de una petición de la organización sin fines de lucro Public Citizen que solicitó a la agencia que regule la tecnología.

El mes pasado, un grupo bipartidista de senadores de Estados Unidos propuso un proyecto de ley llamado "Ley No Fakes", que, de ser aprobada, criminalizaría el uso no autorizado de la imagen de una persona en una canción, foto o video sin su permiso. La ley conllevaría una multa de $5.000 por cada infracción, además de los daños, y se aplicaría a cualquier individuo, incluso 70 años después de su muerte.

Editado por Ryan Ozawa.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.