En Resumen

  • Anthropic anunció la prohibición del uso de su chatbot Claude en campañas políticas debido a preocupaciones sobre la generación de información falsa.
  • La política de "mal uso electoral" de Anthropic incluyó medidas de advertencia y suspensión del acceso a sus servicios en caso de violación.
  • Anthropic se asoció con TurboVote para ofrecer a los usuarios información confiable sobre votación y redirigirlos a recursos no partidistas.

Si Joe Biden quiere un chatbot de inteligencia artificial inteligente y preciso para responder preguntas por él, su equipo de campaña tendrá que buscar mejor, ya que no podrá utilizar a Claude, el competidor de ChatGPT de Anthropic, según anunció la empresa hoy.

“No permitimos que los candidatos utilicen a Claude para construir chatbots que puedan pretender ser ellos, y no permitimos que nadie use a Claude para campañas políticas dirigidas”, anunció la empresa. Las violaciones a esta política serán recibidas con advertencias y, en última instancia, con la suspensión del acceso a los servicios de Anthropic.

La articulación pública de la política de "mal uso electoral" de Anthropic llega en un momento en que el potencial de la inteligencia artificial para generar en masa información falsa y engañosa, imágenes y videos está despertando alarmas en todo el mundo.

Meta implementó reglas en otoño pasado para restringir el uso de sus herramientas de inteligencia artificial en política, y OpenAI tiene políticas similares.

Anthropic dijo que sus protecciones políticas se dividen en tres categorías principales: desarrollar y hacer cumplir políticas relacionadas con temas electorales, evaluar y probar modelos contra posibles usos indebidos, y dirigir a los usuarios a información de votación precisa.

La política de uso aceptable de Anthropic —a la que todos los usuarios aparentemente aceptan antes de acceder a Claude— prohíbe la utilización de sus herramientas de IA para campañas políticas y esfuerzos de cabildeo. La empresa dijo que habrá advertencias y suspensiones del servicio para los infractores, con un proceso de revisión humana.

La empresa también realiza rigurosas "pruebas de penetración" de sus sistemas: intentos agresivos y coordinados por parte de socios conocidos para hacer "jailbreak" u otro uso de Claude con fines nefastos.

"Probamos cómo responde nuestro sistema a indicaciones que violan nuestra política de uso aceptable, [por ejemplo] indicaciones que solicitan información sobre tácticas de supresión de votantes", explica Anthropic. Además, la empresa dijo que ha desarrollado una serie de pruebas para garantizar la "paridad política" —representación comparativa entre candidatos y temas.

Anthropic se asoció con TurboVote en los Estados Unidos, para ayudar a los votantes con información confiable en lugar de utilizar su herramienta de inteligencia artificial generativa.

“Si un usuario con base en EE. UU. solicita información de votación, aparecerá un aviso emergente que ofrecerá al usuario la opción de ser redirigido a TurboVote, un recurso de la organización no partidista Democracy Works”, explicó Anthropic, una solución que se implementará “en las próximas semanas”—con planes de agregar medidas similares en otros países próximamente.

Como Decrypt informó anteriormente, OpenAI, la empresa detrás de ChatGPT, está tomando medidas similares, redirigiendo a los usuarios al sitio web no partidista CanIVote.org.

Las iniciativas de Anthropic se alinean con un movimiento más amplio dentro de la industria tecnológica para abordar los desafíos que plantea la inteligencia artificial a los procesos democráticos. Por ejemplo, la Comisión Federal de Comunicaciones de EE. UU. recientemente prohibió el uso de voces deepfake generadas por IA en llamadas automáticas, una decisión que subraya la urgencia de regular la aplicación de la IA en el ámbito político.

Al igual que Facebook, Microsoft ha anunciado iniciativas para combatir los anuncios políticos engañosos generados por IA, introduciendo "Credenciales de Contenido como Servicio" y lanzando un Centro de Comunicaciones Electorales.

Según los candidatos que crean versiones de IA de sí mismos, OpenAI ya ha tenido que abordar el caso de uso específico. La empresa suspendió la cuenta de un desarrollador después de descubrir que crearon un bot que imitaba al candidato presidencial Dean Phillips. La medida se tomó después de que la organización sin fines de lucro Public Citizen presentara una petición abordando el mal uso de la IA en campañas políticas, pidiendo al regulador que prohíba la IA generativa en campañas políticas.

Anthropic declinó hacer más comentarios, y OpenAI no respondió a una consulta de Decrypt.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.