En Resumen

  • Anthropic registró el AnthroPAC ante la FEC, un comité financiado por empleados con límite de $5.000 por contribuyente.
  • La empresa enfrenta un conflicto con Trump desde febrero, cuando ordenó a agencias federales dejar de usar Claude tras disputas con el Pentágono.
  • Una jueza federal bloqueó la semana pasada la designación de Anthropic como "riesgo en la cadena de suministro", citando violaciones a la Primera Enmienda.

El gigante de la inteligencia artificial Anthropic ha presentado documentos ante la Comisión Federal de Elecciones para crear un comité de acción política, lo que señala un movimiento más profundo hacia la política estadounidense en medio de la batalla por la regulación de la IA y su propio conflicto con la Casa Blanca.

La empresa con sede en San Francisco registró el Anthropic PBC Political Action Committee, conocido como AnthroPAC, en una presentación el viernes. El comité está estructurado como un fondo segregado independiente vinculado a la empresa y autorizado para realizar donaciones políticas financiadas con contribuciones de sus empleados. Según un reporte de Bloomberg, dichas contribuciones tienen un límite de $5.000 por empleado.

Los comités de acción política (PACs) financiados por empleados permiten a las empresas recaudar contribuciones voluntarias de sus trabajadores y distribuir esos fondos entre candidatos y comités políticos.

Otras empresas tecnológicas que han creado PACs políticos son Google, Microsoft y Amazon. En 2024, solo esos tres PACs aportaron más de $2,3 millones a candidatos políticos estadounidenses, según datos de financiamiento de campaña del grupo de investigación sin fines de lucro OpenSecrets. Si bien las contribuciones fueron tanto a republicanos como a demócratas, las donaciones se inclinaron hacia candidatos del Partido Republicano durante la temporada electoral de 2024.

El movimiento de Anthropic se produce en medio de un conflicto en escalada con la administración del presidente Donald Trump en torno al uso militar de sus sistemas de IA.

En febrero, Trump ordenó a las agencias federales dejar de usar la tecnología de Anthropic tras una disputa entre la empresa y el Pentágono sobre cómo el ejército podría implementar su modelo de IA Claude. A pesar de un ultimátum del Departamento de Defensa de Estados Unidos, Anthropic rechazó las exigencias del Pentágono de eliminar las salvaguardas que prohíben que el sistema sea usado para vigilancia masiva doméstica o armas letales completamente autónomas.

En marzo, Anthropic presentó una demanda federal cuestionando la decisión del gobierno de catalogar a la empresa como un "riesgo en la cadena de suministro" para la seguridad nacional, una designación que impedía a los contratistas del Pentágono hacer negocios con la firma. La empresa argumentó que la medida era una represalia por su negativa a flexibilizar las restricciones sobre los usos militares de su IA.

La semana pasada, la jueza federal Rita Lin emitió una medida cautelar preliminar que bloquea la aplicación de dicha designación, al determinar que las acciones del gobierno probablemente violaron los derechos de Anthropic bajo la Primera Enmienda y el debido proceso.

Anthropic no se ha pronunciado públicamente sobre la creación del PAC. Sin embargo, esto ocurre en un momento en que la legislación sobre inteligencia artificial es un tema creciente en Washington de cara a las elecciones intermedias de Estados Unidos, y subraya cómo los desarrolladores de IA esperan influir en las políticas de cara a 2027. En febrero, según un reporte de CNBC, Anthropic donó $20 millones a Public First Action, un grupo que apoya los esfuerzos por desarrollar salvaguardas para la IA.

Anthropic no respondió de inmediato a una solicitud de comentarios de Decrypt.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.