
Le géant de l'intelligence artificielle Anthropic a déposé des documents auprès de la Commission électorale fédérale (FEC) pour créer un comité d'action politique, signalant une implication plus profonde dans la politique américaine alors que la lutte autour de la politique en matière d'IA et sa propre bataille continue avec la Maison Blanche s'intensifient.
La société basée à San Francisco a enregistré le comité d'action politique Anthropic PBC, connu sous le nom d'AnthroPAC, dans un dépôt vendredi. Le comité est structuré comme un fonds distinct et séparé lié à la société, et autorisé à effectuer des dons politiques financés par les contributions des employés. Selon un rapport de Bloomberg, ces contributions sont plafonnées à 5 000 $ par employé.
Les comités d'action politique (PAC) financés par les employés permettent aux entreprises de collecter des contributions volontaires de leurs employés et de distribuer ces fonds aux candidats et aux comités politiques.
Parmi les autres entreprises technologiques ayant créé des PAC politiques figurent Google, Microsoft et Amazon. En 2024, ces trois PAC ont à elles seules contribué à hauteur de plus de 2,3 millions de dollars aux candidats politiques américains, selon les données de financement de campagne du groupe de recherche à but non lucratif OpenSecrets. Bien que les contributions aient été destinées aux Républicains et aux Démocrates, les dons ont penché en faveur des candidats du GOP pendant la saison électorale 2024.
La démarche d'Anthropic intervient dans un contexte de conflit croissant avec l'administration du président Donald Trump concernant l'utilisation militaire de ses systèmes d'IA.
En février, Trump a ordonné aux agences fédérales de cesser d'utiliser la technologie d'Anthropic suite à un différend entre la société et le Pentagone sur la manière dont l'armée pourrait déployer son modèle d'IA Claude. Malgré un ultimatum du département américain de la Défense, Anthropic a refusé les demandes du Pentagone de supprimer les garde-fous qui interdisent l'utilisation du système pour la surveillance domestique de masse ou les armes létales entièrement autonomes.
En mars, Anthropic a intenté un procès fédéral contestant la décision du gouvernement de désigner la société comme un « risque pour la chaîne d'approvisionnement » de la sécurité nationale, une désignation qui interdisait aux contractants du Pentagone de faire affaire avec l'entreprise. La société a fait valoir que cette mesure était une mesure de représailles pour son refus d'assouplir les restrictions sur les utilisations militaires de son IA.
La semaine dernière, la juge de district américaine Rita Lin a émis une injonction préliminaire bloquant l'application de cette désignation, estimant que les actions du gouvernement violaient probablement le Premier amendement et les droits à une procédure régulière d'Anthropic.
Anthropic n'a pas commenté publiquement la création de ce PAC. Cependant, cela intervient alors que la législation sur l'intelligence artificielle est une question de plus en plus importante à Washington avant les élections de mi-mandat américaines, et souligne comment les développeurs d'IA espèrent influencer la politique d'ici 2027. En février, un rapport de CNBC a indiqué qu'en 2026, Anthropic avait fait don de 20 millions de dollars à Public First Action, un groupe soutenant les efforts pour développer des garde-fous en matière d'IA.
Anthropic n'a pas immédiatement répondu à une demande de commentaire de Decrypt.