- Anthropic poursuit le département de la Défense américain après avoir été qualifiée de « risque de la chaîne d’approvisionnement ».
- Le procès affirme que cette désignation viole les droits du Premier Amendement et nuit aux contrats.
- Les employés de l’industrie de l’IA soutiennent Anthropic concernant les préoccupations concernant la surveillance et les armes autonomes.
La société d’intelligence artificielle Anthropic a intenté deux procès contre le Département de la Défense des États-Unis, contestant une récente décision gouvernementale qui qualifiait l’entreprise de « risque de la chaîne d’approvisionnement ». Cette action en justice fait suite à une désignation officielle émise la semaine dernière par le Pentagone qui interdit effectivement aux contractants gouvernementaux d’utiliser la technologie d’Anthropic.
Selon des rapports, l’entreprise soutient que la mesure était illégale et violait les protections constitutionnelles, et qu’elle présente des risques majeurs pour ses relations commerciales actuelles et futures.
L’anthrope conteste la mise sur liste noire du gouvernement
Anthropic a déposé ses poursuites lundi devant la Cour de district des États-Unis pour le district nord de Californie et devant la Cour d’appel des États-Unis pour le circuit de Washington, D.C. Les dépôts juridiques sont intervenus quelques jours après que le Département de la Défense a officiellement désigné l’entreprise comme un risque de chaîne d’approvisionnement, une classification que la société affirme n’avoir jamais été appliquée auparavant à une entreprise basée aux États-Unis.
Cette désignation a suivi une annonce du Pentagone selon laquelle les organisations faisant affaire avec le gouvernement fédéral doivent cesser d’utiliser les systèmes d’IA d’Anthropic. Selon la société, la directive menace ses relations commerciales avec des sociétés qui collaborent également avec des agences fédérales.
Dans le procès en Californie, Anthropic soutient que les actions du gouvernement constituent une représaille contre l’entreprise pour avoir refusé de répondre à ce qu’elle a qualifié de demandes idéologiques. Le dépôt indique que cette désignation porte atteinte aux droits de la société au titre du Premier Amendement et dépasse l’autorité de la branche exécutive.
Anthropic a déclaré que la décision du gouvernement pourrait mettre en péril des centaines de millions de dollars de contrats privés et créer de l’incertitude quant aux partenariats futurs.
Garanties de l’IA et utilisation militaire au centre du litige
Le conflit découle de désaccords sur la manière dont les systèmes d’IA d’Anthropic pourraient être utilisés par l’armée américaine. L’entreprise a cherché à mettre en place des mesures de protection visant à empêcher ses modèles de soutenir des programmes de surveillance de masse nationaux ou d’exploiter des systèmes d’armes létales entièrement autonomes.
Le modèle d’IA phare d’Anthropic, Claude, a été intégré dans les systèmes du Département de la Défense au cours de l’année écoulée et était auparavant le seul modèle d’IA approuvé pour une utilisation dans des environnements classifiés. Selon les rapports cités dans la plainte, la technologie a été utilisée dans certaines opérations militaires, notamment pour aider à prendre des décisions de ciblage dans le conflit en cours impliquant l’Iran.
Malgré le différend, Anthropic a déclaré rester engagée à soutenir les initiatives de sécurité nationale et a précédemment collaboré avec le Département de la Défense pour adapter sa technologie à des cas d’usage spécialisés.
Le litige judiciaire a attiré l’attention du secteur de l’intelligence artificielle. Près de 40 employés issus d’entreprises telles que Google et OpenAI ont déposé un mémoire soutenant les efforts d’Anthropic pour limiter certaines utilisations de systèmes d’IA avancés.
À lire aussi : L’armée américaine a utilisé Claude d’Anthropic dans les frappes iraniennes quelques heures après l’interdiction de Trump
Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.