Anthropic demanda al Pentágono por la etiqueta de riesgo en la cadena de suministro

Anthropic emprende acciones legales contra el Departamento de Defensa de EE. UU.

Last Updated:
Anthropic emprende acciones legales contra el Departamento de Defensa de EE. UU.
  • Anthropic demanda al Departamento de Defensa de EE. UU. tras ser calificado de «riesgo en la cadena de suministro».
  • La demanda sostiene que la designación viola los derechos de la Primera Enmienda y perjudica los contratos.
  • Los empleados de la industria de la IA apoyan a Anthropic por preocupaciones sobre la vigilancia y las armas autónomas.

La empresa de inteligencia artificial Anthropic ha presentado dos demandas contra el Departamento de Defensa de EE. UU., impugnando una reciente decisión gubernamental que calificaba a la empresa como un «riesgo en la cadena de suministro». La acción legal sigue a una designación formal emitida por el Pentágono la semana pasada que, en la práctica, prohíbe a los contratistas gubernamentales utilizar la tecnología de Anthropic.

Según los informes, la empresa argumenta que la medida fue ilegal y violó las protecciones constitucionales, y que supone grandes riesgos para sus relaciones comerciales actuales y futuras.

Anthropic desafía la inclusión en listas negras del gobierno

Anthropic presentó sus demandas el lunes en el Tribunal de Distrito de EE. UU. para el Distrito Norte de California y en el Tribunal de Apelaciones del Circuito de Washington, D.C. Las presentaciones legales se produjeron días después de que el Departamento de Defensa designara formalmente a la empresa como un riesgo en la cadena de suministro, una clasificación que, según la firma, nunca se había aplicado antes a una empresa con sede en EE. UU.

La designación se produjo tras un anuncio del Pentágono de que las organizaciones que mantienen negocios con el gobierno federal deben dejar de utilizar los sistemas de IA de Anthropic. Según la empresa, la directiva amenaza sus relaciones comerciales con empresas que también colaboran con agencias federales.

En la demanda de California, Anthropic sostiene que las acciones del gobierno constituyen una represalia contra la empresa por negarse a cumplir lo que describió como demandas ideológicas. La demanda establece que la designación vulnera los derechos de la empresa bajo la Primera Enmienda y excede la autoridad del poder ejecutivo.

Anthropic afirmó que la decisión del gobierno podría poner en peligro cientos de millones de dólares en contratos privados y crear incertidumbre sobre futuras asociaciones.

Salvaguardas de la IA y uso militar en el centro de disputa

El conflicto surge de desacuerdos sobre cómo pueden ser utilizados los sistemas de IA de Anthropic por el ejército estadounidense. La empresa ha intentado implementar salvaguardas destinadas a evitar que sus modelos apoyen programas nacionales de vigilancia masiva o operen sistemas de armas letales totalmente autónomos.

El modelo de IA insignia de Anthropic, Claude, se ha integrado en los sistemas del Departamento de Defensa durante el último año y anteriormente era el único modelo de IA aprobado para su uso en entornos clasificados. Según los informes citados en la demanda, la tecnología se ha utilizado en ciertas operaciones militares, incluyendo la asistencia en decisiones de objetivos en el conflicto en curso que involucra a Irán.

A pesar de la disputa, Anthropic declaró que sigue comprometida con el apoyo a iniciativas de seguridad nacional y que anteriormente ha trabajado con el Departamento de Defensa para adaptar su tecnología a casos de uso especializados.

La disputa legal ha llamado la atención dentro del sector de la inteligencia artificial. Casi 40 empleados de empresas como Google y OpenAI presentaron un escrito judicial apoyando los esfuerzos de Anthropic para limitar ciertos usos de sistemas avanzados de IA.

Relacionado: El ejército estadounidense utilizó a Claude de Anthropic en ataques a Irán horas después de la prohibición de Trump

Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.