Anthropic подал в суд на Пентагон из-за маркировки риска в цепочке поставок

Anthropic предпринимает судебные иски против Министерства обороны США

Last Updated:
Anthropic предпринимает судебные иски против Министерства обороны США
  • Anthropic подала в суд на Министерство обороны США после того, как была признана «риском цепочки поставок».
  • Иск утверждает, что такое присвоение нарушает права по Первой поправке и наносит ущерб контрактам.
  • Сотрудники индустрии ИИ поддерживают Anthropic из-за опасений по поводу наблюдения и автономного оружия.

Компания Anthropic, занимающаяся искусственным интеллектом, подала два иска против Министерства обороны США, оспаривая недавнее решение правительства, в котором фирма была признана «риском для цепочки поставок». Это судебное разбирательство последовало за официальным указанием, выданным Пентагоном на прошлой неделе, который фактически запрещает государственным подрядчикам использовать технологии Anthropic.

Согласно сообщениям, компания утверждает, что мера была незаконной и нарушала конституционные гарантии, а также представляет серьёзные риски для её существующих и будущих деловых отношений.

Антропические вызовы — внесение в государственный чёрный список

Anthropic подала свои иски в понедельник в Окружной суд США Северного округа Калифорнии и Апелляционный суд США по округу Вашингтон, округ Колумбия. Юридические документы поступили через несколько дней после того, как Министерство обороны официально признало компанию риском в цепочке поставок — классификацию, которая, по словам компании, ранее никогда не применялась к американским компаниям.

Это назначение последовало за объявлением Пентагона о том, что организации, работающие с федеральным правительством, должны прекратить использование систем ИИ Anthropic. По данным компании, директива угрожает её коммерческим отношениям с компаниями, которые также сотрудничают с федеральными агентствами.

В калифорнийском иске Anthropic утверждает, что действия правительства являются ответной мерой против компании за отказ выполнить, по их словам, идеологические требования. В документе говорится, что это назначение нарушает права компании по Первой поправке и превышает полномочия исполнительной власти.

Anthropic заявила, что решение правительства может поставить под угрозу сотни миллионов долларов частных контрактов и создать неопределённость в отношении будущих партнёрств.

Гарантии ИИ и военное использование в центре споров

Конфликт возник из-за разногласий относительно того, как системы ИИ Anthropic могут использоваться военными США. Компания стремилась внедрить меры предосторожности, направленные на предотвращение поддержки её моделей в рамках внутренних программ массового наблюдения или эксплуатации полностью автономных систем смертоносного оружия.

Флагманская модель ИИ от Anthropic, Claude, была интегрирована в системы Министерства обороны в течение прошлого года и ранее была единственной моделью ИИ, одобренной для использования в засекреченных средах. Согласно сообщениям, цитируемым в иске, эта технология использовалась в некоторых военных операциях, включая помощь при принятии решений по целеуказанию в продолжающемся конфликте с участием Ирана.

Несмотря на спор, Anthropic заявила, что по-прежнему поддерживает инициативы в области национальной безопасности и ранее сотрудничала с Министерством обороны по адаптации своих технологий для специализированных задач.

Юридический спор привлёк внимание со стороны сектора искусственного интеллекта. Почти 40 сотрудников компаний, включая Google и OpenAI, подали судебное заключение в поддержку усилий Anthropic по ограничению определённого использования продвинутых систем ИИ.

Связано: Военные США использовали Claude из Anthropic в ударах по Ирану спустя несколько часов после запрета Трампа

Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.