Anthropic виграє судову зупинку заборони Pentagon на Claude

Федеральний суддя США в Сан-Франциско тимчасово заблокував дії Пентагону проти Anthropic, надаючи AI-компанії короткострокове полегшення у боротьбі з адміністрацією Трампа

Резюме

  • Суддя Ріта Лін призупинила дії Пентагону проти Anthropic і заблокувала федеральний наказ про зупинку використання Claude.
  • Anthropic подала до суду після того, як Пентагон вказав на неї як на ризик у ланцюгу постачання під час переговорів щодо контракту.
  • Рішення підтримує тиск на Вашингтон, оскільки Anthropic захищає обмеження на військове та спостережне використання.

Рішення заважає федеральним агентствам наразі виконувати наказ про зупинку використання Claude і зосереджує юридичну увагу на тому, чи діяла урядова влада поза межами своїх повноважень.

Суддя Ріта Лін з Окружного суду США для Північного округу Каліфорнії видала попередню заборону в четвер. Наказ забороняє Пентагону застосовувати його маркування ризику в ланцюгу постачання проти Anthropic, поки справа просувається далі.

Рішення також призупиняє вказівку президента Дональда Трампа, яка наказала федеральним агентствам припинити використання чат-бота Anthropic, Claude. Суддя зазначила, що записи не підтверджують позицію уряду на даному етапі справи.

Суддя Лін написала,

“Нічого в регулюючому законодавстві не підтримує орвеллівську думку про те, що американська компанія може бути позначена як потенційний супротивник і саботажник США за висловлення незгоди з урядом.”

Вона також описала заходи проти Anthropic як “произвольні, капризні, [і] зловживання дискрецією.”

Суперечка виникла в результаті переговорів щодо контрактів Пентагону

Справа виникла після зриву переговорів між Anthropic і Пентагоном. У липні 2025 року компанія досягла угоди, яка зробила б Claude першим фронтальним AI-моделлю, затвердженою для використання в секретних мережах.

Цей процес згодом змінив курс. Anthropic заявила, що посадові особи Пентагону хотіли, щоб компанія дозволила військове використання Claude “для всіх законних цілей” і без обмежень. Компанія відмовилася дозволити використання, пов’язане з летальними автономними зброями та масовим внутрішнім спостереженням.

Anthropic зазначила, що її технології не повинні підтримувати ці види діяльності. Різниця стала публічною після того, як переговори щодо контракту зірвалися у лютому, і компанія оскаржила відповідь уряду в суді.

Суд розглядає заяву про помсту

Anthropic подала свій позов 9 березня у федеральний суд у Вашингтоні, округ Колумбія. Компанія стверджувала, що міністр оборони Піт Хегсетх перевищив свої повноваження, назвавши Anthropic ризиком у ланцюгу постачання національної безпеки.

Під час слухання 24 березня в Сан-Франциско суддя Лін запитувала урядових юристів про те, чи зазнала Anthropic покарання за публічну критику позиції Пентагону. Рішення від 26 березня зазначало: “покарання Anthropic за привернення уваги громадськості до позиції уряду щодо контрактування є класичним незаконним помстою за Першою поправкою.”

Anthropic пізніше зазначила, що вона “вдячна суду за швидкі дії” і сказала, що рішення показує, що їй, ймовірно, вдасться досягти успіху за суттю.

Крім того, судова битва відбувається, оскільки Anthropic займає сильну позицію у корпоративному AI. Menlo Ventures зазначила, що компанія утримувала 32% цього ринку у 2025 році, випереджаючи OpenAI з 25%.

Урядова заборона могла б послабити цю позицію. На даний момент судовий наказ надає Anthropic час для захисту своєї позиції, поки ширша справа просувається далі.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити