Судья резко раскритиковал вооруженные силы США за нарушение конституции! Требует отменить ярлык рисков цепочки поставок Anthropic, отчет до 6 апреля.

CryptoCity

Федеральный судья временно приостановил внесение Anthropic в «черный список» Пентагона, признав это неконституционной мерой в отместку; план IPO AI-гиганта на 380 млрд долларов продолжается.

Решение суда — удар по Пентагону: судья резко критикует «орвелловскую» маркировку за нарушение Конституции

США: в последние недели в индустрии ИИ произошла знаковая юридическая победа. Федеральный судья Рита Лин из Калифорнии в четверг (3/26) официально издала предварительный судебный запрет (preliminary injunction), который не позволяет администрации Трампа внести AI-гиганта Anthropic в черный список по рискам для цепочек поставок. Это постановление напрямую бросает вызов распоряжению Пентагона и министра обороны Пита Хегсетеса (Pete Hegseth); судья в тексте решения использовала крайне жесткие формулировки, указав, что действия правительства, при которых американскую компанию внутри страны помечают как «потенциального противника» и «подрывника», выглядят особенно иронично.

Рита Лин подчеркнула, что действующая правовая конструкция не поддерживает такую «орвелловскую (Orwellian)» логику администрации. Административная система лишь потому, что позиция компании отличается от позиции правительства в отношении предприятий, считает ее угрозой национальной безопасности — очевидно, выходит за рамки предоставленных полномочий. Суд обязал федеральное правительство немедленно прекратить исполнение соответствующих ограничений и до 6 апреля подать отчет о соблюдении требований, пояснив конкретные способы реализации отмены запрета.

Суть этой юридической схватки заключается в том, использовало ли правительство «под предлогом национальной безопасности» меры отместки за высказывания. Согласно материалам, раскрытым судом, меры Министерства обороны (то есть «военного ведомства») против Anthropic в значительной степени основывались на публичных заявлениях компании в СМИ и не сопровождались строгой технической оценкой безопасности. Судья указала, что наказание Anthropic привлекло внимание общественности к позиции правительства по контрактам и представляет собой акцию возмездия, нарушающую Первую поправку к Конституции. На слушаниях во вторник в Сан-Франциско Рита Лин подвергла сомнению слишком низкий порог, по которому правительство определяет компании как «угрозы».

Она считает, что если у Пентагона есть сомнения по вопросам технологического контроля, то он может просто прекратить использование модели Claude; маркировка «рисков для цепочек поставок» с элементами унижения и разрушительного характера — это неприемлемо. Это решение временно восстановило статус сотрудничества Anthropic с федеральными подрядчиками и создало правовой «зонтик» для будущих AI-компаний, сталкивающихся с давлением со стороны правительства.

Не стать военной машиной: Anthropic получает отместку за приверженность этике ИИ

Истоки конфликта восходят к предохранителю, который вспыхнул из-за контракта на сумму 200 млн долларов, подписанного Anthropic и Пентагоном в июле 2025 года. Тогда обе стороны договорились, что Claude станет первым передовым AI-моделью, которой разрешат работать в конфиденциальных сетях.

Однако партнерство между сторонами распалось в феврале 2026 года. Министерство обороны попыталось заново обсудить условия контракта, потребовав от Anthropic отменить все ограничения и разрешить военным использовать Claude для всех законных целей. Всегда подчеркивающая безопасность ИИ Anthropic придерживалась «красных линий»: компания отказалась применять свою технологию к смертоносным автономным системам вооружений, а также к широкомасштабной внутренней деятельности по надзору в отношении граждан США. Руководство компании полагало, что текущие AI-модели еще не обладают достаточными безопасностью и точностью для этих чувствительных отраслей; необдуманный ввод на поле боя или для мониторинга приведет к катастрофическим последствиям.

Затем события быстро обострились: реакция администрации носила явный оттенок личных эмоций. 24 февраля министр обороны Хегсетес в ходе встречи предъявил Anthropic ультиматум — угрожал санкциями, если ограничения не будут сняты. После отказа Anthropic идти на компромисс президент Трамп 27 февраля в Truth Social публично обрушился с критикой на компанию как на «радикальных левых, пробудившихся корпораций» и обвинил ее в попытке запугать Министерство обороны; вслед за этим он приказал всем федеральным ведомствам прекратить использование продуктов Anthropic.

Далее Хегсетес охарактеризовал позицию Anthropic как «шедевр высокомерия и предательства» и официально выпустил маркировку «рисков для цепочек поставок». Этот крайний способ, ранее обычно применявшийся против иностранных разведывательных структур или террористических организаций, впервые использовали в отношении американской технологической компании внутри страны. Эксперты считают, что такое «вооружение законами», отражает поспешность администрации перед вызовами технологической этики.

  • Связанные новости: Безопасность нацбез. против этики: Anthropic отказалась снять защитные ограждения Claude, вступив в конфликт с Пентагоном США

На рынке капитала брошен вотум доверия: гигант с оценкой 380 млрд продвигает план листинга на октябрь

Несмотря на политические и юридические бури, Anthropic демонстрирует на рынке капитала по-прежнему сильные показатели и высокую устойчивость. По данным на 2025 год, доля Anthropic на корпоративном рынке ИИ составляет 32 %, что опережает OpenAI (25 %) и выводит компанию в лидеры отрасли. В раунде финансирования на 30 млрд долларов, который эта AI-звезда только что завершила в феврале этого года, оценка компании взлетела до 380 млрд долларов; раунд возглавил суверенный фонд благосостояния MGX.

Параллельно технологические гиганты вроде Alphabet (Google), Amazon, Microsoft и Nvidia также установили с Anthropic прочные партнерские отношения: сумма инвестиций и сделок по инфраструктуре в совокупности достигла сотен миллиардов. Поддержка этих «кремниевых» гигантов дает Anthropic экономическую уверенность для противодействия политическому давлению.

  • Связанные новости: Anthropic подала в суд! В иске она обвиняет администрацию Трампа в ответных действиях за блокировку Claude; 37 исследователей ИИ поддержали

Последнее решение суда проложило Anthropic путь к публичному рынку. По данным источников, Anthropic ускоряет продвижение планов IPO (первичного публичного размещения акций) и, по самой ранней оценке, может выйти на листинг уже в октябре 2026 года; ожидаемая сумма привлеченных средств превысит 60 млрд долларов. В настоящее время такие ведущие инвестиционные банки, как Goldman Sachs, JPMorgan и Morgan Stanley, включены в список потенциальных консультантов андеррайтеров.

Юристы отмечают, что если запреты из черного списка правительства сохранятся, это приведет к существенному сокращению доли Anthropic на рынке и нанесет серьезный удар по доверию инвесторов. Теперь судья признала запрет неконституционным и защитила коммерческие интересы компании. Это также передает рынку сигнал: настойчивость компаний в этике безопасности ИИ должна получить правовую защиту, а не служить предлогом для давления со стороны правительства.

Строительство дата-центра на 5 млрд долларов в Техасе: передовые подразделения игнорируют запрет и продолжают использовать Claude

Помимо юридической борьбы, шаги Anthropic по расширению инфраструктуры не останавливались. Google планирует поддержать проект строительства дата-центра в Техасе на 5 млрд долларов и полностью сдать его в аренду Anthropic для использования. Этот комплекс площадью 2 800 акров эксплуатирует Nexus Data Centers; ожидается, что к концу 2026 года он обеспечит мощность примерно 500 MW (мегаватт), достаточную для энергопотребления 500 000 домохозяйств. В дальнейшем есть потенциал расширения до 7.7 GW (гигаватт). У проекта удачное географическое расположение: рядом с основными магистральными газопроводами, что позволит использовать на месте газовые турбины для автономного энергоснабжения, обеспечивая высокую надежность вычислительной мощности для ИИ. Этот масштабный инфраструктурный план демонстрирует, что технологическая отрасль твердо настроена на инвестиции в долгосрочную базовую инфраструктуру для ИИ.

Кроме того, согласно сообщениям зарубежных СМИ, внутри вооруженных сил США у модели Claude возникла операционная зависимость от нее. Даже после того как Белый дом отдал жесткий запрет, Центральное командование США (CENTCOM) в недавних ударах по Ирану продолжало использовать AI-модели Anthropic для боевой поддержки. Это обнажает разрыв между правительственной политикой и потребностями передовой.

  • Связанные новости: The Wall Street Journal: после того как Трамп ввел запрет на Anthropic, США и Иран в авиаударах по-прежнему полагаются на Claude

Административный блок относит ее к рискам из-за политической позиции, а боевые подразделения выбирают зависимость от нее из-за технологического преимущества. Начало строительства дата-центра и реальное боевое применение доказывают важность Anthropic. По мере того как суд восстанавливает ее статус федерального поставщика, этот AI-гигант будет продолжать развиваться в балансе между технологической этикой и национальными интересами и реагировать на возможные последующие апелляции со стороны правительства.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев