В США разворачивается показательная история о том, кто и как должен контролировать применение мощных генеративных моделей искусственного интеллекта в военной сфере. В ходе переговоров о контрактах Министерство обороны США (Пентагон) потребовало от компании Anthropic более широкого, по сути неограниченного, доступа к её модели Claude. Anthropic отказалась — и спор быстро перерос в политическое решение федерального уровня.
Что именно хотел Пентагон
По данным Reuters, конфликт «упёрся» в формулировки и условия использования: военные настаивали, чтобы ограничения Anthropic на применение Claude были ослаблены/переписаны так, чтобы модель могла использоваться «для любых законных целей» в интересах обороны. При этом Anthropic требовала более жёстких и прямых запретов на отдельные сценарии.
СМИ сообщали о напряженности вокруг срока, к которому компания должна была принять условия, и о том, что Пентагон параллельно обсуждал контракты с несколькими поставщиками больших языковых моделей.
Почему Anthropic сказала «нет»
Публичная позиция Anthropic сводится к двум «красным линиям»:
- недопустимость использования ИИ для внутренней массовой слежки;
- недопустимость применения модели в полностью автономных летальных системах без контроля человека.
Именно эти пункты, по описанию Reuters и The Guardian, компания не согласилась «размывать» в контракте, даже ценой потери части госзаказов.
Политическая развязка: федеральным ведомствам приказали отказаться от Anthropic
Дальше история вышла за рамки переговоров «за закрытыми дверями». Reuters сообщает, что на фоне эскалации Министерство финансов США и Федеральное агентство жилищного финансирования (FHFA) объявили о прекращении использования продуктов Anthropic, ссылаясь на указ президента. В материале также говорится о «маркировке» Anthropic как supply-chain risk (риск для цепочки поставок).
Barron’s описывает это как решение, которое фактически закрывает Anthropic путь к значительной части федерального рынка и одновременно открывает возможности конкурентам в борьбе за оборонные контракты.

Как повели себя конкуренты: пример OpenAI и внутренний бунт в Big Tech
OpenAI на фоне давления на Anthropic объявила о сделке по развёртыванию своих технологий в засекреченных сетях Министерства обороны США.
При этом вокруг условий сделки OpenAI возник спор уже внутри отрасли и экспертного сообщества. The Verge пишет, что опора на формулировку «любой законный способ использования» может оставлять лазейки — потому что то, что считается «законным» в сфере разведки/наблюдения, часто трактуется широко и меняется со временем.
Сама OpenAI в официальной публикации заявляет, что их соглашение содержит «слоистые» меры защиты и четкие «красные линии», и призывает сделать подобные условия доступными для всех ИИ-компаний, а не только для одной.
Сюжет вызвал заметный отклик среди сотрудников технологических компаний. TechCrunch, Forbes, Business Insider, Axios и Engadget сообщили об открытом письме, которое подписали сотни сотрудников Google и десятки сотрудников OpenAI: они выражали солидарность с позицией Anthropic и призывали не передавать военным доступ к ИИ без прямых ограничений на слежку и автономное применение силы.
Почему это важно не только для США
Этот конфликт формирует новый «шаблон» для всего рынка:
- Государства хотят гарантированного доступа к лучшим моделям и меньшего числа контрактных запретов.
- Разработчики ИИ боятся репутационных и юридических рисков, если их модели будут использоваться в спорных сценариях (наблюдение, выбор целей, принятие решений о применении силы).
- Появляется конкуренция «чьё соглашение безопаснее» — и одновременно риск того, что «безопасность» станет предметом PR-соревнования, а не прозрачных правил.
Для Центральной Азии (и в целом для стран, где государственный сектор — важный заказчик технологий) ключевой вывод практический: контракты на ИИ все чаще будут включать пункты о допустимых сценариях применения, аудитах, журналировании запросов, хранении данных и «красных линиях» — иначе поставщики будут бояться заходить в госпроекты. А власти, наоборот, будут стремиться прописывать более широкий мандат «для любых законных задач».
Что дальше?
Reuters отмечает, что правительство США и ведомства начали процесс отказа от решений Anthropic, а рынок оборонных ИИ-контрактов перераспределяется в пользу конкурентов.
В ближайшие месяцы главным вопросом станет не «будет ли ИИ в обороне», а по каким правилам и кто эти правила определяет: закон, контракт или внутренняя политика разработчика.
От редакции. «Азия-Плюс» приглашает всех желающих к продолжению дискуссии на эту тему. Если вам есть, что сказать, и вы хотите поделиться мнением, можете писать нам на эл. почту [email protected].
Этой весной оставайтесь с нами в Telegram, Facebook, Instagram, OK, ВК и MAX






