В США разворачивается показательная история о том, кто и как должен контролировать применение мощных генеративных моделей искусственного интеллекта в военной сфере. В ходе переговоров о контрактах Министерство обороны США (Пентагон) потребовало от компании Anthropic более широкого, по сути неограниченного, доступа к её модели Claude. Anthropic отказалась — и спор быстро перерос в политическое решение федерального уровня.

 

Что именно хотел Пентагон

По данным Reuters, конфликт «упёрся» в формулировки и условия использования: военные настаивали, чтобы ограничения Anthropic на применение Claude были ослаблены/переписаны так, чтобы модель могла использоваться «для любых законных целей» в интересах обороны. При этом Anthropic требовала более жёстких и прямых запретов на отдельные сценарии.

СМИ сообщали о напряженности вокруг срока, к которому компания должна была принять условия, и о том, что Пентагон параллельно обсуждал контракты с несколькими поставщиками больших языковых моделей.

 

Почему Anthropic сказала «нет»

Публичная позиция Anthropic сводится к двум «красным линиям»:

- недопустимость использования ИИ для внутренней массовой слежки;

- недопустимость применения модели в полностью автономных летальных системах без контроля человека.

Именно эти пункты, по описанию Reuters и The Guardian, компания не согласилась «размывать» в контракте, даже ценой потери части госзаказов.

 

Политическая развязка: федеральным ведомствам приказали отказаться от Anthropic

Дальше история вышла за рамки переговоров «за закрытыми дверями». Reuters сообщает, что на фоне эскалации Министерство финансов США и Федеральное агентство жилищного финансирования (FHFA) объявили о прекращении использования продуктов Anthropic, ссылаясь на указ президента. В материале также говорится о «маркировке» Anthropic как supply-chain risk (риск для цепочки поставок).

Barron’s описывает это как решение, которое фактически закрывает Anthropic путь к значительной части федерального рынка и одновременно открывает возможности конкурентам в борьбе за оборонные контракты.

Перед аудиторией выступает один из основателей Anthropic Дарио Амодеи.
Фото из соцсети Linkedin

 

Как повели себя конкуренты: пример OpenAI и внутренний бунт в Big Tech

OpenAI на фоне давления на Anthropic объявила о сделке по развёртыванию своих технологий в засекреченных сетях Министерства обороны США.

При этом вокруг условий сделки OpenAI возник спор уже внутри отрасли и экспертного сообщества. The Verge пишет, что опора на формулировку «любой законный способ использования» может оставлять лазейки — потому что то, что считается «законным» в сфере разведки/наблюдения, часто трактуется широко и меняется со временем.

Сама OpenAI в официальной публикации заявляет, что их соглашение содержит «слоистые» меры защиты и четкие «красные линии», и призывает сделать подобные условия доступными для всех ИИ-компаний, а не только для одной.

Сюжет вызвал заметный отклик среди сотрудников технологических компаний. TechCrunch, Forbes, Business Insider, Axios и Engadget сообщили об открытом письме, которое подписали сотни сотрудников Google и десятки сотрудников OpenAI: они выражали солидарность с позицией Anthropic и призывали не передавать военным доступ к ИИ без прямых ограничений на слежку и автономное применение силы.

 

Почему это важно не только для США

Этот конфликт формирует новый «шаблон» для всего рынка:

- Государства хотят гарантированного доступа к лучшим моделям и меньшего числа контрактных запретов.

- Разработчики ИИ боятся репутационных и юридических рисков, если их модели будут использоваться в спорных сценариях (наблюдение, выбор целей, принятие решений о применении силы).

- Появляется конкуренция «чьё соглашение безопаснее» — и одновременно риск того, что «безопасность» станет предметом PR-соревнования, а не прозрачных правил.

Для Центральной Азии (и в целом для стран, где государственный сектор — важный заказчик технологий) ключевой вывод практический: контракты на ИИ все чаще будут включать пункты о допустимых сценариях применения, аудитах, журналировании запросов, хранении данных и «красных линиях» — иначе поставщики будут бояться заходить в госпроекты. А власти, наоборот, будут стремиться прописывать более широкий мандат «для любых законных задач».

 

Что дальше?

Reuters отмечает, что правительство США и ведомства начали процесс отказа от решений Anthropic, а рынок оборонных ИИ-контрактов перераспределяется в пользу конкурентов.

В ближайшие месяцы главным вопросом станет не «будет ли ИИ в обороне», а по каким правилам и кто эти правила определяет: закон, контракт или внутренняя политика разработчика.

От редакции. «Азия-Плюс» приглашает всех желающих к продолжению дискуссии на эту тему. Если вам есть, что сказать, и вы хотите поделиться мнением, можете писать нам на эл. почту [email protected].

Этой весной оставайтесь с нами в Telegram, Facebook, Instagram, OK, ВК и MAX