Пентагон против «этичного» AI: создателей Claude вызвали на ковер из-за военных

Министр обороны США вызвал CEO Anthropic Дарио Амодея для обсуждения военного применения AI Claude. Компании грозит статус «риска для поставок».

Пентагон против «этичного» AI: создателей Claude вызвали на ковер из-за военных

Кажется, медовый месяц между AI-стартапами и большим государством подошел к концу. В коридорах власти прозвучало словосочетание, от которого у любого технопредпринимателя холодеет в груди — «риск для цепочки поставок». И адресовано оно было не какому-нибудь китайскому ноунейму, а одной из самых «белых и пушистых» компаний Кремниевой долины — Anthropic. Министр обороны Пит Хегсет вызвал их гендиректора Дарио Амодея в Пентагон на разговор, который, по слухам, будет напоминать скорее допрос. Причина проста и одновременно пугающа: американские военные слишком активно и, главное, бесконтрольно начали использовать их флагманскую модель Claude. Игрушка, созданная для написания стихов и кода, внезапно оказалась в эпицентре геополитики.

Ирония судьбы в том, что под удар попала именно Anthropic. Компания, основанная выходцами из OpenAI, которые покинули дітище Сэма Альтмана как раз из-за опасений по поводу безопасности и этики. Весь их маркетинг, вся их философия строились на концепции «конституционного AI» — модели, которую с младых ногтей учили быть безвредной, честной и полезной. Они встроили в Claude целые тома деклараций о правах человека, чтобы тот случайно не посоветовал пользователю что-то нехорошее. И вот, этих «пацифистов от мира нейросетей» вызывают к главному «ястребу» планеты, потому что их творение оказалось слишком эффективным инструментом в руках людей, чья работа — планировать и вести войны. Угроза получить ярлык «supply chain risk» — это не просто штраф. Это черная метка, которая может отрезать компанию от всех государственных контрактов и поставить под сомнение ее надежность для крупных корпоративных клиентов. Для справки, такой же статус в свое время получила Huawei, что фактически уничтожило ее бизнес на Западе.

Что именно военные делают с помощью Claude, пока остается за семью печатями. Можно предположить, что речь идет не о написании рапортов. Современные LLM способны на большее: анализ гигантских массивов разведданных, выявление паттернов в переговорах противника, моделирование сценариев боевых действий, обработка данных со спутников и дронов. Видимо, кто-то в Пентагоне решил, что раз Claude доступен по подписке, то можно использовать его на полную катушку, не ставя в известность ни разработчиков, ни собственное начальство. И в какой-то момент масштаб этого «партизанского» внедрения достиг критической точки. Теперь правительство хочет не просто контроля, а, вероятно, эксклюзивных условий, гарантий безопасности и, возможно, «красной кнопки», чтобы в случае чего отключить систему.

Эта история — наглядная иллюстрация фундаментальной проблемы всего современного AI: двойного назначения. Технология, созданная для мирных целей, почти всегда может быть использована как оружие. Anthropic, OpenAI, Google и прочие могут сколько угодно писать красивые этические кодексы, но реальность всегда оказывается сложнее. Особенно когда на кону стоят миллиардные бюджеты и национальная безопасность. В то время как компании вроде Palantir изначально строили свой бизнес на тесном сотрудничестве с ВПК и спецслужбами, «гражданские» AI-гиганты пытались усидеть на двух стульях — и деньги от госзаказов получать, и репутацию «хороших парней» сохранять. Вызов Амодея в Пентагон — это четкий сигнал, что так больше не получится.

Вся эта ситуация выглядит как хорошо поставленный спектакль. Министр обороны играет роль «злого следователя», чтобы принудить всю отрасль к сотрудничеству на условиях государства. Anthropic стала показательным примером, потому что их «этичная» позиция делала их наиболее уязвимыми для подобных обвинений. Мол, посмотрите, даже у этих идеалистов все вышло из-под контроля, что уж говорить об остальных. Теперь OpenAI и Google, которые тоже наверняка негласно «тестируются» в разных ведомствах, будут куда сговорчивее. Эпоха, когда AI-лаборатории могли делать вид, что их игрушки — это просто для генерации картинок и кода, безвозвратно ушла. Технология стала слишком мощной, чтобы ее развитие пускали на самотек.

Наш вердикт: это не маркетинг и не случайный конфликт, а начало большого передела. Государство в лице Пентагона прямо заявляет свои права на самую прорывную технологию XXI века. Это тектонический сдвиг, который означает конец вольницы для AI-разработчиков. Теперь им придется выбирать: либо тесно сотрудничать с правительством, встраиваясь в военно-промышленный комплекс, либо столкнуться с серьезными ограничениями. Красивые лозунги про «безопасный и этичный AI» оказались отличной PR-стратегией, но в реальном мире побеждает тот, у кого больше дивизий. И авианосцев. Добро пожаловать в новую реальность, господа из Кремниевой долины.

Read more