Пентагон признал Anthropic риском для цепочек поставок. Кажется, «безопасный AI» оказался небезопасным для военных

Пентагон может признать Anthropic риском для нацбезопасности. Анализ, почему создатели Claude 3 попали под удар и что это значит для всей AI-индустрии.

Пентагон признал Anthropic риском для цепочек поставок. Кажется, «безопасный AI» оказался небезопасным для военных

В коридорах Пентагона, похоже, решили, что «безопасный и этичный AI» — это, конечно, хорошо для пресс-релизов, но для дела государственной важности вещь сомнительная. Новость о том, что Министерство обороны США рассматривает возможность внести Anthropic, создателей нашумевшего Claude 3, в список «рисков для цепочек поставок», прозвучала как гром среди ясного неба. Для компании, которая сделала своей религией «конституционный AI» и ответственный подход, получить такое клеймо от главного оборонного ведомства планеты — это не просто удар по репутации. Это удар по всей бизнес-модели и, что важнее, по самой идее, на которой она построена. Кажется, в битве за многомиллиардные оборонные контракты этика оказалась не самым сильным аргументом.

Давайте разберемся, что вообще означает этот бюрократический термин — «риск для цепочек поставок» — в применении к компании, которая не производит ни чипов, ни снарядов. В данном случае, «цепочка поставок» — это не контейнеры в порту, а код, данные и, самое главное, идеология, заложенная в модель. Пентагон, по сути, задается вопросом: а можем ли мы на 100% доверять системе, которая в критический момент может отказаться выполнять приказ, сославшись на свою «конституцию», написанную инженерами из Сан-Франциско? Это фундаментальный конфликт между философией открытой, самоограничивающейся технологии и жесткими требованиями военной доктрины, где предсказуемость и подчинение — абсолютные ценности. Речь идет о контроле. Военные хотят иметь полный, неоспоримый контроль над инструментом, который они используют. Anthropic же предлагает инструмент с встроенным моральным компасом, что для Пентагона равносильно потенциальному саботажу.

Этот эпизод — лишь очередная глава в эпической саге о сложных отношениях Кремниевой долины и военно-промышленного комплекса США. С одной стороны, гиганты вроде Microsoft (через OpenAI) и Google с Amazon (через Anthropic) вливают десятки миллиардов в гонку AI-вооружений. С другой — правительство и военные с растущим подозрением смотрят на этих новых «королей технологий», чьи мотивы и лояльность не всегда очевидны. Вспомните скандалы вокруг Google и проекта Maven, когда сотрудники взбунтовались против работы на военных. Anthropic, основанный выходцами из OpenAI, как раз и был рожден из страха перед неконтролируемым AI. Они построили всю свою идентичность на том, что они — «хорошие парни». И вот теперь «плохие парни» из Пентагона говорят им, что их «хорошесть» — это на самом деле уязвимость.

Показательно и то, как по-разному ведут себя игроки на этом поле. Есть компании вроде Palantir, которые с самого начала строили свой бизнес на тесном сотрудничестве с разведкой и армией, и для них таких «идеологических» проблем просто не существует. Они — плоть от плоти ВПК. А есть новички из мира большого AI, которые пытаются усидеть на двух стульях: продавать свои технологии и корпорациям, и правительствам, сохраняя при этом имидж прогрессивных и гуманных инноваторов. Шаг Пентагона в отношении Anthropic — это ясный сигнал: так не получится. Если вы хотите работать с нами, будьте готовы играть по нашим правилам, а ваши корпоративные ценности и этические кодексы оставьте для презентаций инвесторам. Вашингтон хочет видеть в AI-компаниях не партнеров-философов, а надежных подрядчиков, поставляющих предсказуемый и эффективный продукт.

Возможно, дело и в банальном лоббизме со стороны конкурентов, которые с радостью укажут чиновникам на «неблагонадежность» Anthropic. В мире, где на кону стоят контракты, способные определить лидера индустрии на десятилетие вперед, все средства хороши. Для Anthropic это серьезный вызов. Им придется либо доказывать, что их «конституционный AI» не помеха национальной безопасности, либо создавать специальную, «лоботомированную» версию модели для военных, что станет репутационным самоубийством. В любом случае, прецедент создан. Теперь каждая AI-компания, мечтающая о госзаказах, будет трижды думать, прежде чем выносить на свои знамена лозунги об этике и безопасности в их гражданском понимании.

Наш вердикт: это не столько техническая оценка рисков, сколько политическая декларация. Пентагон не боится, что в коде Claude 3 сидит китайский шпион. Он боится, что в «мозгах» модели сидит слишком много либеральных ценностей и слишком мало готовности выполнять приказ. Это показательная порка, призванная напомнить всей Кремниевой долине, кто в доме хозяин. Военным нужен цифровой солдат, а не цифровой гуманист. И решение по Anthropic — это четкий водораздел между AI для мира и AI для войны. Судя по всему, совмещать их в одном продукте становится все сложнее.

Read more