Генералы вызывают на ковер: Пентагон угрожает создателям Claude за использование ИИ в военных целях

Глава Anthropic вызван в Пентагон. Компании грозят санкции за использование ИИ Claude военными. Разбираемся в конфликте этики и больших денег.

Генералы вызывают на ковер: Пентагон угрожает создателям Claude за использование ИИ в военных целях

Кажется, медовый месяц индустрии искусственного интеллекта с властями подходит к концу. Вместо панельных дискуссий в Давосе — жесткий вызов на ковер в Арлингтоне. Министр обороны США Пит Хегсет вызвал в Пентагон гендиректора Anthropic Дарио Амодеи для, как сообщают источники, «напряженной дискуссии». Повод более чем серьезный: неконтролируемое использование языковой модели Claude американскими военными. Вишенка на торте — прямая угроза от Хегсета признать Anthropic «риском для цепочки поставок», что является элегантной формулировкой для внесения в черный список и отлучения от государственных денег.

Ситуация пикантна донельзя. Anthropic — это не просто очередной AI-стартап. Это своего рода техно-церковь «безопасного ИИ», основанная выходцами из OpenAI, которые покинули дім Альтмана как раз из-за разногласий по вопросам этики и коммерциализации. Их флагманский продукт, Claude, построен на принципах так называемого «Конституционного ИИ»: модель обучали не только на данных, но и на наборе этических принципов, этакой цифровой Декларации прав человека. Маркетинговый посыл был ясен: мы — хорошие парни, которые не допустят, чтобы Скайнет стал реальностью. И вот теперь эти «пацифисты» вынуждены объяснять генералам, почему их миролюбивый AI помогает наводить ракеты или анализировать разведданные.

Здесь разворачивается классическая драма столкновения идеализма Кремниевой долины с циничным прагматизмом большого государства. Для Пентагона любая технология — это в первую очередь инструмент для достижения превосходства. И если Claude 3.5 Sonnet умеет анализировать спутниковые снимки или обрабатывать терабайты перехваченных сообщений лучше, чем аналитики-люди, то военные будут его использовать, не дожидаясь официального благословения от создателей. Угроза «риска для цепочки поставок» — это не просто выговор. Это мощный рычаг давления, который может отрезать Anthropic от любых будущих госконтрактов и заставить их партнеров вроде Amazon и Google дважды подумать, прежде чем интегрировать их решения в свои облачные платформы для госсектора.

Конкуренты, надо полагать, злорадно потирают руки. OpenAI уже давно отбросила сантименты и открыто сотрудничает с Пентагоном. Google, обжегшись на проекте Maven в 2018 году, когда сотрудники взбунтовались против военного контракта, теперь действует осторожнее, но тоже не отказывается от диалога с силовиками. Anthropic же пыталась усидеть на двух стульях: позиционировать себя как этический противовес рынку и одновременно привлекать сотни миллионов долларов от гигантов, которые сами по уши в госконтрактах. Эта двойственность и привела Амодеи в кабинет министра обороны.

По сути, перед Anthropic стоит выбор, который рано или поздно встает перед любой прорывной технологией: остаться верными первоначальным идеалам и превратиться в нишевого, пусть и уважаемого игрока, или пойти на компромисс, переписать пару пунктов в своей «конституции» и получить доступ к неограниченным бюджетам оборонного ведомства. Это не просто корпоративный выбор, это лакмусовая бумажка для всей индустрии. Закончилась эпоха, когда можно было просто писать код и рассуждать об этике в блогах. Наступило время, когда за свой код приходится отвечать перед людьми, для которых «снижение сопутствующего ущерба» — это не этическая дилемма, а тактический параметр.

Наш вердикт: Это конец невинности для Anthropic и, возможно, для всей волны «этичного AI». Угроза Пентагона — это не блеф, а ультиматум. Дарио Амодеи предстоит сделать выбор не между добром и злом, а между своей красивой маркетинговой историей и суровой реальностью, где самые большие деньги лежат в области, далекой от написания стихов и помощи студентам. Скорее всего, мы увидим серию аккуратных пресс-релизов о «важности диалога» и «ответственном партнерстве», за которыми последует тихая интеграция Claude в оборонные системы. Принципы — это прекрасно, но раунды инвестиций сами себя не закроют.

Read more