Совесть или контракт: почему Пентагон и создатели Claude не могут договориться
Создатели Claude 3 из Anthropic сопротивляются требованиям Пентагона использовать их ИИ в военных целях. Что стоит за конфликтом: этика или деньги?
Кажется, медовый месяц у AI-стартапов с их идеалистическими миссиями подходит к концу. На пороге возник суровый клиент в камуфляже и с безлимитным бюджетом — Пентагон. И он не просит, а требует. Как сообщает Axios, Министерство обороны США настойчиво предлагает Anthropic, а заодно и OpenAI с Google, разрешить использование их технологий для «всех законных целей». За этой обтекаемой формулировкой скрывается очень простое желание: запрячь самые мощные нейросети в военную машину. И Anthropic, компания, основанная выходцами из OpenAI как раз из-за опасений по поводу безопасности и этики, внезапно оказалась на передовой совсем не той войны, к которой готовилась.
Для Anthropic это экзистенциальный вызов. Вся их репутация, весь их маркетинг и, чего уж там, значительная часть их оценки в $18 миллиардов построена на нарративе о «безопасном, ответственном и этичном AI». Они позиционировали себя как анти-OpenAI, как тех, кто думает о последствиях, пока другие гонятся за хайпом и производительностью. Их модель Claude 3 даже в тестах демонстрирует некую рефлексию и «осознание» того, что её тестируют. И вот теперь этой модели предлагают примерить армейские ботинки. Отказ — это риск упустить гигантский кусок госзаказа и выглядеть слабым игроком на фоне конкурентов. Согласие — это публичное предательство собственных идеалов и превращение в еще одну безликую корпорацию, готовую на всё ради контракта.
Ситуация напоминает старый, но не забытый скандал с проектом Maven в Google в 2018 году. Тогда тысячи сотрудников взбунтовались против использования AI компании для анализа видео с дронов, и Google был вынужден свернуть сотрудничество с Пентагоном. Но времена изменились. Во-первых, сегодняшние LLM — это не просто алгоритмы распознавания образов. Это потенциальные системы для анализа разведданных, планирования операций, управления логистикой и, в перспективе, автономными системами вооружений. Ставки неизмеримо выше. Во-вторых, изменилась позиция самих бигтехов. OpenAI, например, еще в январе тихо и без анонсов удалила из своей политики использования прямой запрет на «военное применение».
Позицию Пентагона тоже можно понять. С их точки зрения, отказ от передовых AI-технологий — это стратегическое разоружение перед лицом противников, вроде Китая, которые подобными этическими дилеммами не обременены. Для них это не вопрос морали, а вопрос национальной безопасности. Они видят, как частный сектор создал мощнейший инструмент, и совершенно логично хотят получить к нему доступ. Аргумент «мы не будем с вами работать, потому что вы военные» для них звучит как инфантильный каприз в разгар глобальной технологической гонки вооружений.
Ирония в том, что весь этот хайп вокруг «этичности» и «безопасности» отлично работал на венчурных инвесторов и прессу, но оказался абсолютно не готов к столкновению с реальной геополитикой. Деньги, которые вливали в Anthropic Amazon и Google, давались не для того, чтобы компания красиво рассуждала об этике в вакууме. Они давались для того, чтобы захватить рынок и стать технологическим лидером. А лидерство в США неизбежно подразумевает тесное сотрудничество с оборонно-промышленным комплексом. Круг замкнулся.
Наш вердикт: Это не столько уникальная моральная дилемма Anthropic, сколько конец эпохи наивности для всей AI-индустрии. Эра, когда можно было быть «за всё хорошее и против всего плохого», закончилась. Технология стала слишком мощной и слишком важной, чтобы оставаться в песочнице академических споров. Anthropic, скорее всего, будет вынуждена пойти на компромисс, обставив его кучей юридических оговорок и заявлений о «контроле и надзоре». Но сам факт этого спора — маркер того, что AI окончательно перестал быть просто технологией и стал инструментом силы. Игрокам придется выбирать сторону, и «нейтралитет» больше не является доступной опцией.