Конец эпохи безопасности: OpenAI распустила команду по контролю над сверхразумом
Почему OpenAI расформировала ключевую команду Superalignment после ухода Ильи Суцкевера и Яна Лейке? Анализ смены курса компании на коммерцию.
В OpenAI тихо и без лишнего шума закрыли лавочку, которая должна была спасти человечество от гипотетического Скайнета. Команда Superalignment, созданная с помпой меньше года назад для решения проблемы контроля над сверхразумом, расформирована. Её соруководитель Ян Лейке ушел, театрально хлопнув твиттер-дверью и обвинив руководство в том, что «блестящие продукты» оказались важнее безопасности. Второй лидер, легендарный Илья Суцкевер, покинул компанию несколькими днями ранее. Это не просто кадровые перестановки. Это финал долгой и некрасивой драмы о душе самой влиятельной AI-компании планеты.
Давайте вспомним, как всё начиналось. В июле 2023-го OpenAI представила команду Superalignment как свой главный форпост в борьбе с экзистенциальными рисками. Цель была сформулирована с размахом, достойным голливудского блокбастера: за четыре года «решить ключевые технические проблемы контроля над суперинтеллектом». На это дело пообещали выделить 20% всех вычислительных мощностей компании. Возглавили крестовый поход два самых авторитетных адепта безопасности в OpenAI — сооснователь и главный учёный Илья Суцкевер и исследователь Ян Лейке. Казалось, вот он, ответственный подход. Компания не только создает AGI, но и заранее готовит для него «цифровой намордник».
Но красивая легенда не выдержала столкновения с реальностью, а точнее — с корпоративной политикой. Осенью 2023 года Суцкевер стал одним из инициаторов провалившегося «дворцового переворота» против Сэма Альтмана. Причиной, по слухам, как раз и были разногласия по поводу скорости коммерциализации и подходов к безопасности. Альтман вернулся триумфатором, а Суцкевер, хоть и сохранил формальный пост, фактически утратил влияние. Его уход был вопросом времени, и он настал. Уход Лейке следом — это уже не совпадение, а закономерность. Его прощальный тред в Twitter читается как эпитафия всей идее «ответственного развития AI» в стенах OpenAI. По его словам, команда постоянно боролась за ресурсы и не получала поддержки, а культура безопасности уступила место продуктовой гонке.
Теперь остатки команды Superalignment «интегрированы» в другие исследовательские подразделения компании. Руководить общими усилиями по безопасности будет Джон Шульман, еще один ветеран OpenAI и соавтор ключевых технологий вроде Reinforcement Learning from Human Feedback (RLHF). На бумаге всё выглядит пристойно: работа продолжается под новым руководством. Но на деле это означает полную и безоговорочную победу фракции «рост любой ценой». Лагерь идеалистов и алармистов, который олицетворяли Суцкевер и Лейке, разгромлен.
Проблема в том, что OpenAI, по сути, осталась без внутреннего «тормоза». Без влиятельных людей на самом верху, для которых вопрос «а что, если мы создадим неконтролируемого бога из машины?» был не риторическим, а первостепенным. Теперь компания полностью сфокусирована на битве с Google, Anthropic и другими гигантами. В этой битве побеждает тот, кто быстрее выпускает новые фичи, модели и продукты. Замедлиться, чтобы подумать о последствиях, — значит проиграть рынок. И выбор, очевидно, сделан. Миссия «обеспечить пользу AGI для всего человечества» всё ещё красуется на их сайте, но верится в неё с каждым днём всё меньше.
Наш вердикт: это знаковое событие, которое наглядно демонстрирует превращение OpenAI из исследовательской лаборатории с утопической миссией в безжалостную корпорацию. Декларации о безопасности окончательно стали частью маркетинга, а не реальной стратегией. Внутренний конфликт, который тлел годами, разрешился победой прагматизма, граничащего с безрассудством. OpenAI продолжит выпускать впечатляющие продукты, но теперь вопрос, кто следит за тем, чтобы их самое мощное творение однажды не вышло из-под контроля, остаётся без убедительного ответа.