Исход из рая: почему лучшие умы бегут из OpenAI и xAI

Ключевые инженеры и исследователи покидают OpenAI и xAI Илона Маска. В чем причина: борьба за безопасность ИИ или хаотичное управление?

Исход из рая: почему лучшие умы бегут из OpenAI и xAI

В индустрии, где главным активом считаются мозги, начался заметный исход. OpenAI, флагман AI-революции, и xAI, амбициозный проект Илона Маска, теряют ключевых людей с пугающей скоростью. Это не рядовые увольнения по итогам квартала. Это уходят те, кто стоял у самых истоков, те, чьи имена гремели на конференциях и чьи работы цитировали тысячи. И это верный признак того, что под капотом сверкающего автомобиля «будущего» что-то серьезно барахлит.

Давайте по фактам. Контора Маска, xAI, не успев толком запуститься, уже лишилась половины команды основателей. Кто-то ушел сам, кого-то вежливо попросили в рамках «реструктуризации» — знакомый эвфемизм для ситуаций, когда видение лидера и реальность входят в крутое пике. Учитывая стиль управления Илона, известный своей эффективностью и столь же легендарной токсичностью, удивляться не приходится. Талантливые инженеры и ученые — народ гордый. Они готовы работать сутками за идею, но не за право лицезреть перепады настроения очередного визионера.

Но если ситуация в xAI похожа на предсказуемый шторм в стакане, то в OpenAI разворачивается настоящая греческая трагедия. Компания, чьей миссией было создание «безопасного и полезного» сверхинтеллекта, публично распускает ключевую команду, ответственную за эту самую безопасность — Superalignment team. Ее лидеры, сооснователь компании Илья Суцкевер и Ян Лейке, покинули свои посты. Причем Лейке не стал молчать и в прощальном треде прямо заявил: культура безопасности в OpenAI отошла на второй план, уступив место гонке за «блестящими продуктами». Проще говоря, пока маркетологи готовят презентации новых фич для ChatGPT, вопросы контроля над потенциальным AGI откладываются в долгий ящик.

Эта история — прямое следствие прошлогоднего корпоративного переворота, когда Сэм Альтман был на пару дней изгнан, а затем триумфально вернулся. Тогда победу одержало крыло «ускорителей», для которых рост, капитализация и доминирование на рынке важнее гипотетических рисков. Илья Суцкевер, бывший в лагере «осторожных», после этого фактически потерял влияние. Его уход и роспуск его команды — это символический акт, который говорит индустрии одно: мы выбрали скорость, а не тормоза. К этому можно добавить и увольнение менеджера по безопасности, который посмел выступить против внедрения «режима для взрослых», что лишь подтверждает новый курс — монетизация любой ценой.

Почему это так важно? Потому что лучшие умы в этой сфере — не просто наемные кодеры. Многие из них пришли в AI из академической среды, движимые идеей научного прорыва и ответственности перед человечеством. Когда корпоративная машина начинает требовать от них закрывать глаза на этические дилеммы и потенциальные угрозы ради запуска новой функции на неделю раньше конкурентов из Google, происходит конфликт ценностей. И эти люди, чья стоимость на рынке труда измеряется миллионами, просто встают и уходят туда, где их принципы будут уважать. Или основывают свои стартапы.

Мы наблюдаем тектонический сдвиг. Если раньше таланты бежали из неповоротливых гигантов вроде Google в дерзкие стартапы типа OpenAI за свободой и великой миссией, то теперь маятник качнулся в обратную сторону. OpenAI сама превратилась в корпорацию с жестким давлением со стороны инвесторов (привет, Microsoft!) и необходимостью показывать взрывной рост. Великая миссия по спасению человечества от самих себя превратилась в задачу по увеличению метрик вовлеченности пользователей. И для настоящих «верующих» в идею безопасного AGI в этой парадигме места не нашлось.

Наш вердикт: Это не просто «болезнь роста». Это фундаментальный кризис идентичности всей AI-индустрии. Гонка за созданием сверхинтеллекта превратилась из научной одиссеи в банальную продуктовую войну, где этика и безопасность — лишь досадная помеха на пути к IPO. Уход ключевых «хранителей безопасности» из ведущих лабораторий — крайне тревожный сигнал. Это значит, что люди, которые лучше всех понимают риски, отстранены от рычагов управления. И пока мы аплодируем новым голосовым ассистентам, за кулисами создается будущее, о безопасности которого подумать, кажется, уже некому.

Read more