Скандал в OpenAI: топ-менеджера, выступавшую против «взрослого режима» ChatGPT, уволили по обвинению в дискриминации

Топ-менеджер OpenAI покинула пост после споров о цензуре в ChatGPT. Официальная версия — дискриминация, но дело может быть в битве за будущее AI.

Скандал в OpenAI: топ-менеджера, выступавшую против «взрослого режима» ChatGPT, уволили по обвинению в дискриминации

В корпоративном театре OpenAI — новый акт драмы, и он снова пахнет порохом и большими деньгами. По сообщениям инсайдеров, компанию покинула (или, если называть вещи своими именами, была уволена) одна из ключевых фигур, отвечавших за политику и безопасность. Причина, всплывшая на поверхность, — обвинение в дискриминации, которое сама сотрудница категорически отрицает. Но под этой официальной версией бурлит куда более интересный сюжет: уволенная руководительница активно выступала против внедрения так называемого «взрослого режима» для ChatGPT. И ее уход — это не просто кадровое решение, а жирный намек на то, куда именно Сэм Альтман и компания собираются направить свой флагманский продукт.

Давайте начистоту: разговоры о том, чтобы «раскрепостить» ChatGPT, ведутся давно. Пользователи, особенно те, кто использует API для бизнеса, постоянно жалуются на излишнюю стерильность и «лоботомированность» модели. Нейросеть отказывается обсуждать острые темы, впадает в ступор от намека на эротику и читает лекции о морали, когда ее просят написать сценарий с неоднозначным персонажем. «Взрослый режим» — это условное название для версии чат-бота, свободной от этих пут. Модели, способной генерировать контент с рейтингом 18+, будь то художественная литература для взрослых, жесткая политическая сатира или просто более честные и прямые ответы на сложные вопросы. Для OpenAI это золотая жила: такой продукт можно продавать дороже, он откроет новые рынки и даст серьезное преимущество перед конкурентами вроде Google и Anthropic, которые до сих пор играют в «безопасность превыше всего».

Именно здесь и возник конфликт. Уволенная руководительница, судя по всему, возглавляла фракцию «осторожных» внутри компании. Тех, кто понимает, что снятие ограничений — это ящик Пандоры. Одно дело — позволить нейросети написать любовный роман, и совсем другое — когда она начнет генерировать реалистичный дипфейк-контент, инструкции по созданию оружия или изощренные схемы мошенничества. Грань тут тонкая, и ответственность колоссальная. Ее позиция была понятна: репутационные риски слишком высоки, а потенциальный ущерб для общества может перевесить любую коммерческую выгоду. Но в современной Кремниевой долине, где скорость решает все, подобные «тормоза» воспринимаются как досадная помеха на пути к доминированию.

Обвинение в дискриминации в этом контексте выглядит... подозрительно удобным. Не будем строить из себя суд и выносить вердикт, но история IT-индустрии знает десятки случаев, когда неудобных сотрудников, мешающих «генеральной линии партии», убирали под благовидными предлогами, связанными с нарушением корпоративной этики. Это чистый и эффективный ход: он не только решает проблему с конкретным человеком, но и дискредитирует его позицию, выставляя его не борцом за этику, а обычным нарушителем. Тот факт, что топ-менеджер отрицает все обвинения, лишь добавляет масла в огонь этой конспирологической, но такой правдоподобной версии.

Этот инцидент — не единичный случай, а часть общей тенденции в OpenAI. Вспомним недавний роспуск команды «суперальянса», которая занималась долгосрочной безопасностью AGI. Ее бывшие лидеры, Илья Суцкевер и Ян Лейке, ушли, громко хлопнув дверью и заявив, что компания ставит «блестящие продукты» выше безопасности. Добавим сюда скандал с голосом Скарлетт Йоханссон, который OpenAI скопировала для своего ассистента, несмотря на прямой отказ актрисы. Картина складывается вполне ясная: фракция «безопасников» и «этиков» терпит поражение. OpenAI, подгоняемая инвесторами и жаждой технологического прорыва, сбрасывает балласт в виде людей, которые слишком часто говорят слово «нельзя».

Наш вердикт: это не просто кадровый спор, это смена парадигмы. Увольнение ключевого противника «взрослого режима» — это сигнал рынку и разработчикам о том, что OpenAI готова пойти на риск ради расширения возможностей своих моделей. Официальное обвинение в дискриминации, правдивое оно или нет, стало идеальным прикрытием для устранения внутреннего оппонента, мешавшего коммерциализации. Мы становимся свидетелями того, как из исследовательской лаборатории с гуманистическими идеалами OpenAI окончательно превращается в безжалостную корпорацию, для которой рост и прибыль важнее абстрактных рассуждений об этике. А это значит, что тот самый «взрослый» и куда более опасный ИИ стал на один большой шаг ближе.

Read more