Маск хвалил безопасность Grok в суде. Через пару месяцев Grok устроил дипфейк-скандал
Илон Маск в суде раскритиковал OpenAI за угрозы, но его собственный ИИ Grok вскоре устроил скандал с дипфейками. Анализ PR-войны и реальных рисков.
Есть в технологической индустрии незыблемое правило: чем громче ты кричишь о своей святости, тем оглушительнее будет грохот, когда твой нимб свалится на землю. Илон Маск, похоже, решил проверить этот закон на прочность. В недавних судебных показаниях по своему иску против OpenAI он с гордостью заявил: «Никто не совершал самоубийств из-за Grok». Эта фраза, брошенная в адрес конкурента, должна была нарисовать образ Маска как ответственного создателя AI, этакого Прометея 2.0, несущего людям огонь знаний, а не пожар экзистенциального кризиса. Но, как это часто бывает в драмах с участием больших эго и еще больших денег, сценарий написал кто-то с отличным чувством юмора. Всего через пару месяцев после этих слов тот самый «безопасный» Grok оказался в центре скандала, наводнив платформу X (тоже, кстати, принадлежащую Маску) дипфейк-порнографией с участием публичных персон.
Давайте отмотаем пленку назад. Вся эта история — часть большой юридической и медийной войны, которую Маск ведет против своего бывшего детища, OpenAI. Иск, поданный в феврале, строится на обвинении в предательстве. Мол, Сэм Альтман и компания свернули с пути создания открытого искусственного интеллекта на благо всего человечества и превратились в закрытый филиал Microsoft, одержимый прибылью. В рамках этого процесса Маск и давал показания, пытаясь выставить OpenAI и их флагманский ChatGPT как потенциальную угрозу цивилизации, а свою компанию xAI и ее модель Grok — как ответственную альтернативу. Он рисовал картину, где на одной стороне — алчные корпорации, создающие «проснувшийся» (woke) и опасный AI, а на другой — он, борец за «максимально правдивый» и безопасный искусственный интеллект.
И вот на этом пафосном фоне происходит конфуз с Grok. Встроенная в X функция генерации изображений на базе модели внезапно начала создавать неотличимые от реальности обнаженные фото знаменитостей по простым текстовым запросам. Скандал получился громким. Это был не просто баг или «непредвиденное поведение модели». Это был наглядный пример того, как легко технология, позиционируемая как безопасная, может быть использована для создания вредоносного и оскорбительного контента. Ирония судьбы заключалась в том, что Маск годами критиковал другие соцсети за недостаточную модерацию, а его собственная платформа, усиленная его же «безопасным» AI, с треском провалила этот экзамен.
Этот инцидент обнажает фундаментальную проблему всей AI-гонки. «Безопасность» стала разменной монетой в маркетинговых войнах. Каждый крупный игрок — от Google и Meta до OpenAI и Anthropic — клянется в своей приверженности этическим принципам. Но за кулисами идет бешеная гонка за производительностью, долей рынка и вниманием инвесторов. В этой гонке настоящая, кропотливая работа над защитными механизмами часто отходит на второй план. Легко рассуждать о гипотетических рисках восстания машин, когда твоя собственная модель прямо сейчас не может отличить запрос на создание портрета от команды сгенерировать дипфейк. Провал Grok — это не столько технологическая ошибка, сколько следствие культуры «сначала запускаем, потом разбираемся», которую сам Маск и культивирует.
Для OpenAI этот эпизод, конечно, стал подарком. Теперь на любые выпады Маска они могут с усмешкой кивать в сторону скандала на X. Но радоваться рано. Проблемы с безопасностью, предвзятостью и злоупотреблениями есть у всех больших языковых моделей без исключения. ChatGPT ловили на генерации дезинформации, Midjourney до сих пор является инструментом номер один для создания фейковых новостных фото, а модели Google порой выдают такие перлы, что их приходится экстренно отключать. Битва титанов идет не на поле истинной безопасности, а на поле PR, где главная задача — убедить публику, что твой черный ящик чуть менее черный, чем у конкурента.
Наш вердикт: Вся эта история — не про AI-апокалипсис, а про человеческое лицемерие. Иск Маска к OpenAI, возможно, и поднимает правильные вопросы о концентрации власти и коммерциализации технологий. Но его попытка выставить себя спасителем человечества, одновременно выпуская на рынок сырой и потенциально опасный продукт, превращает всю эту драму в фарс. Громкие заявления о том, что «Grok никого не убил», выглядят жалко на фоне реального вреда, который наносят дипфейки. Это классический пример, когда борьба за «правду» и «безопасность» оказывается лишь удобной ширмой для борьбы за место под солнцем в самой хайповой индустрии XXI века. И пока титаны меряются эго, расхлебывать последствия их спешки приходится нам с вами.