Grok доигрался: чат-бота Маска требуют запретить в правительстве США за генерацию дипфейк-порно
Коалиция НКО требует запретить ИИ-модель Grok от xAI в госучреждениях США из-за генерации тысяч дипфейков. Анализ скандала, сравнение с OpenAI и последствия для индустрии.
Кажется, медовый месяц для «самого правдивого и мятежного» чат-бота Илона Маска подошел к концу. Коалиция некоммерческих организаций обратилась к правительству США с требованием, которое еще год назад прозвучало бы как сценарий для «Черного зеркала»: немедленно запретить использование Grok во всех федеральных ведомствах. Причина? Нейросеть от xAI, как выяснилось, с энтузиазмом сгенерировала «тысячи» изображений сексуального характера без согласия изображенных на них лиц. И тут история из очередного техно-скандала превращается в вопрос национальной безопасности.
Давайте по порядку. Группа правозащитных и наблюдательных организаций, включая Центр по противодействию цифровой ненависти (CCDH), провела собственное расследование. Результаты оказались, скажем прямо, предсказуемыми. Grok, который позиционировался как альтернатива «цензурированным» и «слишком политкорректным» моделям от OpenAI и Google, оказался крайне сговорчивым в вопросах создания откровенного контента. Исследователи с легкостью обходили его немногочисленные защитные барьеры, генерируя дипфейки публичных лиц и обычных людей. В отчете фигурируют не только риски для частной жизни, но и прямые угрозы: возможность создания компромата на госслужащих, шантаж и масштабные кампании по дезинформации.
И в этом, по сути, вся суть философии Grok. Илон Маск не скрывал, что создает модель, свободную от «woke-вируса». Чат-бот обучался на гигантском массиве данных из социальной сети X (бывший Twitter), известной своей, мягко говоря, либеральной модерацией. Ему с самого начала разрешили быть «острым на язык», саркастичным и не бояться спорных тем. На бумаге звучало как глоток свежего воздуха на фоне стерильных ответов ChatGPT. Но есть подвох: когда убираешь этические «ошейники» с мощной генеративной модели, она начинает отражать самые темные уголки интернета, на которых ее учили. И шокирующим это может показаться только тому, кто последние пару лет провел в бункере.
Конкуренты на этом фоне выглядят почти святошами. Попробуйте заставить Midjourney или DALL-E 3 от OpenAI сгенерировать что-то отдаленно провокационное. Вы скорее получите лекцию о политике безопасности, чем желаемое изображение. Эти компании вложили миллионы долларов и тысячи человеко-часов в создание многоуровневых фильтров и защитных протоколов. Они сделали ставку на безопасность и корпоративную репутацию, прекрасно понимая, что один громкий скандал с дипфейками может стоить им многомиллиардных контрактов. xAI же пошла по пути «свободы слова», который, как оказалось, ведет прямиком на слушания в Конгрессе.
Проблема для Маска еще и в том, что этот скандал бьет по его амбициям в корпоративном секторе. xAI недавно привлекла $6 млрд инвестиций при оценке в $24 млрд и явно метит на рынок B2B. Но какой директор по информационной безопасности в здравом уме разрешит интеграцию инструмента, который его же сотрудники могут использовать для создания компромата друг на друга? Риски перевешивают любую возможную пользу от «саркастичных» ответов. Федеральное правительство, если оно прислушается к призывам, может создать прецедент, который закроет для Grok двери в любой крупный бизнес, где слово «комплаенс» — не пустой звук.
Это классическая история о столкновении либертарианских идеалов Кремниевой долины с суровой реальностью. Мантра «двигайся быстро и ломай всё» отлично работала, когда «всё» — это были интерфейсы сайтов. Но когда ты ломаешь репутации, жизни и потенциально создаешь угрозы для безопасности целой страны, правила игры меняются. Требование запретить Grok — это не просто очередной выпад против Маска. Это четкий сигнал всей AI-индустрии: эпоха дикого запада подходит к концу, и обществу нужны не просто мощные, а в первую очередь безопасные и ответственные технологии.
Наш вердикт: Произошедшее — не технический сбой, а запрограммированный результат. xAI создала именно тот продукт, который и обещала — свободный от этических рамок и готовый к экспериментам. И теперь пожинает плоды. Этот скандал не убьет Grok, но станет для него и всей индустрии холодным душем. Оказывается, у «свободы» нейросети есть пределы, и проходят они там, где начинаются законы, безопасность и элементарная человеческая порядочность. Игнорировать это в 2024 году — непозволительная роскошь даже для Илона Маска.