Мы боимся не того: главная ложь о кризисе правды из-за ИИ
Анализ реальных угроз искусственного интеллекта для информации. Проблема не в идеальных фейках, а в потоке AI-контента, который разрушает доверие ко всему.
Кажется, каждый второй разговор об опасностях ИИ сводится к одному и тому же апокалиптическому сценарию: вот-вот появится неотличимый от реальности дипфейк, скажем, президента, объявляющего войну. Все в панике, рынки рушатся, начинается хаос. Звучит как отличный синопсис для сериала на Netflix, но, скажем прямо, мы зациклились не на той угрозе. Настоящий кризис доверия, который нам так долго пророчили, наступает не с оглушительным взрывом, а с тихим, монотонным гулом миллионов нейросетей, производящих контент со скоростью света.
Проблема не в одном идеальном, сделанном на голливудском уровне фейке, который обманет всех. Такой фейк, скорее всего, быстро разоблачат эксперты, и он станет достоянием истории. Настоящая беда — это «смерть от тысячи порезов». Это бесконечный поток среднего, «достаточно хорошего» AI-контента, который уже сейчас наводняет интернет. Это сгенерированные статьи с фактическими ошибками, которые выглядят убедительно. Это тысячи комментариев под постами в соцсетях, написанные ботами для создания иллюзии общественного мнения. Это фотографии в Midjourney, где у людей по шесть пальцев, но на первый взгляд все выглядит нормально. Этот поток не пытается обмануть вас в чем-то глобальном. Он просто медленно, но верно размывает саму границу между реальным и синтетическим.
Этот феномен уже получил название «эрозия правды». Когда вы постоянно сталкиваетесь с контентом, в подлинности которого не можете быть уверены, ваш мозг начинает экономить энергию. Сначала вы становитесь скептиком, потом — циником, а в итоге — просто перестаете доверять чему-либо. Любое видео, любая фотография, любой текст становятся потенциально «сгенерированными». И здесь рождается куда более страшный монстр, чем дипфейк — «дивиденд лжеца». В мире, где все может быть подделкой, любой реальный, но неудобный факт можно с легкостью объявить фейком. Компрометирующее видео с политиком? «Это Sora, расходимся». Расследование о коррупции? «Явно GPT-4 написал по заказу конкурентов». ИИ дает идеальное прикрытие для отрицания любой реальности.
Конечно, гиганты индустрии вроде OpenAI и Google не сидят сложа руки. Они говорят о «водяных знаках», разрабатывают стандарты вроде C2PA для верификации контента и создают детекторы. Но будем честны, это классическая гонка вооружений. На каждый новый метод защиты появляется два способа его обойти. Водяные знаки можно удалить, а детекторы всегда будут отставать от постоянно совершенствующихся генеративных моделей. Это техническое решение для фундаментально человеческой, социальной проблемы.
Я видел, как интернет из утопической площадки для свободного обмена знаниями превращался в поле битвы для маркетологов и пропагандистов. ИИ — это просто новый, невероятно мощный инструмент в этой битве. Он демократизировал создание дезинформации. Раньше для этого нужны были ресурсы, целые «фабрики троллей». Теперь с этим справится один человек с подпиской за $20 в месяц. И главный удар приходится не на политику, а на нашу повседневную цифровую жизнь: на обзоры товаров, которые никто не тестировал, на рецепты, по которым невозможно готовить, на советы, которые могут навредить.
Наш вердикт: паника вокруг дипфейков, способных обрушить цивилизацию за один вечер, отвлекает нас от реальной, уже идущей войны на истощение. Это война за наше внимание и доверие. И главный враг в ней — не одна большая ложь, а миллионы маленьких, правдоподобных неточностей, которые превращают информационное поле в токсичное болото. Кризис правды — это не когда мы поверим в один большой фейк, а когда мы окончательно перестанем верить во что бы то ни было настоящее.