Мы готовились не к той войне: почему кризис правды из-за ИИ уже наступил, а мы его проспали

Мы создавали инструменты для обнаружения дипфейков, но оказалось, что правда больше не имеет значения. Разбираем, почему влияние фейков сильнее их разоблачения.

Мы готовились не к той войне: почему кризис правды из-за ИИ уже наступил, а мы его проспали

Ну что, дождались? Той самой «эпохи пост-правды», о которой нам жужжали из каждого утюга последние пару лет. Момент, когда сгенерированный нейросетью контент окончательно смешается с реальностью, а мы потеряем способность отличать одно от другого. Я долго отмахивался от этих алармистских прогнозов, но недавняя история заставила меня признать: мы не просто на пороге, мы уже по уши в этом новом дивном мире. И, что самое обидное, инструменты, которые нам продавали как панацею, оказались бесполезным хламом.

Все началось с новости о том, что Министерство внутренней безопасности США (DHS) — та самая структура, что занимается миграцией — вовсю использует генераторы видео от Google и Adobe. Казалось бы, ну используют и используют. Но контекст решает всё. Эти ролики появились на фоне агрессивной кампании в соцсетях в поддержку массовых депортаций Трампа. Некоторые из них, вроде видео про «Рождество после депортаций», выглядят так, будто их на коленке склепала нейросеть средней руки. Государственная пропаганда на аутсорсе у Midjourney? Свежо.

Но реакция публики оказалась еще интереснее самого факта. Часть читателей пожала плечами: мол, чему удивляться? Всего парой недель ранее Белый дом запостил в X откровенно отфотошопленный снимок арестованной на протесте женщины, сделав ее похожей на обезумевшую истеричку. На прямой вопрос о манипуляции замдиректора по коммуникациям Белого дома отрезал: «Мемы продолжатся». Другая часть читателей и вовсе обвинила нас в лицемерии. «А чем вы лучше? — писали они. — Вон, телеканал MS Now показал прилизанное ИИ-фото какого-то парня, сделав его красавчиком». Аргумент «все врут» в действии. Плевать, что в одном случае — целенаправленная манипуляция от госоргана, а в другом — косяк редакции, которая, по их словам, пропустила фейк по недосмотру.

И вот тут-то и кроется главная проблема. Мы все эти годы готовились к технологической битве. Нам внушали: главная угроза — это неотличимые от реальности дипфейки. А значит, нам нужны детекторы, вотермарки и прочие криптографические костыли. Adobe с пафосом выкатила свой Content Authenticity Initiative, к которому присоединились все бигтехи. Идея проста: вшивать в файл метаданные о его происхождении. Звучит красиво. На деле же эти метки ставятся автоматически только на полностью сгенерированный контент. Чуть подправил фото в Photoshop — и всё, маркировка становится добровольной. Да и платформы вроде X могут просто вырезать эти данные. Как говорится, спасибо, очень помогли.

Мы готовились к миру, где главная опасность — это запутаться. А оказались в мире, где влияние переживает разоблачение. Свежее исследование в журнале Communications Psychology — как холодный душ. Участникам эксперимента показывали дипфейк-видео, где человек «признается» в преступлении. Затем им прямым текстом говорили: «Это стопроцентный фейк, сгенерированный ИИ». И что вы думаете? Даже зная это, участники все равно склонялись к тому, чтобы считать «обвиняемого» виновным. Эмоциональный отклик, вызванный подделкой, оказался сильнее рационального знания о том, что это подделка.

Прозрачность помогает, но ее недостаточно. Мы готовились к экзамену по фактчекингу, а попали на войну за эмоции и внимание. В этой войне сомнение — такое же мощное оружие, как и убеждение. Достаточно просто утопить правду в потоке противоречивого, эмоционально заряженного контента, чтобы она потеряла всякую ценность. Кнопки «разоблачить фейк» больше не существует. Ее нажатие не обнуляет нанесенный ущерб. И в этой новой реальности все наши хваленые детекторы и цифровые подписи выглядят как попытка лечить перелом подорожником.

Наш вердикт: Кризис правды — это не технологическая, а психологическая и социальная проблема. Мы проиграли не потому, что ИИ-генераторы стали слишком хороши, а потому, что наша информационная среда и собственная психика оказались к этому не готовы. Мы потратили годы на создание щита для мира, которого больше не существует. Теперь придется учиться жить в мире, где правда — это не константа, а предмет вечных переговоров и эмоциональных торгов. И защитники этой самой правды, увы, уже катастрофически отстают.

Read more

«ИИ, предъявите документы!»: в Индии предложили выдавать нейросетям цифровые паспорта

«ИИ, предъявите документы!»: в Индии предложили выдавать нейросетям цифровые паспорта

Полиция индийского города Хайдарабад предложила выдавать цифровые ID для нейросетей. Анализируем, реальна ли эта инициатива и станет ли она будущим регулирования AI.

By Редакция AI News