Даже разоблаченные политические дипфейки влияют на людей — эксперты

дипфейк, политика, искусственныйинтеллект, соцсети, пропаганда

Политические дипфейки воздействуют на аудиторию, даже когда пользователи понимают, что перед ними поддельный контент, отмечают исследователи в области искусственного интеллекта, опрошенные The Guardian.

Эксперты отмечают, что создатели контента отказываются от подделок с участием реальных политиков и переходят к созданию полностью вымышленных персонажей. Такие «искусственные люди» выглядят как обычные пользователи социальных сетей, но при этом выполняют военные и политические задачи — привлекают аудиторию, генерируют доход и распространяют пропагандистские сообщения. «Мы стираем границы между политической карикатурой и реальностью. Многие воспринимают подобные изображения и истории как правдоподобные», — заявил доцент Университета Пердью Дэниел Шифф.

По словам исследователей, подобные образы формируют идеализированное восприятие политиков, включая Дональда Трампа, даже если аудитория осознает, что контент не является реальным. В качестве примера эксперты приводят аккаунт в Instagram* с образом несуществующей женщины по имени Джессика Фостер, созданной с помощью ИИ. Публикации с ее участием в военной форме, в казармах и рядом с политиками привлекли более миллиона подписчиков. Авторы аккаунта также перенаправляли пользователей на платный контент.

Исполнительный директор организации Witness Сэм Грегори отметил, что подобные проекты часто создают ради монетизации, однако они могут преследовать и политические цели. В частности, в соцсетях распространяли видео с якобы иранскими женщинами-военными, несмотря на то что женщины не служат в боевых подразделениях страны.

Некоторые такие аккаунты публикуют политические сообщения. Так, профиль с «женщиной-полицейским», созданной с помощью ИИ, набрал десятки тысяч подписчиков и распространял контент с политическими лозунгами.

При этом технологии дипфейков применяют и реальные политики. Во время выборов 2024 года Дональд Трамп публиковал сгенерированные изображения, на которых фанаты Тейлор Свифт якобы выражают ему поддержку. По данным исследовательской лаборатории Grail, с 2024 года Трамп и представители Белого дома распространили не менее 18 подобных материалов. Аналогичные инструменты задействуют и другие политики, включая губернатора Калифорнии Гэвина Ньюсома.

Согласно данным Grail, число политических дипфейков резко выросло: с начала 2025 года специалисты зафиксировали более тысячи публикаций с поддельными изображениями или видео, связанными с политикой и общественно значимыми событиями. Для сравнения, за предыдущие восемь лет произошло около 1,3 тысячи таких случаев.

Рост связан с развитием генеративного искусственного интеллекта, который значительно упростил создание подобного контента. «Теперь стало просто создавать правдоподобные сцены и помещать в них реальных людей», — подчеркнул Грегори.

Эксперты обращают внимание, что дипфейки воздействуют не столько за счет достоверности, сколько благодаря соответствию ожиданиям аудитории. «Люди не обязательно ищут правду — они ищут подтверждение своих убеждений», — отметил Грегори.

Исследователь Валери Виртшафтер добавила, что дипфейки усиливают уже существующие взгляды, а не побуждают их пересматривать. Специалисты также предупреждают о риске появления так называемых «роев ИИ» — сетей автоматизированных аккаунтов, которые координируют действия, проникают в сообщества и формируют иллюзию общественного консенсуса. «Это похоже на фабрику троллей, но без участия людей», — пояснила Виртшафтер.

В качестве одного из решений эксперты предлагают внедрить стандарты, позволяющие отслеживать происхождение цифрового контента. Крупные платформы уже заявили о намерении маркировать материалы, созданные с помощью ИИ, однако пока применяют такие меры непоследовательно.