Искусственный интеллект активно используют в информационных кампаниях по всему миру, их масштаб и точность постоянно растут, пишут Джеймс П. Рубин и Дарьяна Вуйицы в журнале Foreign Affairs.
Авторы статьи — бывшие сотрудники Госдепартамента США — отмечают, что современные технологии позволяют имитировать голоса и внешность политиков, создавать фальшивые аудио- и видеоматериалы, а также вести точечное информационное воздействие на конкретные группы населения. Они описывают случай, произошедший летом 2025 года, когда сразу несколько высокопоставленных чиновников США получили сообщения и голосовые мемуары от имени госсекретаря Марко Рубио. Как выяснилось, но не сразу, это был дипфейк, созданный с помощью ИИ.
В Румынии во время президентской кампании 2024 года масштабная информационная операция также включала дипфейки и сообщения от ИИ-ботов. В результате возникли вопросы к легитимности результатов голосования.
В Судане в социальных сетях распространяли видеоролики с голосом, похожим на бывшего главу государства Омара аль-Башира. Его публичных выступлений в этот период не было, что вызвало вопросы у местных пользователей. А в Индии активно тиражировали ИИ-сгенерированные изображения и видео с антимусульманскими высказываниями, усиливавшими напряженность в религиозной сфере.
Авторы статьи приводят также пример китайской компании, которая сформировала цифровые профили тысяч американских общественных деятелей. Такую базу можно использовать для генерации имитаций и целевой информационной работы, ориентированной на личные характеристики пользователей.
Существующие механизмы противодействия дезинформации в ряде стран не успевают за развитием технологий. Авторы предлагают создание межведомственных структур, усиление сотрудничества с технологическими компаниями и выработку международных механизмов для борьбы с масштабными кампаниями информационного воздействия.




