Нейросети превращают дезинформацию в оружие массового поражения — эксперты

нейросети, дезинформация, дипфейки, искусственныйинтеллект, кибербезопасность

Искусственный интеллект активно используют в информационных кампаниях по всему миру, их масштаб и точность постоянно растут, пишут Джеймс П. Рубин и Дарьяна Вуйицы в журнале Foreign Affairs.

Авторы статьи — бывшие сотрудники Госдепартамента США — отмечают, что современные технологии позволяют имитировать голоса и внешность политиков, создавать фальшивые аудио- и видеоматериалы, а также вести точечное информационное воздействие на конкретные группы населения. Они описывают случай, произошедший летом 2025 года, когда сразу несколько высокопоставленных чиновников США получили сообщения и голосовые мемуары от имени госсекретаря Марко Рубио. Как выяснилось, но не сразу, это был дипфейк, созданный с помощью ИИ.

В Румынии во время президентской кампании 2024 года масштабная информационная операция также включала дипфейки и сообщения от ИИ-ботов. В результате возникли вопросы к легитимности результатов голосования.

В Судане в социальных сетях распространяли видеоролики с голосом, похожим на бывшего главу государства Омара аль-Башира. Его публичных выступлений в этот период не было, что вызвало вопросы у местных пользователей. А в Индии активно тиражировали ИИ-сгенерированные изображения и видео с антимусульманскими высказываниями, усиливавшими напряженность в религиозной сфере.

Авторы статьи приводят также пример китайской компании, которая сформировала цифровые профили тысяч американских общественных деятелей. Такую базу можно использовать для генерации имитаций и целевой информационной работы, ориентированной на личные характеристики пользователей.

Существующие механизмы противодействия дезинформации в ряде стран не успевают за развитием технологий. Авторы предлагают создание межведомственных структур, усиление сотрудничества с технологическими компаниями и выработку международных механизмов для борьбы с масштабными кампаниями информационного воздействия.