После ударов Израиля по Ирану соцсети захлестнула волна фейков, созданных с помощью искусственного интеллекта. Пользователи публикуют кадры с «сбитыми» F-35, ночными налетами на Тель-Авив и митингами в поддержку Израиля в Тегеране. BBC Verify проверила десятки таких видео — почти все оказалось либо сгенерированным, либо взятым из старых архивов и видеоигр.
Некоторые аккаунты, разогнавшие фейки, стали «звездами соцсетей» — аудитория одного из профилей выросла вдвое всего за несколько дней. Многие страницы имеют галочку верификации и звучные названия, будто принадлежат официальным структурам.
«Это первый случай, когда генеративный ИИ используют в таком масштабе во время конфликта», — признали эксперты. Особенно популярны видео ночных атак, которые сложнее проверять. Среди «доказательств» — анимация с движущимися камнями и кадры из симуляторов.
Конечно, не обошлось без «руки Кремля». В аналитической компании Alethea, специализирующейся на борьбе с дезинформацией, напомнили, что часть подобных фейков ранее продвигали аккаунты, связанные с российскими информационными операциями. «Ответа на F-35 у России нет, поэтому они хотят убедить всех, что эти самолеты не летают», — отметили в Alethea.
А пользователи, стремясь разоблачать фейки, массово обратились к чат-боту Grok. Правда, бот регулярно подтверждает поддельные видео — и с уверенностью ссылается на «надежные источники» вроде симуляторов и телепортирующихся грузовиков.