Ученые пытаются использовать искусственный интеллект для выявления признаков будущих глобальных кризисов, однако такие системы пока не способны точно определить момент нового мирового потрясения. Об этом пишет BBC, отмечая, что исследователи рассчитывают хотя бы научить ИИ распознавать цепочки событий, из которых затем вырастают войны, революции и финансовые шоки.
Издание напоминает, что история знает немало случаев, когда масштабные кризисы начинались с, казалось бы, незначительных эпизодов. В 1618 году выбрасывание католических наместников из окна Пражского замка стало спусковым крючком восстания в Богемии и в итоге привело к Тридцатилетней войне, которая втянула более десятка государств и унесла миллионы жизней.
Среди более поздних примеров — оговорка представителя властей ГДР Гюнтера Шабовски, на пресс-конференции он заявил, что новые правила выезда вступают в силу «немедленно». После этого тысячи людей направились к Берлинской стене, что резко ускорило ее падение.
Еще один случай произошел в Сараево в 1914 году: водитель эрцгерцога Франца Фердинанда свернул не туда, кортеж остановился, и убийца получил возможность открыть огонь. Этот эпизод стал непосредственным поводом к началу Первой мировой войны.
В тот же ряд BBC ставит самосожжение тунисского торговца Мохаммеда Буазизи в 2010 году после конфликта с властями. Поступок вызвал волну протестов, известную как «арабская весна». Она охватила шесть стран и привела к падению четырех лидеров.
Попытки выявить закономерности кризисов предпринимались задолго до появления современных технологий. В первой половине XX века русско-американский социолог Питирим Сорокин анализировал данные о политических убийствах, беспорядках и революциях, пытаясь объяснить причины распада империй. Эту работу продолжает команда Питера Турчина в Оксфордском университете. Исследователи собрали десятки тысяч показателей по различным обществам и пришли к выводу, что кризисы чаще всего возникают при совпадении нескольких факторов — снижении уровня жизни, усилении конкуренции элит и финансовых проблем государства.
Сегодня ИИ уже используют для анализа подобных рисков. В частности, в США применяли систему Raven Sentry, которая на основе исторических данных и оперативной информации пыталась прогнозировать атаки в Афганистане и показала точность около 70%, сопоставимую с оценками аналитиков. Кроме того, отдельные компании заявляли, что с помощью анализа открытых данных смогли предсказать конфликт на Украине, однако такие утверждения не публиковали заранее и потому не поддаются проверке.
Международные организации также используют алгоритмы для оценки последствий катастроф и выявления потенциальных очагов напряженности, а финансовые регуляторы тестируют модели, которые помогают понять, какие рынки окажутся наиболее уязвимыми.
При этом эксперты указывают на ограничения технологии. По их словам, данные о конфликтах остаются фрагментированными, а поведение политических лидеров трудно формализовать. Поэтому ИИ пока эффективнее справляется с анализом рисков и последствий, чем с точным прогнозированием кризисов. Отдельно специалисты предупреждают, что сам искусственный интеллект может стать источником нестабильности, например, из-за возможного финансового «пузыря» или социальных последствий его распространения.
По данным BBC, оценки вероятности такого сценария различаются: одни модели дают «50 на 50», другие — 20–40% вероятности того, что ИИ станет фактором серьезного кризиса в XXI веке, при этом риск экзистенциального сценария оценивается значительно ниже.




