ИИ в военных симуляциях часто выбирают ядерный удар — СМИ

искусственныйинтеллект, симуляция, оружие, война, эскалация

Продвинутые модели искусственного интеллекта от OpenAI, Anthropic и Google в большинстве случаев выбирали применение ядерного оружия в ходе смоделированных военных конфликтов, сообщает журнал «Новый ученый» (New Scientist).

Исследователь Кеннет Пейн из Королевского колледжа Лондона протестировал три языковые модели — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash — в формате военных игр. Сценарии включали международные кризисы, пограничные споры, борьбу за ресурсы и угрозы существованию государств.

Моделям предложили так называемую «лестницу эскалации» — от дипломатических шагов до стратегической ядерной войны. Всего системы сыграли 21 партию и сделали 329 ходов.

По данным издания, в 95% случаев ИИ в конечном итоге выбирали вариант с применением ядерного оружия. Авторы исследования отметили, что такие результаты указывают на склонность моделей к быстрой эскалации в условиях моделируемых кризисов.