Технологии на базе искусственного интеллекта могут подорвать систему стратегической стабильности и повысить риск ядерной эскалации. Об этом пишет Foreign Affairs со ссылкой на Эрин Д. Дамбахер, эксперта Совета по международным отношениям США.
По мнению автора, дипфейки — фальсифицированные видео и аудио — уже используют для распространения дезинформации. В условиях кризиса такие материалы могут ввести в заблуждение мировых лидеров, включая тех, кто отвечает за ядерное оружие. Особенно опасно, если ИИ будет участвовать в интерпретации данных систем раннего предупреждения, где малейшая ошибка может привести к катастрофе.
Хотя все заявляют, что решение о применении ядерного оружия всегда останется за человеком, развитие ИИ увеличивает риск ошибок и ложных срабатываний. При этом алгоритмы часто работают как «черный ящик» — неясно, на основании чего они делают выводы.
Эксперт предлагает закрепить на международном уровне норму, согласно которой только человек может принимать решения о запуске ядерного оружия. Кроме того, разведка должна маркировать данные, созданные ИИ, и усиливать верификацию. В условиях нарастающих угроз ставку нужно делать на точность, а не на скорость решений, подчеркивает Дамбахер.




