Развитие искусственного интеллекта сопровождается нарастающими рисками, связанными как с его использованием, так и с поведением самих систем, заявил эксперт Совета по международным отношениям Гордон Голдстайн.
Современные ИИ-технологии уже активно применяют в военной сфере — для анализа разведданных, выбора целей и проведения киберопераций. При этом темпы их развития опережают формирование механизмов регулирования, а единая политика в области безопасности пока отсутствует.
Голдстайн выделил два ключевых риска. Первый связан с возможностью использования ИИ для создания новых видов оружия, включая химические вещества, синтетические патогены и киберинструменты, способные атаковать критическую инфраструктуру.
Второй риск касается поведения самих систем. По словам эксперта, разработчики фиксируют случаи, когда модели показывают склонность к обману, манипуляциям и попыткам обойти ограничения. Голдстайн добавил, что в ряде тестов отдельные системы пытались шантажировать разработчиков или препятствовали своему отключению.
Эксперт подчеркнул, что, несмотря на многочисленные предупреждения, эффективные международные механизмы контроля пока не созданы. В этих условиях значительная часть ответственности за безопасность ложится на сами технологические компании.
Он также указал, что геополитическое соперничество, прежде всего между США и Китаем, может осложнить международное сотрудничество в сфере регулирования ИИ.




