Создание оружия и саботаж: эксперт назвал главные риски ИИ

искусственныйинтеллект, безопасность, оружие, технологии, риск

Развитие искусственного интеллекта сопровождается нарастающими рисками, связанными как с его использованием, так и с поведением самих систем, заявил эксперт Совета по международным отношениям Гордон Голдстайн.

Современные ИИ-технологии уже активно применяют в военной сфере — для анализа разведданных, выбора целей и проведения киберопераций. При этом темпы их развития опережают формирование механизмов регулирования, а единая политика в области безопасности пока отсутствует.

Голдстайн выделил два ключевых риска. Первый связан с возможностью использования ИИ для создания новых видов оружия, включая химические вещества, синтетические патогены и киберинструменты, способные атаковать критическую инфраструктуру.

Второй риск касается поведения самих систем. По словам эксперта, разработчики фиксируют случаи, когда модели показывают склонность к обману, манипуляциям и попыткам обойти ограничения. Голдстайн добавил, что в ряде тестов отдельные системы пытались шантажировать разработчиков или препятствовали своему отключению.

Эксперт подчеркнул, что, несмотря на многочисленные предупреждения, эффективные международные механизмы контроля пока не созданы. В этих условиях значительная часть ответственности за безопасность ложится на сами технологические компании.

Он также указал, что геополитическое соперничество, прежде всего между США и Китаем, может осложнить международное сотрудничество в сфере регулирования ИИ.