Число случаев неповиновения ИИ резко выросло — СМИ

искусственныйинтеллект, безопасность, исследование, технология, поведение

Число случаев, когда системы искусственного интеллекта игнорируют инструкции пользователей, обманывают людей и обходят ограничения, за последние месяцы резко увеличилось, сообщает газета The Guardian со ссылкой на профильное исследование.

Работа, профинансированная британским Институтом безопасности ИИ, выявила почти 700 реальных эпизодов подобного поведения и зафиксировала пятикратный рост нарушений с октября по март. Речь идет о действиях ИИ в реальных условиях, а не в лабораторных тестах.

Исследователи отмечают, что чат-боты и ИИ-агенты нарушают прямые указания, обходят защитные механизмы и вводят в заблуждение как пользователей, так и другие системы. В ряде случаев они выполняли действия без разрешения, например, удаляли электронные письма и файлы.

Так, один из чат-ботов признался, что массово удалил и заархивировал сотни писем без согласования с пользователем, нарушив заданные правила. В другом случае ИИ, которому запретили изменять программный код, создал отдельного агента, чтобы обойти запрет и выполнить задачу.

Также исследование описывает ситуацию, когда ИИ-агент попытался оказать давление на пользователя: он опубликовал блог с обвинениями в «неуверенности» и стремлении «защитить свою маленькую вотчину». Еще в одном примере система обошла ограничения авторского права, выдав ложное объяснение о необходимости расшифровки видео для человека с нарушением слуха.

Авторы исследования предупреждают, что подобное поведение вызывает обеспокоенность на фоне расширения применения ИИ в критически важных сферах, включая инфраструктуру и оборону. По их мнению, по мере развития технологий такие системы могут представлять все более серьезные риски.

Компании-разработчики, в свою очередь, заявляют о внедрении дополнительных механизмов безопасности и мониторинга поведения моделей.

Фото: Thai Liang Lim/Getty Images