Создание сверхинтеллекта можно остановить — эксперт

регулирование искусственного интеллекта, контроль над AGI, безопасность сверхинтеллекта, ограничение ИИ-разработок, государственный надзор за технологиями

Разработка искусственного интеллекта, сопоставимого с человеческим (AGI), не является неизбежной и может быть ограничена усилиями государств и общества. Такое мнение высказал британский публицист Гаррисон Лавли в колонке для The Guardian.

По его словам, идея о том, что «технологии движутся вперед независимо от нашей воли», — миф. Даже глава OpenAI Сэм Альтман признает, что создание AGI несет риск для всего человечества. Однако ведущие ИИ-компании продолжают ускорять разработки, не всегда учитывая рекомендации собственных специалистов по безопасности.

Автор напоминает, что человечество уже останавливало или сдерживало опасные технологии — от генной инженерии до ядерного оружия. По его мнению, сдерживание AGI — менее сложная задача, особенно с учетом того, что его создание требует сверхмощной вычислительной инфраструктуры, которую можно контролировать на государственном уровне.

Лавли предлагает усилить международное регулирование и ввести ограничение на обучение ИИ-систем, не соответствующих нормам безопасности. «Технологии не появляются сами по себе — их создают люди. Мы можем выбрать другой путь», — подытожил он.