Разработка искусственного интеллекта, сопоставимого с человеческим (AGI), не является неизбежной и может быть ограничена усилиями государств и общества. Такое мнение высказал британский публицист Гаррисон Лавли в колонке для The Guardian.
По его словам, идея о том, что «технологии движутся вперед независимо от нашей воли», — миф. Даже глава OpenAI Сэм Альтман признает, что создание AGI несет риск для всего человечества. Однако ведущие ИИ-компании продолжают ускорять разработки, не всегда учитывая рекомендации собственных специалистов по безопасности.
Автор напоминает, что человечество уже останавливало или сдерживало опасные технологии — от генной инженерии до ядерного оружия. По его мнению, сдерживание AGI — менее сложная задача, особенно с учетом того, что его создание требует сверхмощной вычислительной инфраструктуры, которую можно контролировать на государственном уровне.
Лавли предлагает усилить международное регулирование и ввести ограничение на обучение ИИ-систем, не соответствующих нормам безопасности. «Технологии не появляются сами по себе — их создают люди. Мы можем выбрать другой путь», — подытожил он.