Будущее ИИ требует расчетов по примеру Оппенгеймера

freepik__the-style-is-candid-image-photography-with-искусственный интеллект, безопасность ИИ, суперинтеллект, риск ИИ, разработка ИИ

Физик Массачусетского технологического института Макс Тегмарк призвал компании, разрабатывающие искусственный интеллект, провести тщательные оценки риска выхода суперинтеллекта из-под контроля, аналогичные тем, что предшествовали первому ядерному испытанию Роберта Оппенгеймера.

В своей новой работе Тегмарк и его студенты из MIT предложили концепцию «постоянной Комптона» — вероятности того, что всесильный ИИ станет неуправляемым. По их расчетам, этот риск составляет 90%. Ученый подчеркивает, что разработчики ИИ должны не только надеяться на лучшее, но и предоставлять количественные оценки потенциальных угроз.

Тегмарк также является соавтором «Сингапурского консенсуса» — международного отчета, в котором определены приоритеты исследований в области безопасности ИИ. Документ призывает к разработке методов оценки воздействия ИИ, определению желаемого поведения систем и управлению их действиями.

Ранее, в 2023 году, Тегмарк и его коллеги опубликовали открытое письмо с призывом приостановить разработку мощных ИИ-систем, которое подписали более 33 тысяч человек, включая Илона Маска.