Физик Массачусетского технологического института Макс Тегмарк призвал компании, разрабатывающие искусственный интеллект, провести тщательные оценки риска выхода суперинтеллекта из-под контроля, аналогичные тем, что предшествовали первому ядерному испытанию Роберта Оппенгеймера.
В своей новой работе Тегмарк и его студенты из MIT предложили концепцию «постоянной Комптона» — вероятности того, что всесильный ИИ станет неуправляемым. По их расчетам, этот риск составляет 90%. Ученый подчеркивает, что разработчики ИИ должны не только надеяться на лучшее, но и предоставлять количественные оценки потенциальных угроз.
Тегмарк также является соавтором «Сингапурского консенсуса» — международного отчета, в котором определены приоритеты исследований в области безопасности ИИ. Документ призывает к разработке методов оценки воздействия ИИ, определению желаемого поведения систем и управлению их действиями.
Ранее, в 2023 году, Тегмарк и его коллеги опубликовали открытое письмо с призывом приостановить разработку мощных ИИ-систем, которое подписали более 33 тысяч человек, включая Илона Маска.