Модель искусственного интеллекта GPT-5 от OpenAI помогла ученым разобраться с давней проблемой квантовых компьютеров — можно ли бесконечно уменьшать ошибки в их работе. Как выяснилось, у этого процесса есть предел.
Ученые Скотт Ааронсон из Техасского университета и Фрик Витевен из института CWI в Амстердаме доказали, что вероятность правильного результата не может приближаться к стопроцентной быстрее, чем с двойной экспоненциальной точностью, а вероятность ошибки не может падать ниже экспоненциального уровня.
По словам исследователей, именно GPT-5 подсказала ключевую математическую идею, позволившую прийти к доказательству. Ранее специалисты десятилетиями спорили, можно ли превысить этот порог.
Ааронсон отметил, что впервые искусственный интеллект внес реальный вклад в решение задачи из области теории сложности — одной из самых абстрактных сфер компьютерных наук. Эксперты считают, что работа станет важным шагом для развития квантовых вычислений и показывает растущую роль ИИ в фундаментальной науке.