Новые модели OpenAI стали чаще «галлюцинировать»

Новые модели OpenAI стали чаще «галлюцинировать»

Недавно представленные модели искусственного интеллекта OpenAI — o3 и o4-mini — показывают улучшенные способности в решении логических задач, но при этом чаще допускают так называемые «галлюцинации», то есть предоставляют вымышленные данные.

По оценкам OpenAI, модель o3 ошибалась в 33% случаев при ответах на вопросы о людях — это вдвое выше, чем у предыдущих моделей. O4-mini показала еще более высокий уровень — 48% ложных ответов.

Причины ухудшения качества в компании пока объяснить не могут. Но при этом отмечают, что увеличение количества операций, которые делает модель, приводит как к росту точных, так и ложных ответов.

В OpenAI подчеркивают, что борьба с галлюцинациями — приоритетное направление исследований. Одним из возможных решений может стать интеграция веб-поиска, что, по данным компании, позволяет повысить точность до 90% на некоторых задачах.