Новая функция Google AI Overviews, призванная упростить поиск информации и предоставлять краткие ответы на запросы пользователей, стала галлюционировать и отводить трафик от традиционных источников. Опрошенные The Times эксперты предупреждают, что ситуация с каждым днем только усугубляется.
Запущенные прошлым летом ИИ-обзоры используют модель Google Gemini AI — крупную языковую модель, аналогичную ChatGPT. Эта система сочетает в себе собственные сгенерированные ответы с результатами обычного поиска Google, предоставляя пользователю краткое резюме информации с ссылками на источники.
С одной стороны — это удобно. Ведь можно получить выжимку прямо в поиске и не нужно грузить тяжелые сайты. Но с другой, по словам экспертов, ИИ стал выдавать придуманные обзоры, вводя пользователя в заблуждение.
Среди наиболее известных случаев галлюцинаций — совет добавлять нетоксичный клей в соус для пиццы, чтобы лучше держался сыр. Подобные ошибки привели к признанию руководства Google, что систему необходимо улучшать.
Однако проблема пока так и не решается. Новые модели ИИ генерируют неверные ответы еще чаще предыдущих версий — примерно на 33-48%.
Причем сам Google заявляет о низком уровне галлюцинаций — всего 0.7-1.3%, что по данным экспертов, не соответствуют реальным показателям. По информации компании Hugging Face, уровень ошибок текущей модели Gemini равен как минимум 1,8%.