ИИ Google генерирует ложную информацию

Google AI, ИИ ошибки, фейковые обзоры, галлюцинации нейросетей, генерация ложной информации

Новая функция Google AI Overviews, призванная упростить поиск информации и предоставлять краткие ответы на запросы пользователей, стала галлюционировать и отводить трафик от традиционных источников. Опрошенные The Times эксперты предупреждают, что ситуация с каждым днем только усугубляется.

Запущенные прошлым летом ИИ-обзоры используют модель Google Gemini AI — крупную языковую модель, аналогичную ChatGPT. Эта система сочетает в себе собственные сгенерированные ответы с результатами обычного поиска Google, предоставляя пользователю краткое резюме информации с ссылками на источники.

С одной стороны — это удобно. Ведь можно получить выжимку прямо в поиске и не нужно грузить тяжелые сайты. Но с другой, по словам экспертов, ИИ стал выдавать придуманные обзоры, вводя пользователя в заблуждение.

Среди наиболее известных случаев галлюцинаций — совет добавлять нетоксичный клей в соус для пиццы, чтобы лучше держался сыр. Подобные ошибки привели к признанию руководства Google, что систему необходимо улучшать.

Однако проблема пока так и не решается. Новые модели ИИ генерируют неверные ответы еще чаще предыдущих версий — примерно на 33-48%.

Причем сам Google заявляет о низком уровне галлюцинаций — всего 0.7-1.3%, что по данным экспертов, не соответствуют реальным показателям. По информации компании Hugging Face, уровень ошибок текущей модели Gemini равен как минимум 1,8%.