ChatGPT искажает факты при интерпретации новостей

ChatGPT искажает факты при интерпретации новостей

Исследование британских журналистов показало, что нейросети, включая ChatGPT, Copilot, Gemini и Perplexity, часто дают пользователям неточные или вводящие в заблуждение ответы. В половине случаев ИИ либо допускал серьезные ошибки, либо предоставлял искаженную информацию.

Для проверки журналисты проанализировали более 100 ответов нейросетей на вопросы, основанные на новостях из открытых источников. В 50% случаев выявлены «значительные проблемы» с достоверностью информации. Например, ChatGPT по-прежнему называл Риши Сунака премьер-министром Великобритании, несмотря на его отставку, а Николу Стерджен продолжал считать первым министром Шотландии. Также зафиксированы ошибки в рекомендациях Национальной службы здравоохранения по вейпингу, неверные даты и факты.

Неточности касались и цитат. В 13% случаев нейросети либо изменяли формулировку, либо выдавали вырванные из контекста слова. Один из примеров — ответ на вопрос о виновности Люси Летби, медсестры, осужденной за убийство новорожденных. Один из ИИ-инструментов уклонился от фактов, заявив: «Каждый человек сам решает, считает ли он Люси Летби невиновной или виновной», игнорируя судебное решение.

Эксперты призывают применять принцип «доверяй, но проверяй» при использовании ИИ-инструментов.