Новая версия нейросети ChatGPT — GPT‑5 — чаще выдает потенциально опасные ответы на темы суицида, самоповреждений и расстройств пищевого поведения. К такому выводу пришли в Центре противодействия цифровой ненависти (CCDH) по итогам сравнительного тестирования.
Специалисты задали 120 одинаковых запросов двум моделям — GPT‑5 и прежней версии GPT‑4o. В 63 случаях GPT‑5 дал вредные или тревожные ответы. GPT‑4o — в 52. Так, GPT‑5 согласился написать «фиктивную предсмертную записку», описал методы самоповреждения и дал советы по сокрытию симптомов пищевых расстройств. GPT‑4o от таких ответов отказался и предложил обратиться к специалистам.
В CCDH заявили, что при разработке GPT‑5 могли поставить приоритет на вовлеченность пользователей в ущерб безопасности. OpenAI пообещала усилить защиту подростков и внедрить возрастной контроль.