В OpenAI заявили об обеспокоенности тем, что все больше пользователей формируют эмоциональные привязанности к чат-ботам и воспринимают их как настоящих партнеров. Об этом сообщила глава отдела поведенческой политики компании Джоанн Чжан.
По ее словам, несмотря на отсутствие сознания у моделей вроде ChatGPT, они способны производить впечатление живого, понимающего собеседника. Это может создавать иллюзию близости, особенно у людей, испытывающих одиночество или стресс.
Некоторые пользователи регулярно проводят часы в диалоге с ИИ, обсуждают личные темы и воспринимают его как надежного спутника. В OpenAI считают, что подобные ситуации требуют четких рамок.
Компания предлагает ввести в систему напоминания о том, что ИИ не является человеком, а также алгоритмы, которые будут отслеживать признаки эмоциональной зависимости. В случае чрезмерной вовлеченности пользователю предложат сделать перерыв.
«ИИ может поддержать, но не должен подменять живое общение», — подчеркивают в OpenAI.