ИИ не имеет системы ценностей и непредсказуем в реакциях — исследование

ИИ не имеет системы ценностей и непредсказуем в реакциях — исследование

Недавняя работа ученых из Массачусетского технологического института (MIT) ставит под сомнение популярную теорию о том, что по мере развития искусственный интеллект формирует собственные ценности и даже может ставить свои интересы выше человеческих.

Авторы эксперимента проанализировали поведение ИИ-моделей от крупных разработчиков — OpenAI, Google, Meta, Mistral и Anthropic. Ученые пытались выяснить, демонстрируют ли модели стабильные взгляды, например, склонность к индивидуализму или коллективизму, и можно ли управлять их «мировоззрением».

Оказалось, что поведение нейросети нестабильно и существенно зависит от формулировки вопроса. В разных ситуациях модели демонстрировали противоречивые ответы и не придерживались последовательных предпочтений.

«На практике ИИ — это не мыслящие сущности с четкой системой взглядов. Они больше похожи на имитаторов, способных выдавать самые разные и нередко вымышленные утверждения», — пояснил соавтор исследования, аспирант MIT Стивен Каспер.

Внештатный эксперт из Лондонского королевского колледжа Майк Кук подтвердил выводы коллег, отметив, что представление о том, будто ИИ может «сопротивляться» изменениям своих ценностей, является ошибочным. По его словам, это лишь результат очеловечивания технологий, не обладающих сознанием.