Материалы Didius Media

ИИ уличили в политической предвзятости

Искусственный интеллект, политические предвзятости, исследование, языковые модели
Исследование Массачусетского технологического института выявило политическую предвзятость в больших языковых моделях (LLM), которые используют в приложениях генеративного ИИ, подобных ChatGPT. Ученые Центра конструктивной коммуникации обнаружили, что даже обучение моделей на объективно правдивых данных не устраняет левосторонний политический уклон. Более того, предвзятость усиливается с ростом масштаба моделей.
Эксперименты показали, что модели, которые оценивают соответствие ответа LLM предпочтениям человека, также демонстрируют эту предвзятость. Это удивило исследователей, так как обучение проводилось на наборах данных, считающихся объективными. Один из ученых, не участвовавших в исследовании, объяснил это сложностью интерпретации запутанных представлений, изучаемых монолитными архитектурами языковых моделей. Это может приводить к непреднамеренным предубеждениям.

Полученные результаты представили на конференции по эмпирическим методам обработки естественного языка. Выводы исследования указывают на необходимость дальнейшего изучения и разработки методов минимизации политической предвзятости в системах искусственного интеллекта. Вопрос о том, как эти модели будут использоваться в будущем и как избежать подобных предубеждений, остается открытым.
#новости