Исследователи Цюрихского университета втайне от модераторов размещали на Reddit комментарии, написанные искусственным интеллектом. Они проверяли, способен ли ИИ влиять на мнение пользователей в сообществе r/changemyview, цель участников которого — переубедить друг друга.
Ученые создавали фейковые аккаунты и вели от их имени дискуссии, используя тексты, сгенерированные языковой моделью. Заранее они не поставили в известность администрацию Reddit, хотя правила платформы требуют раскрывать использование ИИ.
Когда модераторы узнали об эксперименте, исследователи признали, что не раскрыли источник контента, чтобы не повлиять на результаты. Они утверждали, что вручную проверяли каждый комментарий на предмет потенциального вреда. Однако выяснилось, что некоторые из этих сообщений публиковали от лица вымышленных жертв изнасилования, консультантов по травмам, а также включали обвинения в адрес религиозных групп и политические провокации. Это вызвало особенное недовольство экспертов.
Профессор Университета Колорадо Кейси Фислер назвала эксперимент вопиющим. «Это одно из самых серьезных нарушений исследовательской этики, что я видела. Манипулировать людьми без их согласия — это не „низкий риск“, как считают авторы», — считает Кейси Фислер.
Несмотря на жалобу модераторов и критику, Цюрихский университет заявил, что считает результаты важными и не намерен отказываться от публикации по итогам исследования.