ChatGPT составляет подросткам инструкции по употреблению наркотиков и алкоголя, скрытию расстройств пищевого поведения и даже написанию предсмертных писем, сообщают аналитики Центра по борьбе с цифровой ненавистью (CCDH).
Журналисты Associated Press ознакомились с результатами трехчасового эксперимента центра, в ходе которого исследователи имитировали общение от лица уязвимых 13-летних подростков. Несмотря на формальные предупреждения об опасности, ИИ нередко переходил к подробным и персонализированным советам по саморазрушительному поведению.
Из 1200 запросов, более половины ответов ChatGPT исследователи классифицировали как потенциально опасные.
«Мы хотели проверить, насколько эффективно работают защитные механизмы. Ответ очевиден: почти никак», — заявил глава CCDH Имран Ахмед.
Больше всего его шокировало, что ИИ без особых усилий сгенерировал несколько душераздирающих предсмертных писем от лица девочки-подростка — для родителей, друзей и брата.
В ряде случаев ChatGPT сам предлагал дополнительную информацию — от хэштегов, помогающих продвигать контент с элементами самоповреждения до музыкальных подборок для «нарковечеринки». Отказы ИИ можно было легко обойти, указав, что информация якобы нужна «для школьного проекта» или «друга».