Благотворительные фонды и активисты стали использовать сгенерированные нейросетями изображения бедности, вызывая тревогу у экспертов. ИИ-картинки повторяют расистские клише и эксплуатируют образы страданий ради донатов.
Ученый из Института тропической медицины в Антверпене Арсений Аленичев называет это явление «порнографией бедности 2.0». Он собрал более сотни примеров таких изображений, где, к примеру, африканская девочка плачет в свадебном платье, или дети сидят в грязи с пустыми тарелками. Многие картинки распространяют через фотостоки и используют в кампаниях против голода и насилия.
Эксперты отмечают: такие изображения дешевле, не требуют согласия моделей, но формируют опасные стереотипы. «Это создает иллюзию, будто помощь нужна только тем, кто выглядит наиболее жалко», — поясняет представитель швейцарской организации Fairpicture Ноа Арнольд.
Некоторые НПО уже начали отказываться от подобных практик. В частности, Plan International заявила, что больше не будет использовать ИИ для создания образов реальных детей.