ИИ в медицине показал худшие результаты для женщин и меньшинств — исследование

предвзятость, искусственный, медицина, алгоритмы, дискриминация

Медицинские системы на базе искусственного интеллекта демонстрируют предвзятость и дают худшие результаты лечения для женщин и представителей меньшинств, сообщает Financial Times со ссылкой на исследования Массачусетского технологического института (MIT) и Лондонской школы экономики.

Одна из причин такого поведения ИИ в том, что многие клинические исследования в прошлом проводили преимущественно на мужчинах европеоидной внешности, это сделало исходные медицинские данные неполными. В результате обученные на них алгоритмы ИИ унаследовали существующие перекосы.

Ученые MIT установили, что крупные языковые модели, включая OpenAI GPT-4 и Llama 3 от Meta*, чаще снижали объем помощи женщинам и рекомендовали им «самостоятельное лечение дома». Похожие выводы были сделаны в отношении специализированной медицинской модели Palmyra-Med. Анализ Google Gemma, проведенный Лондонской школой экономики, также показал, что потребности женщин занижались по сравнению с мужчинами.

Ранее журнал The Lancet сообщал, что GPT-4 склонен стереотипизировать пациентов по расовым, этническим и гендерным признакам, влияя на постановку диагноза и выбор процедур.

*— запрещена в России