Google заявила о разработке нового поколения моделей искусственного интеллекта PaliGemma 2, способных «распознавать» эмоции людей на изображениях. Эта функция, как утверждает компания, позволяет системе анализировать действия, эмоции и контекст сцены для создания детализированных описаний и ответов на вопросы.
Эксперты выражают серьезные опасения по поводу таких возможностей. Профессор Оксфордского интернет-института Сандра Вахтер назвала эту технологию тревожной: «Я считаю проблематичным предположение, что мы можем “читать” эмоции. Это все равно что спрашивать совета у магического шара».
Специалисты напоминают, что подобные системы базируются на спорных научных предположениях. Многие из них опираются на теорию психолога Пола Экмана о шести универсальных эмоциях — гневе, удивлении, отвращении, радости, страхе и грусти. Однако более поздние исследования поставили под сомнение эту гипотезу, показав значительные культурные различия в выражении эмоций.
«Эмоции слишком сложны, чтобы их можно было распознавать в общем случае», — пояснил исследователь университета Квин Мэри Майк Кук. По его словам, ИИ может выявлять отдельные общие признаки, но полное понимание эмоциональных состояний остается вне его досягаемости.
Критики также указывают на возможные предвзятости таких систем. Например, исследование MIT 2020 года показало, что некоторые модели анализируют выражения лиц, придавая больше негативных эмоций чернокожим людям по сравнению с белыми.
Google утверждает, что провела «обширное тестирование» модели на предмет предвзятостей. Однако компания не раскрыла полный список метрик и использованных методов проверки.
Опасения вызывает также возможное применение технологии. «Если эта так называемая идентификация эмоций основывается на псевдонаучных предположениях, это может привести к дискриминации маргинализированных групп, например, в правоохранительных органах, управлении границами или найме сотрудников», — отметила Хейди Хлааф из Института ИИ Now.
Google заявляет, что оценивает риски использования своих моделей и намерена обеспечить их безопасность.
Специалисты напоминают, что подобные системы базируются на спорных научных предположениях. Многие из них опираются на теорию психолога Пола Экмана о шести универсальных эмоциях — гневе, удивлении, отвращении, радости, страхе и грусти. Однако более поздние исследования поставили под сомнение эту гипотезу, показав значительные культурные различия в выражении эмоций.
«Эмоции слишком сложны, чтобы их можно было распознавать в общем случае», — пояснил исследователь университета Квин Мэри Майк Кук. По его словам, ИИ может выявлять отдельные общие признаки, но полное понимание эмоциональных состояний остается вне его досягаемости.
Критики также указывают на возможные предвзятости таких систем. Например, исследование MIT 2020 года показало, что некоторые модели анализируют выражения лиц, придавая больше негативных эмоций чернокожим людям по сравнению с белыми.
Google утверждает, что провела «обширное тестирование» модели на предмет предвзятостей. Однако компания не раскрыла полный список метрик и использованных методов проверки.
Опасения вызывает также возможное применение технологии. «Если эта так называемая идентификация эмоций основывается на псевдонаучных предположениях, это может привести к дискриминации маргинализированных групп, например, в правоохранительных органах, управлении границами или найме сотрудников», — отметила Хейди Хлааф из Института ИИ Now.
Google заявляет, что оценивает риски использования своих моделей и намерена обеспечить их безопасность.