OpenAI заблокировала попытку использовать ChatGPT для слежки

OpenAI заблокировала попытку использовать ChatGPT для слежки

Компания OpenAI заблокировала несколько аккаунтов пользователей, предположительно находящихся в Китае, которые пытались использовать ChatGPT для создания инструмента слежки.

Согласно отчету OpenAI, инструмент, названный «Peer Review», предназначен для мониторинга социальных сетей и обнаружения дискуссий о поддержке уйгуров и политике в Индо-Тихоокеанском регионе. Собранную информацию, предположительно, передают китайским властям и посольствам КНР в США, Германии, Великобритании и других странах.

ChatGPT использовали для описания модулей «Peer Review» и исправления ошибок в коде. OpenAI не может подтвердить масштабы применения этого инструмента.

Кроме того, OpenAI обнаружила еще одну сеть китайских пользователей, которые с помощью ChatGPT распространяли дезинформацию в социальных сетях. В частности, они публиковали сообщения, дискредитирующие публикации в X оппозионера, бывшего профессора Центральной партийной школы Коммунистической партии Китая Цай Ся.

Члены группы, нацелившейся на Цай Ся, использовали ChatGPT для создания длинных статей с критикой США, которые им удалось опубликовать в дюжине ведущих газет Мексики, Перу и Эквадора. ИИ помогал переводить и расширять уже существующие китайские статьи на темы политического насилия, дискриминации, сексизма и внешней политики. В текстах также звучала мысль о слабости американского политического руководства.

OpenAI уже более года публикует отчеты о безопасности, целью которых является «предотвращение использования инструментов ИИ авторитарными режимами для укрепления своей власти или контроля над своими гражданами, для угроз или принуждения других государств, а также для проведения тайных операций влияния». К слову, следователи компании сами используют инструменты на основе ИИ при составлении отчетов.

*— запрещена в России