После объявления о сделке разработчика оружия Anduril с компанией OpenAI, ее сотрудники выразили недовольство тем, что технологии искусственного интеллекта будут использовать в военных целях. Они выступили против соглашения о партнерстве и потребовали от руководства большей прозрачности в работе.
Руководство OpenAI заявило, что сотрудничество с Anduril ограничено использованием ИИ для модернизации поставляемых Пентагону систем защиты от дронов. Однако сотрудники хотят гарантий того, что системы Anduril не будут применять против самолетов, которым управляет человек.
Дебаты внутри OpenAI начались после того, как компания и другие ведущие разработчики ИИ, включая Anthropic и Meta*, изменили свою политику, разрешив использование своих технологий в военных целях.
При этом OpenAI сами открыто заявляют о потенциальных рисках использования их алгоритмов. В своем отчете компания предупреждает, что усовершенствованные возможности ИИ имеют побочный эффект в виде «увеличения потенциальных рисков, вытекающих из повышенного интеллекта».
* — признана в РФ экстремистской и запрещена