Anthropic ищет эксперта по химоружию из-за рисков ИИ

Anthropic, искусственныйинтеллект, химоружие, безопасность, риск

Американская компания Anthropic разместила вакансию специалиста по химическому оружию и взрывчатым веществам, следует из объявления на LinkedIn*.

Речь идет о позиции, связанной с предотвращением «катастрофического злоупотребления» технологиями искусственного интеллекта. В компании опасаются, что ИИ могут использовать для получения информации о создании химического или радиологического оружия.

Согласно описанию вакансии, кандидат должен иметь не менее пяти лет опыта в области защиты от химического оружия и/или взрывчатых веществ, а также обладать знаниями о радиологических устройствах распыления, известных как «грязные бомбы». В Anthropic заявили, что подобные позиции они уже создавали в других чувствительных областях.

Аналогичные меры принимают и другие разработчики ИИ. В частности, OpenAI ищет исследователя по биологическим и химическим рискам с зарплатой до 455 тысяч долларов в год.

При этом ряд экспертов обеспокоены таким трендом. «Можно ли вообще безопасно использовать ИИ для работы с чувствительной информацией о химикатах и взрывчатке, включая „грязные бомбы“ и другие радиологические устройства?» — заявила исследователь технологий Стефани Хейр.

Она подчеркнула, что в этой сфере отсутствует международное регулирование: «Нет ни международных договоров, ни других правил для такой работы. Все это происходит вне поля зрения».

Ранее представители индустрии ИИ неоднократно предупреждали о потенциальных угрозах, связанных с развитием технологий, однако их внедрение продолжается ускоренными темпами.

*— запрещена в России