Американская компания Anthropic разместила вакансию специалиста по химическому оружию и взрывчатым веществам, следует из объявления на LinkedIn*.
Речь идет о позиции, связанной с предотвращением «катастрофического злоупотребления» технологиями искусственного интеллекта. В компании опасаются, что ИИ могут использовать для получения информации о создании химического или радиологического оружия.
Согласно описанию вакансии, кандидат должен иметь не менее пяти лет опыта в области защиты от химического оружия и/или взрывчатых веществ, а также обладать знаниями о радиологических устройствах распыления, известных как «грязные бомбы». В Anthropic заявили, что подобные позиции они уже создавали в других чувствительных областях.
Аналогичные меры принимают и другие разработчики ИИ. В частности, OpenAI ищет исследователя по биологическим и химическим рискам с зарплатой до 455 тысяч долларов в год.
При этом ряд экспертов обеспокоены таким трендом. «Можно ли вообще безопасно использовать ИИ для работы с чувствительной информацией о химикатах и взрывчатке, включая „грязные бомбы“ и другие радиологические устройства?» — заявила исследователь технологий Стефани Хейр.
Она подчеркнула, что в этой сфере отсутствует международное регулирование: «Нет ни международных договоров, ни других правил для такой работы. Все это происходит вне поля зрения».
Ранее представители индустрии ИИ неоднократно предупреждали о потенциальных угрозах, связанных с развитием технологий, однако их внедрение продолжается ускоренными темпами.
*— запрещена в России




