Группа исследователей из Forecasting Research Institute и других организаций опубликовала первое крупное исследование о том, как быстро растущие возможности больших языковых моделей (LLM) могут повлиять на угрозу крупных биологических катастроф.
В опросе приняли участие 46 экспертов в области био-безопасности и биологии, а также 22 опытных прогнозиста. По оценкам специалистов, в среднем вероятность того, что в 2028 году произойдет случайная или намеренная утечка патогена с гибелью более 100 тысяч человек, составляет 0, 3% в год. Однако при условии, что ИИ достигнет ряда гипотетических способностей (например, сможет успешно помогать в решении сложных вирусологических задач), эта вероятность возрастает в пять раз — до 1,5%.
Авторы отмечают, что многие эксперты сильно недооценили темпы развития ИИ: недавно доказали, что некоторые модели уже превзошли команды профессиональных вирусологов по качеству ответов в тестах.
При этом большинство участников исследования считают, что грамотные меры смягчения могут вернуть риски почти на исходный уровень. Среди таких мер — обязательная проверка заказов синтетических ДНК и усиленные программные ограничения на использование ИИ. Например, если ввести строгие проверки клиентов и запретить открытый доступ к моделям, риск снижается с 1,25% до 0,4% годовых.