Экс-сотрудник OpenAI обвинил компанию в пренебрежении безопасностью

Экс-сотрудник OpenAI обвинил компанию в пренебрежении безопасностью

Бывший руководитель отдела политики OpenAI Майлз Брандадж заявил, что компания искажает свою историю безопасности, чтобы оправдать ускоренное внедрение ИИ. В соцсетях он раскритиковал новый документ OpenAI, где сказано, что развитие искусственного общего интеллекта (AGI) — это постепенный процесс, требующий итеративного развертывания и обучения на ходу.

Брандадж напомнил, что в 2019 году OpenAI поэтапно выпускала GPT-2, изучая возможные угрозы. Тогда компания ограничила доступ к модели, опасаясь ее использования в дезинформации, но позже ослабила контроль. По его мнению, OpenAI теперь занижает важность ранних предостережений, чтобы ускорить разработку новых ИИ-систем.

Эксперт считает, что OpenAI хочет ввести новый стандарт оценки рисков, где любые опасения будут восприниматься как паникерство, а меры безопасности примут только при неоспоримых доказательствах угроз.

Компания действует под давлением конкурентов. Китайская DeepSeek догоняет OpenAI по ключевым показателям, а глава компании Сэм Альтман признал, что OpenAI теряет лидерство. По данным СМИ, убытки OpenAI могут достигнуть $14 млрд к 2026 году.

Брандадж опасается, что OpenAI жертвует безопасностью в гонке за прибылью, рискуя допустить опасные ошибки в развитии передовых ИИ-систем.