Anthropic обновила «конституцию» чат-бота Claude

Anthropic, Claude, ИИ, этика, безопасность

Компания Anthropic представила обновленную версию «конституции» чат-бота Claude — основополагающего документа, который определяет этические рамки и принципы работы искусственного интеллекта. В отличие от конкурентов фирма считает, что ИИ должен развиваться на основе базового набора правил и ценностей, а не только с помощью обратной связи от людей.

Весь кодекс построили вокруг четырех ключевых ценностей: глобальная безопасность, этичность, соблюдение корпоративных рекомендаций и реальная польза для людей.

В разделе безопасности указано, что Claude обязан распознавать признаки ментальных проблем у пользователя и при необходимости направлять его в службы экстренной помощи. В вопросах этики разработчики делают ставку не на теоретические рассуждения, а на практику — способность ИИ корректно вести себя в сложных реальных ситуациях. При этом установлены и жесткие запреты: например, Claude нельзя вступать в дискуссии, касающиеся разработки биологического оружия.

Финальный блок документа посвящен концепции полезности, которую трактуют шире, чем простое выполнение команд. Claude запрограммирован учитывать не только сиюминутные желания пользователя, но и его долгосрочное благополучие. ИИ должен уметь интерпретировать запросы таким образом, чтобы находить баланс между интересами владельца и общими этическими нормами.

По словам экспертов, Anthropic стремится создать модель, которая будет не просто цифровым ассистентом, а ответственным инструментом, ориентированным на безопасность и поддержку человеческого процветания.