Пентагон и Anthropic спорят из‑за военного применения ИИ

Anthropic, Пентагон, искусственныйинтеллект, оборона, регулирование

Американская компания Anthropic не разрешает военным использовать свои ИИ-модели для автономного наведения оружия и внутренней слежки в США. Такая позиция поставила под угрозу их сотрудничество с Пентагоном, сообщает агентство Reuters со ссылкой на источники.

Компания обеспокоена тем, что ее технологии могут задействововать в операциях без достаточного контроля со стороны человека. Пентагон, в свою очередь, настаивает на праве применять коммерческие ИИ‑разработки, если это не противоречит американскому законодательству. По данным источников агентства, стороны несколько месяцев вели переговоры по контракту на сумму до 200 миллионов долларов, но так и не смогли прийти к согласию.

По словам собеседников агентства, модели Anthropic запрограммированы избегать действий, которые могут привести к нанесению вреда. При этом любые изменения в алгоритмах требуют участия самих разработчиков, что делает их согласие необходимым для реализации спорных сценариев.

Глава компании Дарио Амодеи ранее подчеркивал, что ИИ должен помогать обороне, но не ценой нарушения демократических принципов. Он призывал не повторять практики авторитарных государств.

Ситуация обостряется на фоне подготовки Anthropic к возможному публичному размещению акций. Стартап активно развивает сотрудничество с правительственными структурами и участвует в разработке ИИ-политики. Среди других подрядчиков Пентагона в этой сфере — Google, xAI Илона Маска и OpenAI.