Anthropic изменяет политику безопасности ИИ под давлением со стороны Пентагона
Компания Anthropic объявила об обновлении своей политики в области безопасности искусственного интеллекта. Изменения произошли на фоне сообщений о давлении со стороны Пентагона, который потребовал расширить военный доступ к чат-боту Claude.
Опубликованное изданием Engadget решение о изменениях в политике безопасности поступило в тот же день, когда Axios сообщил об ультиматуме от министра обороны США Пита Хегсета руководству Anthropic. Министр якобы требовал предоставить неограниченный доступ военным или столкнуться с возможными санкциями. Ранее компания придерживалась жестких ограничений, обязуясь прекращать обучение новых моделей, если не могут быть выполнены определенные критерии безопасности, что считалось «красными линиями» в политике компании.
В условиях высокой конкуренции на рынке ИИ Anthropic теперь сосредоточится на обеспечении прозрачности путем публикации отчетов о рисках и дорожных карт безопасности. Главный научный сотрудник Anthropic Джаред Каплан отметил, что полная остановка разработки моделей «не поможет никому», особенно в ситуации, когда конкуренты активно совершенствуют свои системы.
Контракт компании с Пентагоном предусматривает финансирование до 200 млн долларов и интеграцию чат-бота Claude в некоторые засекреченные системы для военных целей. Еще в 2026 году Claude использовали во время операции по захвату президента Венесуэлы Николаса Мадуро, что вызвало дополнительные споры между компанией и Министерством обороны.
Ключевые изменения
Ограничения на обучение моделей
Бывшая политика: Приостановка при ненадлежащей безопасности
Новая политика: Фокус на прозрачности и отчетах
Сотрудничество с военными
Бывшая политика: Ограниченный доступ
Новая политика: Расширенный доступ под давлением
Рыночная конкуренция
Бывшая политика: Жесткая позиция
Новая политика: Более гибкий подход








