Anthropic змінює політику безпеки ШІ під тиском з боку Пентагону
Компанія Anthropic оголосила про оновлення своєї політики щодо безпеки штучного інтелекту. Зміни відбулися на тлі повідомлень про тиск з боку Пентагону, який вимагав розширити військовий доступ до чат-бота Claude.
Опубліковане виданням Engadget рішення про зміни в політиці безпеки надійшло у той же день, коли Axios повідомило про ультиматум від міністра оборони США Піта Гегсета керівництву Anthropic. Міністр нібито вимагав надати необмежений доступ військовим або зіткнутися з можливими санкціями. Раніше компанія дотримувалася жорстких обмежень, зобов’язуючись припиняти навчання нових моделей, якщо не можуть бути виконані певні критерії безпеки, що вважалося «червоними лініями» в політиці компанії.
В умовах високої конкуренції на ринку ШІ Anthropic тепер зосередиться на забезпеченні прозорості шляхом публікації звітів про ризики та дорожніх карт безпеки. Головний науковий співробітник Anthropic Джаред Каплан зазначив, що повна зупинка розробки моделей «не допоможе нікому», зокрема в ситуації, коли конкуренти активно вдосконалюють свої системи.
Контракт компанії з Пентагоном передбачає фінансування до $200 млн. та інтеграцію чат-бота Claude у деякі засекречені системи для військових цілей. Ще у 2026 році Claude використовували під час операції із захоплення президента Венесуели Ніколаса Мадуро, що спричинило додаткові суперечки між компанією та Міністерством оборони.
| Ключові зміни | Колишня політика | Нова політика |
|---|---|---|
| Обмеження на навчання моделей | Призупинення при неналежній безпеці | Фокус на прозорості та звітах |
| Співпраця з військовими | Обмежений доступ | Розширений доступ під тиском |
| Ринкова конкуренція | Жорстка позиція | Гнучкіший підхід |







