У четвер компанія Anthropic презентувала спеціалізовані моделі штучного інтелекту, розроблені для клієнтів з національної безпеки США. Вона представила моделі “Claude Gov”, які були створені на основі відгуків урядових замовників для підтримки таких операцій, як стратегічне планування, аналіз розвідки та оперативна підтримка. Як повідомляється, ці кастомізовані моделі вже використовуються в агентствах національної безпеки США, доступ до них має лише персонал, що працює у закритих умовах.
Моделі Claude Gov відрізняються від споживчих та корпоративних версій від Anthropic, які також називаються Claude, за кількома критеріями. Вони здатні працювати з секретними даними, “менше відмовляються” при взаємодії з конфіденційною інформацією та адаптовані для обробки документів розвідки та оборони. Крім того, ці моделі демонструють, за словами Anthropic, “покращену компетентність” у мовах і діалектах, важливих для операцій національної безпеки.
Представники Anthropic заявляють, що нові моделі пройшли ті ж процедури “тестування безпеки”, що й всі моделі Claude. Компанія прагне укладати контракти з урядом, щоб знайти надійні джерела доходу, підписавши угоди з Palantir та Amazon Web Services у листопаді для продажу AI-інструментів замовникам в оборонному секторі.
Anthropic не є єдиною компанією, яка надає спеціалізовані послуги чат-ботів для розвідувальних агентств. У 2024 році Microsoft запустила ізольовану версію GPT-4 від OpenAI для розвідувального співтовариства США після 18 місяців розробки. Ця система, що діяла в спеціальній мережі лише для урядових потреб без доступу до Інтернету, стала доступною для приблизно 10 тисяч осіб у розвідувальному співтоваристві для тестування та отримання відповідей на запитання.