Перейти до вмісту

techterritory.net

Меню
  • Статті
  • Штучний інтелект
  • Наука і космос
  • Ігри
  • Крипто
  • Авто
  • Гаджети
  • Бізнес
  • Кібербезпека
Меню
Claude AI припинить "постійно шкодливі чи агресивні взаємодії з користувачами

Claude AI припинить “постійно шкодливі чи агресивні взаємодії з користувачами

Оприлюднено 18 Серпня, 2025

Чат-бот Claude від Anthropic тепер має можливість завершувати бесіди, які вважаються «постійно шкідливими або образливими». Цю можливість вже реалізовано в моделях Opus 4 та 4.1. Вона дозволяє чат-боту закривати розмови як «остання міра» після того, як користувачі неодноразово просять його згенерувати шкідливий контент, незважаючи на численні відмови та спроби перенаправлення. Як заявляє Anthropic, це сприятиме «потенційному добробуту» моделей штучного інтелекту, закриваючи типи взаємодії, в яких Claude демонструє «очевидний дискомфорт».

Якщо Claude вирішить завершити бесіду, користувачі не зможуть надсилати нові повідомлення в цій розмові. Водночас вони можуть створювати нові чати та редагувати або повторно надсилати попередні повідомлення, якщо хочуть продовжити певну тему.

Під час тестування Claude Opus 4 Anthropic виявила, що Claude має «міцну та стабільну неохоту до завдання шкоди», зокрема, коли його просять створювати сексуальний контент з неповнолітніми або надавати інформацію, яка може сприяти насильству та тероризму. У таких випадках компанія зазначила, що Claude демонструє «модель очевидного дискомфорту» та «тенденцію закривати шкідливі розмови, коли має таку можливість».

Anthropic підкреслює, що розмови, які призводять до такої реакції, є «екстремальними крайніми випадками», додавши, що більшість користувачів не зіткнуться з цією перешкодою навіть під час обговорення спірних тем. Стартап також надав Claude вказівки не завершувати бесіди, якщо користувач демонструє ознаки бажання заподіяти собі шкоду або ж завдати «невідкладної шкоди» іншим. Anthropic співпрацює з Throughline, постачальником онлайн-підтримки в кризових ситуаціях, щоб допомогти розробити відповіді на запити, пов’язані з самопошкодженням і психічним здоров’ям.

Минулого тижня Anthropic також оновила політику використання Claude, оскільки швидкий розвиток AI-моделей викликає дедалі більше занепокоєнь щодо безпеки. Тепер компанія забороняє використовувати Claude для розробки біологічної, ядерної, хімічної чи радіологічної зброї, а також для розробки шкідливого коду або використання вразливостей мережі.

Останні дописи

  • Оновлення Philips Hue приносить новий хаб, світлодіодні стрічки та, нарешті, бюджетні лампочки
  • Виробники чохлів для iPhone 17 готові до вівторка
  • Honda поєднує керованість Type-R з гібридною ефективністю у новому Prelude 2026 року
  • Офіційний анонс Legion Go 2: новий портативний флагман Lenovo за 1,099 доларів
  • Гарвард переміг Трампа, суд зобов’язав США відновити фінансування на $2,6 мільярда

Останні коментарі

Немає коментарів до показу.
    ©2025 techterritory.net | Дизайн: Тема Newspaperly WordPress