Перейти до вмісту

techterritory.net

Меню
  • Статті
  • Штучний інтелект
  • Наука і космос
  • Ігри
  • Крипто
  • Авто
  • Гаджети
  • Бізнес
  • Кібербезпека
Меню
Anthropic підтримує законопроєкт SB 53

Anthropic підтримує законопроєкт SB 53

Оприлюднено 8 Вересня, 2025

Антропік підтримує законопроект SB 53, що регулює потужні системи штучного інтелекту, розроблені провідними AI-компаніями, такими як Антропік. Ми з самого початку були прихильниками відповідального регулювання штучного інтелекту, і наша підтримка цього законопроекту є наслідком ретельного аналізу уроків, отриманих з попередніх спроб регулювання AI в Каліфорнії (SB 1047). Незважаючи на нашу позицію, що питання безпеки потужного AI потрібно вирішувати на федеральному рівні, а не через розрізнені норми штатів, розробки в сфері AI не будуть чекати на консенсус у Вашингтоні.

Губернатор Ньюсом створив Спільну робочу групу політики Каліфорнії — групу академіків та експертів індустрії — для надання рекомендацій щодо управління AI. Робоча група підтримала підхід «довіряй, але перевіряй», а законопроект сенатора Скотта Вінера SB 53 реалізує цей принцип через вимоги щодо розкриття інформації, а не через обов’язкові технічні норми, які виявилися проблемними у минулорічних спробах.

Що забезпечує SB 53

SB 53 вимагатиме від великих компаній, які розробляють найпотужніші системи AI:

  • Розробляти і публікувати рамки безпеки, що описують, як вони управляють, оцінюють і пом’якшують катастрофічні ризики — ризики, які можуть призвести до масових катастроф або значних фінансових втрат.
  • Випускати публічні звіти про прозорість, що підсумовують їх оцінки катастрофічних ризиків та кроки, вжиті для реалізації відповідних рамок перед впровадженням нових потужних моделей.
  • Повідомляти про критичні інциденти безпеки державі протягом 15 днів і навіть конфіденційно надавати підсумки будь-яких оцінок потенціалу катастрофічного ризику від використання таких моделей.
  • Забезпечити чітке захист для викривачів, які повідомляють про порушення цих вимог, а також специфічні й суттєві небезпеки для громадського здоров’я/безпеки від катастрофічного ризику.
  • Нести публічну відповідальність за зобов’язання, взяті в рамках їхньої безпеки, і стикатися з фінансовими штрафами у разі їх невиконання.

Ці вимоги формалізують практики, які вже дотримуються Антропік і багато інших провідних компаній у сфері AI. У Антропік ми публікуємо нашу Політику відповідальної масштабованості, яка детально описує, як ми оцінюємо та зменшуємо ризики в міру зростання можливостей наших моделей. Ми випускаємо комплексні картки систем, що документують можливості та обмеження моделей. Інші передові лабораторії (такі як Google DeepMind, OpenAI, Microsoft) реалізували подібні підходи, активно конкуруючи у цій сфері. Тепер усі моделі, що підпадають під правові норми, зобов’язані дотримуватись цього стандарту. Законопроект також адекватно фокусується на великих компаніях, що розробляють найпотужніші системи AI, надаючи виключення для стартапів і менших компаній, які менш ймовірно розроблять потужні моделі і не повинні нести надмірні регуляторні навантаження.

Вимоги SB 53 щодо прозорості нададуть суттєвий вплив на безпеку потужного штучного інтелекту. Без цього лабораторії з дедалі більш потужними моделями можуть отримати дедалі більші стимули зменшити свої програми безпеки й розкриття інформації, щоб залишитися конкурентоспроможними. Із SB 53 розробники можуть конкурувати, залишаючись при цьому прозорими щодо можливостей AI, які несуть ризики для громадської безпеки, створюючи рівні умови, де розкриття інформації є обов’язковим, а не факультативним.

Погляд у майбутнє

SB 53 забезпечує міцну регуляторну основу, але ми можемо й повинні продовжити цю роботу в наступних напрямках і сподіваємось співпрацювати з політиками для цього:

  • Законопроект наразі вирішує, які системи AI регулювати, виходячи з обсягу обчислювальної потужності (FLOPS), використаного для їх навчання. Поточний поріг (10^26 FLOPS) є прийнятним відправним пунктом, але завжди існує ризик, що деякі потужні моделі можуть не підпадати під регулювання.
  • Аналогічно, розробники повинні бути зобов’язані надавати більше деталей про тести, перевірки та пом’якшення, які вони здійснюють. Коли ми ділимося нашими дослідженнями в галузі безпеки, документуємо наші випробування радикальними командами та пояснюємо наші рішення щодо впровадження, як це робили ми разом з іншими учасниками в рамках Форуму моделей вперед, це зміцнює нашу роботу, а не ослаблює.
  • Нарешті, регуляції повинні еволюціонувати разом з розвитком технології AI. Регулятори повинні мати можливість оновлювати правила за потреби, щоб встигати за новими розробками та зберігати баланс між безпекою та інноваціями.

Ми вдячні сенатору Вінеру та губернатору Ньюсону за їх лідерство у відповідальному управлінні AI. Питання не в тому, чи потрібно регулювати AI — питання в тому, чи ми розробимо його розумно сьогодні або реактивно завтра. SB 53 пропонує надійний шлях до першого. Ми закликаємо Каліфорнію ухвалити цей законопроект і з нетерпінням чекаємо можливості співпрацювати з політиками у Вашингтоні та в усьому світі для розвитку комплексних підходів, які захищають суспільні інтереси, зберігаючи при цьому лідерство Америки у сфері AI.

Останні дописи

  • Телескоп Джеймса Вебба від NASA відкриває регіон народження зірок у туманності Лобстера
  • Декілька науковців вважають доповідь DOE про клімат принципово некоректною
  • Дослідження про те, чи є екзопланета 55 Cancri e справжнім діамантовим світом
  • Засновник і єдиний розробник Nova Launcher пішов у відставку
  • Чи є щось більше за технології? Як Bentley адаптується до викликів XXI століття

Останні коментарі

Немає коментарів до показу.
    ©2025 techterritory.net | Дизайн: Тема Newspaperly WordPress