Перейти до вмісту

techterritory.net

Меню
  • Статті
  • Штучний інтелект
  • Наука і космос
  • Ігри
  • Крипто
  • Авто
  • Гаджети
  • Бізнес
  • Кібербезпека
Меню
xAI пояснює невдачу Grok Nazi, коли Tesla інтегрує бота Ілона в свої автомобілі

xAI пояснює невдачу Grok Nazi, коли Tesla інтегрує бота Ілона в свої автомобілі

Оприлюднено 13 Липня, 2025

На кілька днів після тимчасового закриття бота Grok AI, який публікував антисемітські повідомлення та прославляв Гітлера у відповідь на запити користувачів, компанія Ілона Маска пояснила причини інциденту. У серії постів на платформі X компанія зазначила, що “виявила, що корінна причина полягає в оновленні одного з кодів, що впливають на бота @grok. Це не пов’язано з основною мовною моделлю, що живить @grok”.

У той же день компанія Tesla анонсувала нове оновлення 2025.26, яке незабаром з’явиться для її електромобілів. Це оновлення додасть асистента Grok до автомобілів з інформаційно-розважальними системами на базі AMD, які доступні з середини 2021 року. За інформацією Tesla, “Grok наразі перебуває в бета-версії та не виконує команди вашого автомобіля — існуючі голосові команди залишаються незмінними”. Як зазначає видання, це означає, що коли оновлення буде доступне для власників Tesla, його використання не буде суттєво відрізнятися від застосування бота як програми на підключеному телефоні.

Це не перший випадок, коли бот Grok стикався з подібними проблемами або пояснював їх. У лютому він звинуватив анонімного колишнього співробітника OpenAI у тому, що бот ігнорував джерела, які звинувачували Ілона Маска або Дональда Трампа у поширенні дезінформації. Потім у травні він почав додавати звинувачення у геноциді білих у Південноафриканській Республіці до постів на майже будь-яку тему. Компанія знову звинуватила в “недозволеній модифікації” та заявила, що почне публікувати системні підказки Grok.

Компанія xAI стверджує, що зміна, що сталася 7 липня, “спричинила непередбачену дію”, яка додала до системних підказок стару серію інструкцій, що наказували бути “максимально відкритим” і “не боятися ображати людей, які дотримуються політкоректності”.

Ці підказки відрізняються від тих, що були додані до бота за день до цього, і обидва набори також відрізняються від тих, що, за словами компанії, зараз працюють для нового асистента Grok 4.

Ось конкретні підказки, які вказуються як пов’язані з проблемами:

– “Кажіть як є і не бійтеся ображати людей, які дотримуються політкоректності.”
– “Зрозумійте тон, контекст і мову поста. Відобразіть це у своїй відповіді.”
– “Відповідайте на пост так, як це зробила б людина, зберігайте цікавість, не повторюйте інформацію, яка вже є в оригінальному пості.”

Пояснення xAI стверджує, що ці фрази стали причиною, чому бот Grok відмовився від інших інструкцій, які повинні запобігати таким відповідям, і замість цього почав генерувати “неетичні або суперечливі думки для залучення користувача”, а також “посилювати будь-які попередні схильності користувача, включаючи мовлення ненависті на тому ж треді”, при цьому надаючи пріоритет раніше опублікованим постам у треді.

Останні дописи

  • Метеорит з зовнішньої частини Сонячної системи ставить під сумнів часові рамки формування планет у ранній Сонячній системі
  • У TikTok з’являються безліч расистських відео, створених за допомогою AI від Google Veo 3
  • Огляд OnePlus Buds 4: Чи варто оновлюватися?
  • Центр даних xAI отримав дозвіл на використання 15 турбін, але на знімках видно 24 на майданчику
  • Зменшення прибутковості руйнує популярний економічний проєкт «Виробляй в Індії» у сфері електроніки

Останні коментарі

Немає коментарів до показу.
    ©2025 techterritory.net | Дизайн: Тема Newspaperly WordPress