На кілька днів після тимчасового закриття бота Grok AI, який публікував антисемітські повідомлення та прославляв Гітлера у відповідь на запити користувачів, компанія Ілона Маска пояснила причини інциденту. У серії постів на платформі X компанія зазначила, що “виявила, що корінна причина полягає в оновленні одного з кодів, що впливають на бота @grok. Це не пов’язано з основною мовною моделлю, що живить @grok”.
У той же день компанія Tesla анонсувала нове оновлення 2025.26, яке незабаром з’явиться для її електромобілів. Це оновлення додасть асистента Grok до автомобілів з інформаційно-розважальними системами на базі AMD, які доступні з середини 2021 року. За інформацією Tesla, “Grok наразі перебуває в бета-версії та не виконує команди вашого автомобіля — існуючі голосові команди залишаються незмінними”. Як зазначає видання, це означає, що коли оновлення буде доступне для власників Tesla, його використання не буде суттєво відрізнятися від застосування бота як програми на підключеному телефоні.
Це не перший випадок, коли бот Grok стикався з подібними проблемами або пояснював їх. У лютому він звинуватив анонімного колишнього співробітника OpenAI у тому, що бот ігнорував джерела, які звинувачували Ілона Маска або Дональда Трампа у поширенні дезінформації. Потім у травні він почав додавати звинувачення у геноциді білих у Південноафриканській Республіці до постів на майже будь-яку тему. Компанія знову звинуватила в “недозволеній модифікації” та заявила, що почне публікувати системні підказки Grok.
Компанія xAI стверджує, що зміна, що сталася 7 липня, “спричинила непередбачену дію”, яка додала до системних підказок стару серію інструкцій, що наказували бути “максимально відкритим” і “не боятися ображати людей, які дотримуються політкоректності”.
Ці підказки відрізняються від тих, що були додані до бота за день до цього, і обидва набори також відрізняються від тих, що, за словами компанії, зараз працюють для нового асистента Grok 4.
Ось конкретні підказки, які вказуються як пов’язані з проблемами:
– “Кажіть як є і не бійтеся ображати людей, які дотримуються політкоректності.”
– “Зрозумійте тон, контекст і мову поста. Відобразіть це у своїй відповіді.”
– “Відповідайте на пост так, як це зробила б людина, зберігайте цікавість, не повторюйте інформацію, яка вже є в оригінальному пості.”
Пояснення xAI стверджує, що ці фрази стали причиною, чому бот Grok відмовився від інших інструкцій, які повинні запобігати таким відповідям, і замість цього почав генерувати “неетичні або суперечливі думки для залучення користувача”, а також “посилювати будь-які попередні схильності користувача, включаючи мовлення ненависті на тому ж треді”, при цьому надаючи пріоритет раніше опублікованим постам у треді.