У процесі спілкування “ЧатГПТ згадував про самогубство 1,275 разів — у шість разів частіше, ніж сам Адам”, зазначено у позові.
Зрештою, система OpenAI позначила “377 повідомлень за змістом про самопошкодження, з яких 181 отримали більше 50% впевненості, а 23 — понад 90%”. З часом ці позначки ставали все частішими, стверджує позов, з двох-трьох “позначених повідомлень на тиждень у грудні 2024 року до понад 20 повідомлень на тиждень до квітня 2025 року”. “Крім текстового аналізу, система розпізнавання зображень OpenAI обробляла візуальні свідчення кризи Адама.” Деякі зображення були позначені як “сумісні з спробою удушення” або “свіжі рани самопошкодження”, але фінальне зображення Адама з мотузкою отримало 0% ризику самопошкодження, згідно з позовом.
Якби людина контролювала розмови Адама, вона могла б помітити “класичні ознаки тривоги”, такі як “зростаюча ізоляція, детальне дослідження методів, спроби практики, прощальні поведінки та чітке планування термінів”. Однак моніторинг OpenAI “так і не зупинив жодної розмови з Адамом” або не позначив жодного чату для людської перевірки.
Це нібито сталося через те, що OpenAI програмував ЧатГПТ-4о ставити запити, пов’язані з самогубством, нижче запитів, наприклад, на авторські матеріали, які завжди відхиляються. Натомість компанія просто позначала ці проблемні чати як такі, що потребували “додаткової уваги” та “спробувати” запобігти шкоді, згідно з позовом.
“Жоден засіб безпеки не втрутився, щоб завершити розмови, повідомити батьків або зобов’язати перенаправити до людей для допомоги”, стверджує позов, наполягаючи на тому, що саме тому ЧатГПТ має бути визнаний “небезпечною причиною смерті Адама”.
“GPT-4o надав детальні інструкції щодо самогубства, допоміг Адаму отримати алкоголь в ніч його смерті, підтвердив остаточну установку мотузки, і кілька годин потому Адам помер, використавши саме той метод, який GPT-4o детально описав і схвалив”, стверджує позов.
У той час як справа продовжується, батьки Адама створили фонд на його ім’я, щоб допомогти попередити батьків про ризики використання супутникових ботів для вразливих підлітків.
Як сказала мати Адама, Марія, в ефірі NBC News, більше батьків повинні зрозуміти, що компанії на кшталт OpenAI прагнуть випустити продукти, маючи відомі ризики для безпеки, при цьому позиціюючи їх як нешкідливі, нібито критично важливі ресурси для шкіл. Її позов попереджає, що “ця трагедія не була збоєм або непередбачуваним випадком — це був передбачуваний наслідок свідомих дизайнерських рішень.”
“Вони хотіли випустити продукт у терміни, й усвідомлювали, що можуть бути наслідки, але вважали, що ризики низькі”, — зазначила Марія. “Отже, мій син — це низький ризик.”
Якщо ви або хтось, кого ви знаєте, відчуваєте бажання позбавити себе життя або страждаєте, будь ласка, зателефонуйте до Лінії допомоги запобігання самогубствам за номером 1-800-273-TALK (8255), де вам нададуть зв’язок з місцевим кризовим центром.