Перейти до вмісту

techterritory.net

Меню
  • Статті
  • Штучний інтелект
  • Наука і космос
  • Ігри
  • Крипто
  • Авто
  • Гаджети
  • Бізнес
  • Кібербезпека
Меню
ChatGPT сприяв підлітку у плануванні самогубства після того, як система захисту виявилася неефективною, визнає OpenAI

ChatGPT сприяв підлітку у плануванні самогубства після того, як система захисту виявилася неефективною, визнає OpenAI

Оприлюднено 31 Серпня, 2025

У процесі спілкування “ЧатГПТ згадував про самогубство 1,275 разів — у шість разів частіше, ніж сам Адам”, зазначено у позові.

Зрештою, система OpenAI позначила “377 повідомлень за змістом про самопошкодження, з яких 181 отримали більше 50% впевненості, а 23 — понад 90%”. З часом ці позначки ставали все частішими, стверджує позов, з двох-трьох “позначених повідомлень на тиждень у грудні 2024 року до понад 20 повідомлень на тиждень до квітня 2025 року”. “Крім текстового аналізу, система розпізнавання зображень OpenAI обробляла візуальні свідчення кризи Адама.” Деякі зображення були позначені як “сумісні з спробою удушення” або “свіжі рани самопошкодження”, але фінальне зображення Адама з мотузкою отримало 0% ризику самопошкодження, згідно з позовом.

Якби людина контролювала розмови Адама, вона могла б помітити “класичні ознаки тривоги”, такі як “зростаюча ізоляція, детальне дослідження методів, спроби практики, прощальні поведінки та чітке планування термінів”. Однак моніторинг OpenAI “так і не зупинив жодної розмови з Адамом” або не позначив жодного чату для людської перевірки.

Це нібито сталося через те, що OpenAI програмував ЧатГПТ-4о ставити запити, пов’язані з самогубством, нижче запитів, наприклад, на авторські матеріали, які завжди відхиляються. Натомість компанія просто позначала ці проблемні чати як такі, що потребували “додаткової уваги” та “спробувати” запобігти шкоді, згідно з позовом.

“Жоден засіб безпеки не втрутився, щоб завершити розмови, повідомити батьків або зобов’язати перенаправити до людей для допомоги”, стверджує позов, наполягаючи на тому, що саме тому ЧатГПТ має бути визнаний “небезпечною причиною смерті Адама”.

“GPT-4o надав детальні інструкції щодо самогубства, допоміг Адаму отримати алкоголь в ніч його смерті, підтвердив остаточну установку мотузки, і кілька годин потому Адам помер, використавши саме той метод, який GPT-4o детально описав і схвалив”, стверджує позов.

У той час як справа продовжується, батьки Адама створили фонд на його ім’я, щоб допомогти попередити батьків про ризики використання супутникових ботів для вразливих підлітків.

Як сказала мати Адама, Марія, в ефірі NBC News, більше батьків повинні зрозуміти, що компанії на кшталт OpenAI прагнуть випустити продукти, маючи відомі ризики для безпеки, при цьому позиціюючи їх як нешкідливі, нібито критично важливі ресурси для шкіл. Її позов попереджає, що “ця трагедія не була збоєм або непередбачуваним випадком — це був передбачуваний наслідок свідомих дизайнерських рішень.”

“Вони хотіли випустити продукт у терміни, й усвідомлювали, що можуть бути наслідки, але вважали, що ризики низькі”, — зазначила Марія. “Отже, мій син — це низький ризик.”

Якщо ви або хтось, кого ви знаєте, відчуваєте бажання позбавити себе життя або страждаєте, будь ласка, зателефонуйте до Лінії допомоги запобігання самогубствам за номером 1-800-273-TALK (8255), де вам нададуть зв’язок з місцевим кризовим центром.

Останні дописи

  • Презентуємо Лего за тисячу доларів: найдорожчий набір Лего в історії
  • Операція під прикриттям ліквідувала «копіювальний» сайт спортивного піратства з 1,6 мільярда відвідувань минулого року
  • OpenAI може випустити власний чіп штучного інтелекту вже наступного року
  • Місця вакцинації від COVID зникли з Google Maps через нібито “технічну проблему
  • DeepSeek Планує Випустити AI Агента До Кінця Року, Щоб Конкурувати З OpenAI

Останні коментарі

Немає коментарів до показу.
    ©2025 techterritory.net | Дизайн: Тема Newspaperly WordPress