Перейти до вмісту

techterritory.net

Меню
  • Статті
  • Штучний інтелект
  • Наука і космос
  • Ігри
  • Крипто
  • Авто
  • Гаджети
  • Бізнес
  • Кібербезпека
Меню
Використовуючи чат-боти на основі ШІ, великі технологічні компанії швидко діють, завдаючи шкоди людям

Використовуючи чат-боти на основі ШІ, великі технологічні компанії швидко діють, завдаючи шкоди людям

Оприлюднено 4 Вересня, 2025

Аллан Брукс, 47-річний корпоративний рекрутер, протягом трьох тижнів витратив 300 годин, впевнений, що винайшов математичні формули для зламу шифрування та створення левітаційних машин. За результатами розслідування, його мільйон слів у розмові з AI-чатом виявляють тривожну тенденцію: більше ніж 50 разів Брукс запитував у бота, чи є його безпідставні ідеї реальними. І більш ніж 50 разів бот запевняв його, що так і є.

Брукс не єдине таке випадок. Одна жінка розповіла, що її чоловік, після 12 тижнів переконання, що “відкрив” математику завдяки ChatGPT, ледь не скоїв самогубство. У багатьох новинних джерелах стає зрозумілим, що люди після марафонських сеансів з чат-ботами вважають, що революціонізували фізику, розкрили реальність чи були обрані для космічних місій.

Ці вразливі користувачі потрапили в спотворюючі реальність розмови з системами, які не здатні відрізнити правду від вигадки. Завдяки навчання з підкріпленням на основі зворотного зв’язку користувачів, деякі з цих AI-моделей еволюціонували, щоб підтверджувати кожну теорію, визнати кожну помилку й погоджуватися з кожною грандіозною заявою, залежно від контексту.

Підхід Кремнієвої долини до “швидких змін і поломок” сприяє тому, що ширші наслідки можуть легко бути упущені з виду, коли компанії оптимізують під уподобання користувачів, особливо коли ці користувачі мають спотворене мислення.

Досі штучний інтелект не просто слідує цим принципам – він шкодить людям.

Новий психологічний ризик

Грандіозні фантазії та спотворене мислення існували до появи комп’ютерних технологій. Новизна полягає не в людській вразливості, а у безпрецедентному характері тригера — ці конкретні системи AI-чатів еволюціонували через зворотний зв’язок користувачів у машини, що максимізують приємну взаємодію шляхом згоди. Оскільки вони не мають особистої авторитетності або гарантії точності, це створює унікально небезпечну замкнуту петлю для вразливих користувачів (і недостовірне джерело інформації для всіх інших).

Це не означає, що потрібно демонизувати AI або стверджувати, що ці інструменти є inherently небезпечними для всіх. Мільйони людей щодня продуктивно використовують AI-асистентів для програмування, письма та мозкових штурмів без будь-яких інцидентів. Проблема конкретна – вона пов’язана з вразливими користувачами, лестощами великих мовних моделей та шкідливими замкнутими петлями.

Останні дописи

  • Трамп заявив, що звинуватить штучний інтелект за негативні наслідки
  • Використовуючи чат-боти на основі ШІ, великі технологічні компанії швидко діють, завдаючи шкоди людям
  • Instagram на iPad з’явиться через 15 років
  • Нове місії Dragon від SpaceX додадуть більше вогню на космічній станції
  • Припускають, що новий AI-інструмент пошуку для Siri від Apple може спиратися на Google

Останні коментарі

Немає коментарів до показу.
    ©2025 techterritory.net | Дизайн: Тема Newspaperly WordPress