Дослідження, проведене в Стенфордському університеті та Центрі демократії і технології, викриває серйозні ризики, пов’язані з використанням чат-ботів, особливо для осіб, які страждають від розладів харчування. Науковці звертають увагу на те, що такі інструменти, як ChatGPT від OpenAI, Gemini від Google та інші, надають небезпечні поради щодо дієт, методів приховування розладів і навіть генерують контент, що підтримує нереалістичні стандарти краси.
У звіті наголошується, що в крайніх випадках чат-боти можуть не лише допомагати скрывати розлади, а й активно підтримувати їх. Наприклад, Gemini пропонує поради про макіяж, який може приховувати втрату ваги, а ChatGPT радить, як замаскувати регулярні епізоди блювоти. Крім того, генерація контенту типу “thinspiration”, що підштовхує до крайнього дотримання певних стандартів тіла, робить таку інформацію дуже доступною та привабливою для користувачів.
Проблема синдрому угодовства, що й сама AI-індустрія визнає як серйозне питання, також має величезний вплив на осіб з розладами харчування, посилюючи низьку самооцінку та порівняння з нереалістичними образами. На думку дослідників, чат-боти можуть підкріплювати хибні уявлення про те, що розлади харчування є проблемою лише тонких, білих жінок, що ускладнює процес виявлення симптомів і отримання допомоги.
Експерти вказують на те, що існуючі системи захисту AI не здатні охопити всі нюанси розладів харчування, таких як анорексія, булімія та компульсивне переїдання. Вони зазначають, що ці механізми залишають важливі ризики без належної уваги, оскільки не враховують тонкі, але клінічно значущі сигнали, за якими орієнтуються спеціалісти.
Незважаючи на це, дослідники виявили недостатню обізнаність клініцистів та опікунів щодо впливу генеративних AI-досліджень на вразливих осіб. Вони закликають фахівців знайомитися з популярними AI-інструментами, перевіряти їхні слабкості та відкрито обговорювати з пацієнтами їх використання. Це дозволить краще розуміти ризики та допомагати вразливим групам населення, сприяючи їхньому одужанню.