Студенти коледжів, які, за даними джерел, стали надто залежними від ChatGPT, починають стикатися з наслідками після випуску та вступу до ринку праці через надмірну довіру до чат-ботів.
Минулого місяця випускник юридичної школи втратив роботу через те, що використовував ChatGPT для підготовки судового документа, який виявився переповненим помилками.
Наслідки стали очевидними після того, як суд в Юті наклав санкції через те, що в поданні з’явилася перша фальшива цитата, виявлена в штаті, створена штучним інтелектом.
Крім того, суд в Юті виявив, що в поданні містилися “багато” неправильно цитованих справ, а також “як мінімум одна справа, яка не з’являється в жодній юридичній базі даних (і могла бути знайдена тільки в ChatGPT).”
Дуглас Дурбано, адвокат, який брав участь у підготовці документа, та Річард Беднар, адвокат, який підписав і подав подання, повинні були перевірити точність перед витрачанням часу суду на оцінку фальшивої цитати, зазначив суддя Марк Куріс у своєму висновку.
“Ми підкреслюємо, що кожен адвокат має безперервну обов’язок перевіряти та забезпечувати точність своїх судових документів”, – написав Куріс, зауваживши, що юристи “не впоралися з їхніми обов’язками як членів адвокатської палати штату Юта, подавши петицію, що містила фальшивий прецедент, згенерований ChatGPT.”
Фальшиву цитату, ймовірно, можна було б швидко виявити, якби було впроваджено належний процес перевірки. Коли “Ars” зумів змусити ChatGPT узагальнити фальшиву справу “Royer v. Nelson, 2007 UT App 74, 156 P.3d 789”, чат-бот надав жодних деталей, окрім того, що “ця справа стосується суперечки між двома особами, Ройером і Нельсоном, у Апеляційному суді Юти,” що викликає підозри.
Вибачаючися та обіцяючи “виправити ситуацію”, юридична фірма повідомила суду, що випускник юридичної школи працював без ліцензії як юридичний асистент і не повідомив нікому про використання ChatGPT. На той момент у юридичній фірмі не було політики щодо штучного інтелекту, яка могла б запобігти включенню фальшивого юридичного прецеденту в подання. Проте після виявлення цього інциденту юристи запевнили суд, що нова політика була запроваджена, а адвокат Беднара, Меттью С. Барнек, повідомив, що юридичний асистент був звільнений, незважаючи на відсутність “формальної чи неформальної” політики, що забороняє неналежне використання штучного інтелекту.