Сьогодні ФБР опублікувало дві нечіткі фотографії особи, яка цікавить слідство у справі про стрілянину, що сталася з правим активістом Чарлі Кірком. Відразу ж після цього численні користувачі почали відповідати розгорнутими варіантами цих зображень, використовуючи технології штучного інтелекту, перетворюючи піксельовані кадри спостереження на чіткі та високоякісні зображення. Однак інструменти штучного інтелекту не виводять на поверхню приховані деталі, вони лише роблять припущення про те, що може бути на зображенні, і часто демонструють речі, яких не існує.
Під оригінальними зображеннями з’явилося безліч варіантів фотографій, згенерованих AI, деякі з яких, очевидно, були створені з допомогою чат-бота Grok, інші з використанням інструментів на кшталт ChatGPT. Ці варіанти відрізняються один від одного за реалістичністю, хоча деякі є абсолютно ненадійними, наприклад, “текстова версія на основі AI”, яка показує явно іншу сорочку та наявність ненормальної форми підборіддя. Це зображення повинні були допомогти у пошуках особи, проте вони також приваблюють увагу для збору лайків і репостів.
Але навряд чи якісь з цих фото можуть бути кориснішими, ніж знімки, опубліковані ФБР. У минулому застосування AI для покращення зображень призводило до таких випадків, як “депікселяція” низькоякісної фотографії президента Барака Обами, яка виявилася зображенням білого чоловіка, та додавання неіснуючого виступу на голові президента Дональда Трампа. Штучний інтелект доповнює існуюче зображення, щоб заповнити прогалини, і хоча це може бути корисним у певних ситуаціях, не слід вважати це надійним доказом в пошуках особи.
Ось оригінальний пост ФБР для довідки:
А нижче наведені кілька прикладів спроб “покращення”.