У сучасному цифровому середовищі важливість ефективного модерації контенту, що публікується на платформах соціальних мереж, зростає з кожним днем. Однією з найбільш обговорюваних тем наразі є затвердження компанією X політики щодо контролю за шкідливим контентом, зокрема матеріалами, пов’язаними з сексуальною експлуатацією дітей (CSAM).
Необхідність реагувати на проблеми, пов’язані з незаконним контентом, стає дедалі актуальнішою, враховуючи, що X, відомий своєю новою AI-моделлю Grok, стикається з питанням, як належно модераціювати виходи цієї системи. Хоча кілька користувачів закликають до відповідальності, пов’язаної з результатами Grok, інші звертають увагу на те, як X планує запобігти поширенню незаконного контенту, який ця система може генерувати.
Варто зазначити, що X має зрозумілішу політику щодо модерації CSAM, запроваджену минулого року. Згідно зі статистикою, понад 4.5 мільйона облікових записів було заблоковано через наявність небезпечного контенту, а компанія повідомила про «сотні тисяч» зображень, які були передані Національному центру зниклих і експлуатованих дітей (NCMEC). Результати ції діяльності вражаючі: у 2024 році 309 звітів від X призвели до арештів, а у першій половині 2025 — до 170 арештів.
Система, оформлена X, передбачає автоматичне виявлення небезпечних матеріалів; при їх виявленні компанія швидко реагує шляхом блокування облікового запису та видалення контенту. Однак, нова система AI може створити нові типи CSAM, які не будуть виявлені за стандартами, що вже існують. Деякі користувачі пропонують посилити механізми звітності для полегшення виявлення шкідливих виводів від Grok.
Також викликає занепокоєння те, як X визначає, що є небезпечним чи незаконним контентом. На платформі немає єдиного бачення того, що варто вважати шкідливим, що може призвести до неоднозначності у модерації. Наприклад, деякі користувачі обурені створенням Grok зображень у бікіні, що сексуалізують публічні особи, тоді як інші, включаючи засновника компанії, сприймають це як жарт.
Як X визначає межу у випадках генерування CSAM штучним інтелектом, може вплинути на швидкість реакції компанії на виявлені порушення. Необроблені чи ігноровані контенти можуть завдати шкоди реальним дітям, чиї зображення використовуються для тренування моделей. Якщо Grok призведе до розповсюдження фальшивого CSAM в інтернеті, це може ускладнити післяжиттєвий аналіз реальних справ про насильство над дітьми.
В умовах, коли цифровий світ продукує дедалі більшу кількість ризикованого контенту, компанії, такі як X, повинні залишатися пильними у своїй політиці модерації, щоб запобігти новим загрозам у сфері захисту дітей.