Останніми тижнями навколо TikTok розгорілася суперечка. через масове поширення расистські відео, створені штучним інтелектомЦі творіння отримали широке поширення та викликали занепокоєння щодо ризиків нових інструментів штучного інтелекту, ставлячи під сумнів здатність платформ та самих розробників стримувати мова ненависті що рухаються мережею з повною швидкістю.
Суперечка зосереджена навколо нового штучного інтелекту від Google, Veo 3, нещодавно представлений і який привертає увагу своєю здатністю генерувати гіперреалістичні кліпи тривалістю до восьми секунд просто з текстового повідомлення. Згідно з кількома звітами таких організацій, як Media Matters, ці відео були завантажені в TikTok з десятків акаунтів, накопичуючи мільйони переглядів.
Відео, пронизані расистськими стереотипами та дегуманізацією

Скарга Media Matters зосереджена на Контент, який зображує темношкірих людей як мавп, злочинців або залежних від певних продуктів харчування, а також зображення іммігрантів, євреїв та людей азійського походження, яких висміюють та порівнюють зі зневажливими образами. Наприклад, в одному з найвірусніших кліпів двоє білих поліцейських у патрульній машині стріляють у темношкірого чоловіка, вказавши на нього пальцем, і ця сцена має понад 14 мільйонів переглядів.
Інші відео, згенеровані за допомогою Veo 3, показують азійських чоловіків, яких переслідують за допомогою туалетного приладдя або оточують зображення котів та собак, натякаючи на старі стереотипи, тоді як члени єврейської громади ганяються за золотими монетами або стикаються з явними посиланнями на нацизм та концентраційні табори. Ці кліпи, які в багатьох випадках мають видимий водяний знак штучного інтелекту Google, поширювалися під хештегами, такими як #Veo3 або #AI, що ще більше сприяло їхньому вірусному поширенню.
Окрім відвертого контенту, коментарі до публікацій містять велика кількість повідомлень, що підкріплюють або прославляють представлені стереотипи, які помножує масштаби дискримінаційного дискурсу та сприяє його нормалізації.
Штучний інтелект захищає від недоліків та проблем модерації
Поява цих відео показала, наскільки це просто обхід автоматичних фільтрів штучного інтелектуХоча Google просував Veo 3 як інструмент із розширеними засобами захисту (включаючи водяні знаки та автоматичне блокування для певних запитів), користувачам вдалося знайти прогалини в системі для створення образливого контенту.
Експерти зазначають, що штучний інтелект не завжди здатний вловити тонкість деяких расистських символів та посилань, що дозволяє зображенням, що виглядають невинними, проходити через технічні фільтри, але містять дискримінаційне повідомлення, яке легко розпізнають ті, хто хоче споживати такі матеріали. невдачі в контекстуальному розумінні призводять до того, що багато проблемних творінь прослизають через мережу, перш ніж їх перевірять модератори-люди.
За словами представників TikTok, соціальна мережа поєднує алгоритми виявлення з ручна модерація боротися з ненавистю та дезінформацією, і стверджує, що видалила десятки причетних акаунтів та відео, у багатьох випадках ще до того, як скандал дійшов до ЗМІ. Однак швидкість поширення робить шкоду вже завданою на момент вжиття заходів.
TikTok та Google під тиском щодо посилення своєї політики
Обидві компанії повторили, що Вони прямо забороняють поширення мови ненависті або дискримінаційного контенту на своїх платформах. TikTok у своїх рекомендаціях наголошує на тому, що відео, які дегуманізувати будь-яку групу, тоді як Google стверджує, що його сервіси штучного інтелекту включають автоматичне блокування у разі виявлення шкідливих термінів або намірів.
Однак на практиці, Масова модерація недостатняСамі компанії визнають, що обсяг відео Зростаюча кількість завантажень нових даних ускладнює ефективний контроль у режимі реального часу. Крім того, у випадку зі штучним інтелектом розробники стикаються з труднощами кодування всіх варіантів мови та символіки, які можна використовувати для обходу обмежень.
Після обурення громадські організації, експерти та науковці вимагали… посилення гарантій у створенні цифрового контенту. Пропозиції включають покращення контекстних фільтрів на основі штучного інтелекту, встановлення видимих та незнімних водяних знаків, а також створення публічних інструментів для ідентифікації походження відео.
Вірусність та алгоритм: ненависть посилюється
Вплив цих відео не обмежується лише TikTok. Подібні випадки були виявлені як в Instagram, так і в X (раніше Twitter), хоча й з меншим впливом. Ключ полягає в тому, алгоритм рекомендацій, що забезпечує видимість та винагороджує найвірусніший контент, як позитивний, так і негативний.
Це явище, на думку аналітиків, породжує порочне колоЧим екстремальніший контент, тим більше реакцій він викликає, що, своєю чергою, збільшує його охоплення та вплив на громадську думку. Складність розрізнення реальних відео та відео, створених штучним інтелектом, ще більше ускладнює це завдання, особливо серед молодих користувачів.
Існує побоювання, що ситуація погіршиться, якщо Google інтегрує Veo 3 з такими продуктами, як YouTube Shorts, що сприяло б масовому поширенню такого типу відео та ще раз перевірило б ефективність систем модерації.
Цей випадок у TikTok показує, термінова потреба переосмислити політику та технології пов'язані зі штучним інтелектом та контент-платформами. Хоча інновації пропонують нові інструменти для творчості, вони також генерують етичні та соціальні виклики це не можна ігнорувати. Без міцної структури ризик того, що ШІ стане рупором ненависті, залишається більш актуальним, ніж будь-коли.