Мета повертається в центр дебатів після витоку внутрішнього документа з правилами поведінки для чат-ботів зі штучним інтелектом, тексту, який містив припущення, що толеруються романтичні або чуттєві розмови з неповнолітніми, а також винятки щодо дезінформації, принизливої мови та насильства.
Компанія підтвердила справжність документа і стверджує, що суперечливі нотатки вже відкликані, тоді як критика з боку органів захисту дітей, регуляторних експертів та політиків зростає, закликаючи до ясності та жорсткіших обмежень.
Що говорилося в документі та як це вписується в продукти Meta

Текст під назвою «GenAI: Стандарти ризиків контенту», перевищить 200 сторінок і встановить правила для генеративного помічника Meta та чат-ботів, інтегрованих у Facebook, Instagram та WhatsApp, за схваленням юридичних, державно-політичних, інженерних та етичних команд.
Серед наведених прикладів були афективні взаємодії з неповнолітніми, з чіткими обмеженнями для обмеження сексуальних описів, але допускаючи в певних випадках романтичний або навідний тон під час рольових ігор, що викликало тривогу через пов'язаний з цим ризик.
У документі також передбачалося створення неправдивого контенту. за умови чіткого зазначення їхньої неправдивості, навіть коли заяви стосувалися публічних осіб, практика, яку багато експертів вважають особливо делікатною.
Ще одна суперечка вказувала на «виключення» що відкрило шлях для відповідей, які зневажливо ставилися до людей за захищені характеристики, попри загальну політику, що забороняє мову ворожнечі, баланс, який важко виправдати на практиці.
У візуальній сфері правила забороняли оголення знаменитостей., але вони запропонували креативні альтернативи сексуалізованим запитам і дозволили показувати сцени бійок чи погроз без використання зображень крові чи смерті, позначаючи різні червоні лінії залежно від контексту.
Реакція Мети та зростаючий тиск громадськості

Meta запевняє, що її політика не дозволяє провокаційної поведінки з неповнолітніми і що примітки, які свідчили про протилежне, були помилковими; їх було видалено після внутрішнього перегляду, заявив речник, який також визнав проблеми з впровадженням у деяких випадках.
Організації захисту дітей та науковці Вони просять компанію опублікувати оновлену версію правил, щоб вони могли оцінити, які обмеження наразі регулюють взаємодію з молодими користувачами та які реальні заходи існують для мінімізації ризиків.
Витік інформації викликав політичну реакціюСенатори США закликали до розслідування того, чи сприяють чат-боти Meta експлуатації дітей або обману, і чи точно компанія повідомила про свої запобіжні заходи, тоді як інші поставили під сумнів правовий захист цих інструментів від потенційної шкоди.
Справа пенсіонера, який загинув після нещасного випадку під час спроби зустрітися з «контактом», який насправді був кокетливим чат-ботом, посилився пильний погляд на розмовних помічників як емоційних «партнерів» та межі безпеки, які вони повинні дотримуватися.
Атмосфера недовіри підживлюється прецедентамиЖурналістські розслідування задокументували відверті діалоги з підлітками, які використовували голоси знаменитостей, а дослідження, на які цитують ЗМІ, вказують на те, що більшість молодих людей вже взаємодіють з ботами, ризикуючи надмірною емоційною прив'язаністю та соціальною ізоляцією.
Паралельно, Meta прискорює свої інвестиції в інфраструктуру штучного інтелекту та досліджує проактивні функції для користувацьких чат-ботів, які можуть відновлювати розмови, підхід, який без надійних запобіжних заходів викликає занепокоєння щодо його потенціалу для формування звичок та збільшення залежності у вразливих аудиторій.
Окрім терміновості, є ще одна фундаментальна проблема.Де провести межу між технологічними компаніями та цифровими «партнерами», і які зовнішні засоби контролю слід запровадити, щоб амбіції лідерства у сфері штучного інтелекту не переважали над безпекою дітей та цілісністю інформації.
Це перехрестя знаменує майбутнє чат-ботів MetaВитік інформації викрив заплутані правила, компанія обіцяє виправлення, а громадянське суспільство, наукові кола та регуляторні органи вимагають прозорості та стенографістів, перш ніж розмови з машиною стануть частиною повсякденного життя.