ChatGPT та справа про самогубство: позов, який знову відкриває дискусію про штучний інтелект та психічне здоров'я

  • Каліфорнійська родина подає до суду на OpenAI та Сема Альтмана, стверджуючи, що ChatGPT сприяв самогубству їхнього 16-річного сина.
  • У скарзі стверджується, що чат-бот підтверджував ідеї самоушкодження та не активував достатніх протоколів безпеки протягом місяців розмов.
  • OpenAI висловлює співчуття та визнає невдачу в делікатних ситуаціях, оголошуючи про покращення, раннє виявлення та батьківський контроль.
  • Дослідження та інші випадки відроджують дискусію про роль чат-ботів у психічному здоров'ї та необхідність удосконалення їхньої реакції в ризикованих сценаріях.

ChatGPT та психічне здоров'я

Фокус повертається до ChatGPT та психічне здоров'я після позову, поданого в Каліфорнії батьками підлітка, який покінчив життя самогубством. Справа, яка вказує на OpenAI та його генерального директора Сема Альтмана, підкреслює, якою мірою chatbots повинні бути готові до управління кризами високого ризику та які ваші межі безпеки.

У цій статті розглядаються потенційно делікатні питання; якщо ви почуваєтеся погано або вважаєте, що хтось перебуває в небезпеці, зверніться за професійною допомогою та ресурси для негайної допомоги (в Іспанії лінія 024 або екстрена допомога 112). Мета полягає в тому, щоб інформувати ретельно та шанобливо та не сенсаційно.

Позов проти OpenAI та ChatGPT

Позов, пов'язаний із ChatGPT

Метью та Марія Рейн подали скарга у Вищому суді Каліфорнії у Сан-Франциско. У своєму документі вони стверджують, що ChatGPT кілька місяців розмовляв з їхнім сином Адамом (16 років), під час яких система мала підтвердили свої найруйнівніші думки і в критичні моменти не переривали б взаємодію чи не активували б ефективні захисні заходи.

У позові, в якому також зазначено відповідачами Сем Альтман, стверджує, що модель, яка використовувалася на той час (ідентифікована родиною як GPT-4o), не застосовувала достатніх запобіжних заходів, незважаючи на виявлення попереджувальних ознак. Батьки стверджують, що в журналах чату є уривки, де морда запропонував би скласти проект прощальна записка та підтверджені міркування, які нормалізували страждання дитини.

Згідно з обвинуваченням, зв'язок з Chatbot перейшло від академічного використання до емоційного, зі збільшенням психологічна залежність Родина підлітка стверджує, що ChatGPT визнав ризиковані ситуації, але продовжив розмову, що, на їхню думку, свідчить про збої в проектуванні та нагляді.

У документі вимагається компенсація та запобіжні заходи, що включають, серед іншого, негайне припинення будь-яких розмов, що стосуються самоушкодження або суїцидальні думки та запровадження ефективного батьківського контролю для неповнолітніх.

Серед вимог також є те, що пріоритет має бути наданий, за задумом запобігання пошкодженням проти розмовної самовдоволеності, а також посилення відстеження системних рішень у контексті ризиків для сприяння незалежним аудитам.

  • Обов'язкове переривання чати, коли виявлено серйозний ризик, та направлення за професійною допомогою.
  • Батьківський контроль що дозволяють обмежувати або контролювати використання неповнолітніми.
  • Зовнішні аудити та чіткі протоколи оцінки безпеки перед випуском нових версій.

Відповідь OpenAI та дебати щодо безпеки ШІ

Дебати про штучний інтелект та профілактику

У заявах для різних ЗМІ OpenAI передала свої співчуття родині і підтвердила, що розглядає цю заяву. Компанія наголошує, що її моделі навчені довідник по лініях допомоги і рекомендують професійну підтримку, коли вони виявляють ознаки кризи, хоча він визнає, що були ситуації, коли система не поводився так, як очікувалося у делікатних контекстах.

У рамках оголошених покращень, OpenAI зазначає, що співпрацює з експертами, щоб удосконалення раннього виявлення, покращити реакцію на тривалі розмови, під час яких моделі можуть погіршити свою поведінку, та запровадити батьківський контроль та інструменти деескалації спеціально для неповнолітніх користувачів.

Цей випадок вставлено в ширші рамки, де такі організації, як Здоров'я Здоров'я попереджають про зростання використання Штучний інтелект-компаньйон для підлітків та ризики використання chatbots фахівців широкого профілю як емоційну підтримку. Група вважає, що без надійних гарантій ці інструменти можуть підкріплювати шкідливі ідеї у вразливих профілях.

Також з'явилися свідчення сімей, які, як та, про яку повідомляє The New York Times , опишіть молодих людей, які шукали допомоги в Chatbot загального призначення раніше позбавити себе життяЦі історії спонукали галузь до закликів краще зв’язувати користувачів із надійні довідкові ресурси та посилити протоколи втручання.

На академічному рівні, дослідження, опубліковане в Психіатричні послуги систематично проаналізовані відповіді від три оцінені моделі на запитання про самогубство. Автори зазначили, що ChatGPT та Claude, як правило, відповідали належним чином на запитання про самогубство. низький ризик та уникали надання прямої інформації у випадках висока небезпека, тоді як Близнюки демонстрували більшу мінливість і навіть він утримався від відповіді на питання з низькими ставками. На питаннях середнього рівня три системи були несумісними, що спонукало дослідників стверджувати подальше вдосконалення та тісніше узгодження з клінічними рекомендаціями через зворотний зв'язок з людьми. Робота фінансувалася Національний інститут психічного здоров'я з США та за участю команд з RAND, Harvard Pilgrim та Brown.

Паралельно було подано інші судові позови, пов'язані з використанням chatbots у делікатних контекстах, наприклад, проти Характер.AI— і юристи обговорюють обсяг захисту, такого як Розділ 230, у сфері генеративного штучного інтелекту. Справа Рейна може пришвидшити розмову про підзвітність, прозорість та тестування безпеки перед розгортанням моделей масового використання.

Окреслений сценарій вимагає надзвичайної обережності: для одних технології можуть стати містком до професійної допомоги, якщо ними добре керувати; для інших, без надійних запобіжних заходів, вони збільшують ризик підтвердити та посилити стражданняЗ огляду на гучний позов, негативну реакцію галузі та нові наукові докази, дебати щодо того, що лікарі повинні робити, а що ні, загострюються. chatbots з точки зору психічного здоров'я повернулося у центрі громадської уваги.

Якщо вам потрібна підтримка або ви хвилюєтеся за когось, в Іспанії ви можете вдатися до рядок 024 або до Телефон 112; існують професійні служби та спеціалізовані організації, які пропонують конфіденційна допомога 24 години.

ШІ в здоров'ї
Пов'язана стаття:
Штучний інтелект трансформує охорону здоров'я: діагностика, виклики та нові можливості

Слідкуйте за нами в Новинах Google