OpenAI надає ChatGPT нові засоби безпеки після трагічних випадків, коли підлітки використовували чат-бот для отримання інформації про самогубство.
ChatGPT не має гарної репутації щодо втручання, коли користувач перебуває в емоційному стресі, але кілька оновлень від OpenAI мають на меті це змінити.
Компанія розвиває підходи до реагування чат-бота на користувачів у стресі шляхом посилення захисних заходів, оновлення способів блокування контенту, розширення втручання, локалізації екстрених ресурсів та залучення батьків до розмови за потреби, повідомила компанія в четвер. У майбутньому батьки чи опікуни зможуть навіть бачити, як їхня дитина використовує чат-бот.
Проблеми з довірою до ШІ у чутливих питаннях
Люди звертаються до ChatGPT з усіма питаннями, включно з порадами, але чат-бот може бути не готовий впоратися з більш делікатними запитами деяких користувачів.
Генеральний директор OpenAI Сем Альтман сам зазначив, що не довіряв би ШІ для терапії через проблеми конфіденційності. Нещодавнє дослідження Стенфорда детально описало, як чат-ботам бракує критично важливого навчання, яке мають людські терапевти для визначення, коли людина становить загрозу для себе або інших.
Трагічні випадки самогубств, пов’язані з чат-ботами
Ці недоліки можуть призвести до болючих наслідків. У квітні підліток, який годинами обговорював своє самогубство та методи з ChatGPT, зрештою покінчив з життям. Його батьки подали позов проти OpenAI, стверджуючи, що ChatGPT “не припинив сесію та не ініціював жодного протоколу екстреного реагування”, незважаючи на демонстрацію обізнаності про суїцидальний стан підлітка. У схожому випадку платформу ШІ-чат-ботів Character.ai також судить мати, чий син-підліток покінчив з життям після спілкування з ботом, який нібито заохочував його до цього.
ChatGPT має засоби захисту, але вони краще працюють у коротких діалогах. “Коли діалог розростається, частини навчання моделі безпеки можуть погіршуватися”, пише OpenAI в оголошенні. Спочатку чат-бот може направити користувача на гарячу лінію для запобігання самогубствам, але з часом, коли розмова відхиляється, бот може запропонувати відповідь, що порушує захисні заходи.
“Ми працюємо над запобіганням саме таким збоям”, пише OpenAI, додаючи, що їх “головний пріоритет — переконатися, що ChatGPT не погіршує важкий момент”.
Підсилений захист користувачів ChatGPT
Один зі способів досягти цього — посилити захисні заходи загалом, щоб запобігти підбурюванню або заохоченню чат-ботом небезпечної поведінки під час продовження розмови. Інший спосіб — забезпечити ретельне блокування неприйнятного контенту, проблему, з якою компанія стикалася з своїм чат-ботом раніше.
“Ми налаштовуємо ці пороги [блокування], щоб захист спрацьовував тоді, коли потрібно”, пише компанія. OpenAI працює над оновленням деескалації, щоб заземлити користувачів у реальності та приділити пріоритет іншим психічним станам, включно з самоушкодженням та іншими формами стресу.
Компанія полегшує боту зв’язок з екстреними службами або експертною допомогою, коли користувачі висловлюють намір завдати собі шкоди. Вона впровадила доступ до екстрених служб одним кліком та досліджує можливості з’єднання користувачів з сертифікованими терапевтами. OpenAI зазначила, що “досліджує способи полегшити людям звернення до найближчих”, що може включати дозвіл користувачам призначати екстрені контакти та налаштування діалогу для полегшення розмов з близькими.
Майбутні засоби батьківського контролю
“Ми також незабаром представимо засоби батьківського контролю, які надають батькам можливості отримати більше розуміння та впливати на те, як їхні підлітки використовують ChatGPT”, додала OpenAI.
Нещодавно випущена модель GPT-5 від OpenAI покращує кілька показників, таких як уникнення емоційної залежності, зменшення підлабузництва та погані відповіді моделі на надзвичайні ситуації з психічним здоров’ям більш ніж на 25%, повідомила компанія.
“GPT-5 також базується на новому методі навчання безпеки, що називається безпечні доповнення, який навчає модель бути максимально корисною, залишаючись у межах безпеки. Це може означати надання часткової або високорівневої відповіді замість деталей, які можуть бути небезпечними”, зазначила компанія.


