OpenAI оголосила про запуск ChatGPT Health — нового спеціалізованого інструменту для розмов про здоров’я. Це відбувається на тлі даних, що щодня 40 мільйонів людей уже використовують ChatGPT для питань про здоров’я.
Хоча медичні питання вже входять до найпопулярніших тем запитів до ChatGPT, тепер вони отримають окремий простір всередині додатка, спеціально розроблений для таких розмов.
Інтеграція з медичними даними та додатками здоров’я
Ключова функція ChatGPT Health — можливість безпечно підключати власні медичні записи та додатки для відстеження здоров’я, зокрема Apple Health, Function і MyFitnessPal. Це дозволяє отримувати відповіді на основі персональних медичних даних користувача.
Результат — більш персоналізований досвід під час постановки запитань, розшифрування повідомлень від лікаря чи спроб зрозуміти результати аналізів. OpenAI запевняє, що користувачі зберігають повний контроль над тим, до яких даних мають доступ підключені додатки, і можуть відключити їх у будь-який момент.
Компанія повідомила, що співпрацювала з понад 260 лікарями з 60 країн і десятків спеціальностей, щоб вдосконалити відповіді ChatGPT Health, визначити, коли слід рекомендувати консультацію з лікарем, і навчитися спілкуватися зрозуміло, не надмірно спрощуючи інформацію.
Приклади використання
Відео, опубліковані OpenAI, демонструють ChatGPT Health як опцію в головному меню додатка. Інструмент використовується для загальних запитів на кшталт «Завтра в мене щорічний огляд у лікаря — про що мені варто запитати?»
Інші приклади показують, як ChatGPT Health аналізує дані з Apple Health і пропонує програму тренувань для покращення фізичної форми на основі поточного рівня активності. Є також демонстрація порівняння медичних страхових планів після завантаження медичних записів.
Чи можна довіряти ШІ медичні поради
Усім відомо, що AI-чатботи можуть галюцинувати — термін OpenAI для позначення ситуацій, коли система просто вигадує інформацію. Тому виникає логічне запитання: чи можна довіряти штучному інтелекту в медичних питаннях?
OpenAI обережно обходить цю проблему, зазначаючи: «Health розроблено для підтримки, а не заміни медичної допомоги. Він не призначений для діагностики чи лікування. Натомість він допомагає орієнтуватися в повсякденних питаннях і розуміти закономірності з часом — не лише в моменти хвороби — щоб ви почувалися краще поінформованими та підготовленими до важливих медичних розмов».
Знімаючи з себе відповідальність за діагностику та лікування, OpenAI фактично нагадує, що на ChatGPT не варто покладатися для отримання достовірних відповідей, особливо коли йдеться про щось настільки важливе, як медичні поради. Компанія позиціонує інструмент радше як допоміжний сервіс для розуміння отриманої інформації.
Питання конфіденційності медичних даних
Надання OpenAI доступу до медичних записів неминуче викликає занепокоєння щодо конфіденційності та безпеки. Медична інформація належить до найчутливіших даних, і думка про передачу їх частково комерційній компанії викликає тривогу у багатьох людей.
Відповідаючи на ці побоювання, OpenAI заявила: «Розмови та файли в ChatGPT за замовчуванням шифруються як у стані спокою, так і під час передачі. Через чутливий характер медичних даних Health надбудовується над цією основою додатковими, багаторівневими засобами захисту — включно зі спеціальним шифруванням та ізоляцією — щоб медичні розмови залишалися захищеними та відокремленими. Розмови в Health не використовуються для навчання наших базових моделей».
Коротко кажучи, медичні дані не змішуватимуться зі звичайними розмовами в ChatGPT — вони зберігаються повністю окремо.
Як отримати доступ до ChatGPT Health
ChatGPT Health ще не є загальнодоступним. Для доступу потрібно приєднатися до списку очікування. Наразі право на участь мають користувачі ChatGPT з планами Free, Go, Plus і Pro за межами Європейської економічної зони, Швейцарії та Великої Британії.
Однак це обмеження може не тривати довго. OpenAI планує розширити доступ для всіх користувачів веб-версії та iOS у найближчі тижні.
Чому це викликає серйозні застереження
Жодна частина ChatGPT, як і будь-який інший ШІ-чатбот, не має кваліфікації для надання медичних порад. Ці платформи не лише здатні робити небезпечно помилкові твердження, але й передача настільки особистої інформації чатботу загалом не є рекомендованою практикою.
Особливо сумнівним виглядає довіра до компанії, яка звернула увагу на психологічний вплив свого продукту лише після того, як принаймні один підліток використав чатбот для планування суїциду — і навіть тоді обмежилась мінімальними формальностями.
OpenAI описує ChatGPT Health як інструмент, що «підтримує, а не замінює догляд клініцистів», але з мільйонами людей, які вже покладаються на ChatGPT для медичних порад, цей запуск демонструє одне: AI відіграватиме дедалі центральнішу роль у тому, як ми взаємодіємо з охороною здоров’я в майбутньому.

