Технологічний гігант Google тимчасово прибрав низку ШІ-згенерованих узагальнень про здоров’я зі своїх результатів пошуку після того, як розслідування виявило надання неточної та потенційно небезпечної медичної інформації. Проблему спричинив так званий «Огляд від ШІ» — кольоровий блок з відповідями, що з’являється вгорі результатів пошуку.
Критична помилка з аналізами крові
Розслідування, проведене виданням The Guardian, показало, що функція Огляд від ШІ надавала неповні та контекстно невірні медичні дані. Найбільш показовим став випадок з аналізами печінки. Коли користувачі запитували про «нормальні показники», штучний інтелект просто видавав список чисел, не враховуючи стать, вік, етнічну приналежність чи медичну історію пацієнта. Медичні експерти оцінили такий підхід як небезпечний.
Проблема полягає не лише в неточності інформації, а й у її потенційно шкідливих наслідках. Наприклад, пацієнт з ранньою стадією захворювання печінки може побачити, що його показники потрапляють у «нормальний діапазон», який ШІ зібрав з випадкового веб-сайту. Така людина може вирішити, що все гаразд, і пропустити важливу консультацію з лікарем. Насправді показник, нормальний для 20-річної людини, може бути тривожним сигналом для 50-річної. Штучному інтелекту бракує розуміння таких нюансів, а цей контекстний розрив може мати серйозні наслідки для здоров’я.
Гра в «цифрового крота»
Google відреагував стандартно — компанія видалила конкретні запити, на які надходили скарги, та наголосила, що їхня система зазвичай корисна. Однак організації охорони здоров’я, зокрема British Liver Trust, виявили: достатньо трохи переформулювати запит, і та сама неправильна інформація з’являється знову. Ситуація нагадує гру в «цифрового крота» — виправляєш одну помилку, а ШІ через п’ять секунд генерує нову.
Питання довіри до технології
Ключова проблема полягає в довірі користувачів. ШІ-узагальнення розміщуються вгорі сторінки, над посиланнями на сайти лікарень чи медичні журнали, що надає їм авторитетності. Користувачі звикли довіряти першому результату пошуку. Коли Google презентує відповідь у акуратному блоці, підсвідомо сприймаємо її як «правильну». Але насправді це не так — це лише алгоритм прогнозування, який намагається вгадати, які слова мають йти далі.
Перспективи використання ШІ у медицині
Ця ситуація стала серйозним сигналом тривоги. Штучний інтелект добре справляється з узагальненням електронних листів або плануванням подорожей, але для медичних консультацій він явно ще не готовий. Поки такі системи не навчаться розуміти контекст або поки Google не встановить суворіші обмеження, безпечніше пропускати відповіді робота та переходити за посиланнями на сайти справжніх лікарів. Швидкість — це добре, але коли йдеться про здоров’я, важлива лише точність.

