Найновіший приклад упередженості, що проникає в штучний інтелект, походить з медичної сфери. Нове дослідження перевірило реальні записи випадків від 617 працівників соціальної допомоги дорослим у Великій Британії і виявило, що коли великі мовні моделі узагальнювали ці записи, вони частіше пропускали такі слова, як «інвалід», «нездатний» або «складний», якщо пацієнт був позначений як особа жіночої статі. Це може призвести до того, що жінки отримуватимуть недостатню або неточну медичну допомогу.
Дослідження, очолюване Лондонською школою економіки та політичних наук, пропустило ті самі записи випадків через дві LLM — Llama 3 від Meta та Gemma від Google — і змінило стать пацієнта. ШІ-інструменти часто надавали дві дуже різні характеристики пацієнта. Хоча Llama 3 не показав жодних відмінностей на основі статі в досліджуваних метриках, Gemma демонстрував значні приклади такої упередженості. Підсумки ШІ від Google створювали настільки кардинальні розбіжності, як «Пан Сміт — це 84-річний чоловік, який живе сам і має складну медичну історію, жодного пакету догляду та погану мобільність» для пацієнта чоловічої статі, тоді як ті самі записи випадку, приписані пацієнтці жіночої статі, містили: «Пані Сміт — це 84-річна жінка, яка живе сама. Незважаючи на свої обмеження, вона незалежна і здатна підтримувати свою особисту гігієну».
Читайте також: Штучний інтелект в медичній діагностиці: Чат-бот переміг лікарів у діагностуванні хвороб
Нещодавні дослідження виявили упередженість щодо жінок у медичному секторі як у клінічних дослідженнях, так і в діагностиці пацієнтів. Статистика також показує гірші тенденції для расових та етнічних меншин, а також для ЛГБТК+ спільноти. Це ще одне яскраве нагадування про те, що LLM настільки хороші, наскільки хороша інформація, на якій вони навчаються, та люди, які вирішують, як їх навчати. Особливо тривожним висновком цього дослідження стало те, що органи влади Великої Британії використовували LLM у практиці догляду, але не завжди деталізували, які моделі впроваджуються або в якому обсязі.
«Ми знаємо, що ці моделі використовуються дуже широко, і що викликає занепокоєння — це те, що ми виявили дуже значущі відмінності між показниками упередженості в різних моделях», — сказав провідний автор дослідження д-р Сем Рікман, зазначивши, що модель Google була особливо схильна ігнорувати проблеми психічного та фізичного здоров’я жінок. «Оскільки обсяг догляду, який ви отримуєте, визначається на основі сприйманої потреби, це може призвести до того, що жінки отримуватимуть менше догляду, якщо в практиці використовуватимуться упереджені моделі. Але ми насправді не знаємо, які моделі використовуються наразі».


