Минуло більше двох років з того часу, як ChatGPT вибухнув на світовій арені, і, хоча OpenAI багато в чому вдосконалив його, все ще існує чимало перешкод. Одна з найбільших проблем – галюцинації ШІ, або видача неправдивої інформації за правдиву. Австрійська правозахисна група Noyb подала вже другу скаргу на OpenAI за такі галюцинації, назвавши конкретний випадок, коли ChatGPT нібито – і помилково – заявив, що норвезький чоловік був вбивцею.
Що ще гірше, коли цей чоловік запитав ChatGPT, що він знає про нього, той відповів, що його засудили до 21 року ув’язнення за вбивство двох своїх дітей і замах на вбивство третьої. Галюцинація також була посипана реальною інформацією, включаючи кількість його дітей, їхню стать і назву його рідного міста.
Noyb стверджує, що така відповідь поставила OpenAI в умови порушення GDPR.
«GDPR є чітким. Персональні дані повинні бути точними. А якщо це не так, користувачі мають право на їх зміну, щоб вони відповідали дійсності», – заявив юрист Noyb із захисту даних Йоакім Седерберг (Joakim Söderberg). «Показувати користувачам ChatGPT крихітне застереження про те, що чат-бот може помилятися, недостатньо. Не можна просто поширювати неправдиву інформацію, а наприкінці додати невелике застереження про те, що все, що ви сказали, може просто не відповідати дійсності…»
Серед інших помітних випадків галюцинацій ChatGPT – звинувачення однієї людини в шахрайстві та розкраданні, судового секретаря в жорстокому поводженні з дітьми та професора права в сексуальних домаганнях, про що повідомляли численні видання.
Перша скарга Noyb на галюцинації, подана до OpenAI у квітні 2024 року, стосувалася неточної дати народження громадського діяча (звісно не вбивства, але все одно неточної). OpenAI відхилив прохання скаржника стерти або оновити дату народження, стверджуючи, що не може змінити інформацію, яка вже є в системі, а лише заблокувати її використання за певними запитами. ChatGPT відповів застереженням, що він «може робити помилки».
Так, є така приказка, що всі роблять помилки, тому на олівцях є гумки. Але коли йдеться про неймовірно популярного чат-бота зі штучним інтелектом, чи справді ця логіка працює? Побачимо, чи відреагує OpenAI на останню скаргу Noyb, і якщо так, то як.