Група дослідників стверджує, що технологія штучного інтелекту може бути використана для посилення існуючої нерівності, маніпулювання інформацією та поширення дезінформації і навіть «втрати контролю над автономними системами штучного інтелекту, що потенційно може призвести до вимирання людства».
Більше десятка нинішніх і колишніх співробітників компаній OpenAI, Google’s Deep Mind і Anthropic опублікували у вівторок відкритий лист, в якому звернули увагу на «серйозні ризики», пов’язані з продовженням швидкого розвитку технології штучного інтелекту без ефективної системи нагляду за нею.
Підписанти вважають, що ці ризики можна «адекватно пом’якшити» спільними зусиллями наукової спільноти, законодавців і громадськості, але занепокоєні тим, що «компанії, які розробляють ШІ, мають сильні фінансові стимули для уникнення ефективного нагляду» і не можуть розраховувати на неупереджене управління розвитком технології.
Це вже не перший випадок, коли дослідники закликають до обережності у сфері розробки штучного інтелекту. Нагадаємо, що в березні 2023 року Ілон Маск, а також низка технічних керівників і експертів зі штучного інтелекту, інформатики та інших дисциплін також у відкритому листі, закликали провідні лабораторії штучного інтелекту призупинити розробку систем більш просунутих, ніж GPT-4, посилаючись на «великі ризики» для людського суспільства.
З моменту випуску ChatGPT у листопаді 2022 року технологія генеративного штучного інтелекту штурмом захопила світ обчислювальної техніки, а такі гіганти, як Google Cloud, Amazon AWS, Oracle та Microsoft Azure, очолили індустрію, яка, як очікується, досягне 1,3 трильйона доларів доходу до 2032 року. Нещодавнє дослідження McKinsey показало, що станом на березень 2024 року майже 75% опитаних організацій впровадили ШІ принаймні в одній якості. Тим часом, у своєму щорічному дослідженні Work Index компанія Microsoft виявила, що 75% офісних працівників вже використовують ШІ на роботі.
Однак, як сказав Даніель Кокотайло, колишній співробітник OpenAI, в інтерв’ю The Washington Post: «Вони та інші купилися на підхід “рухатися швидко та напролом”, а це протилежність тому, що потрібно для такої потужної і погано вивченої технології». Наприклад, стартапи в галузі штучного інтелекту, такі як OpenAI і Stable Diffusion, неодноразово порушували закони США про авторське право, тоді як загальнодоступні чат-боти регулярно підбурюють до повторення мови ненависті і теорій змови, а також поширюють дезінформацію.
Працівники AI-компаній, які виступають проти, стверджують, що ці компанії володіють «суттєвою непублічною інформацією» про можливості та обмеження своїх продуктів, зокрема про потенційний ризик заподіяння шкоди моделями і про те, наскільки ефективними є їхні захисні механізми. Вони зазначають, що лише частина цієї інформації доступна державним органам через «слабкі зобов’язання ділитися нею, і жодна з них не є доступною для широкої громадськості».
«Поки немає ефективного державного нагляду за цими корпораціями, нинішні та колишні працівники є одними з небагатьох людей, які можуть притягнути їх до відповідальності перед громадськістю», – заявила група, стверджуючи, що широке використання угод про конфіденційність у галузі та слабке впровадження існуючих механізмів захисту інформаторів перешкоджають вирішенню цих питань.
Група закликала компанії, що працюють у сфері штучного інтелекту, припинити укладати і виконувати угоди про нерозголошення, створити анонімну процедуру для співробітників, які можуть звертатися зі своїми проблемами до ради директорів компанії та державних регуляторів, а також не мститися громадським викривачам, якщо ці внутрішні процедури виявляться недостатніми.
Розвиток штучного інтелекту призводить до зростання кількості шахрайств у соцімережах