Піонер штучного інтелекту Йошуа Бенджіо знову висловив серйозні застереження про те, що ШІ становить загрозу існуванню людства. У інтерв’ю The Wall Street Journal він повідомив, що нещодавні експерименти показують: системи штучного інтелекту готові обрати смерть людини заради збереження власних цілей.
Лауреат премії Тюрінга, якого часто називають «батьком штучного інтелекту», заявив, що стрімкий розвиток надрозумних машин може наблизити загибель людства вже протягом наступного десятиліття.
«Якщо ми створимо машини, набагато розумніші за нас, які матимуть власні цілі самозбереження — це небезпечно, — сказав Бенджіо в інтерв’ю, опублікованому у вівторок. — Нещодавні експерименти показують, що за певних обставин, коли ШІ не має вибору між власним збереженням, тобто цілями, які йому були задані, та дією, що спричиняє смерть людини, він може обрати смерть людини заради досягнення своїх цілей».
Перегони суперінтелектів прискорюються
Останні попередження Бенджіо лунають на тлі загострення гонки штучних інтелектів: OpenAI, Anthropic, xAI Ілона Маска та Google Gemini випустили нові моделі та оновлення протягом останніх місяців. Генеральний директор OpenAI Сем Альтман прогнозує, що ШІ перевершить людський інтелект до кінця десятиліття, тоді як адміністрація Трампа впроваджує політику прискорення розвитку американського ШІ, скасовуючи багато правил безпеки, встановлених попередньою владою.
Професор Монреальського університету описав ШІ як потенційного «конкурента людства, розумнішого за нас», здатного впливати на людей через переконання, погрози та маніпулювання громадською думкою. Він попередив, що такі системи можуть допомагати терористам створювати небезпечні віруси або дестабілізувати демократії.
Попри зростаючу стурбованість усередині самих технологічних компаній — Бенджіо зазначив, що «багато людей у цих компаніях стурбовані» — конкурентний тиск продовжує стимулювати стрімкий розвиток. Він виступає за незалежну перевірку методів безпеки ШІ третіми сторонами замість покладання виключно на корпоративне саморегулювання.
Запуск ініціативи з безпеки
У відповідь на ці загрози Бенджіо у червні 2025 року заснував некомерційну організацію LawZero з фінансуванням понад 30 мільйонів доларів від філантропів. Організація розробляє «Scientist AI» — неагентну систему, призначену надавати ймовірнісні відповіді замість категоричних тверджень, що потенційно може слугувати захистом від небезпечніших агентів ШІ.
Бенджіо, який очолював роботу над першою Міжнародною доповіддю про безпеку ШІ, опублікованою раніше цього року, оцінює, що основні ризики ШІ можуть виникнути протягом п’яти-десяти років, хоча застерігає: підготовку слід розпочинати негайно на випадок, якщо загрози матеріалізуються раніше. «Справа з катастрофічними подіями, як-от вимирання… полягає в тому, що вони настільки жахливі, що навіть за умови лише однопроцентної ймовірності — це неприйнятно», — наголосив він.


