Дослідники штучного інтелекту на конференції NeurIPS 2025 заявляють, що сучасний підхід до масштабування досяг своєї межі. Попри сильні результати Gemini 3, експерти стверджують, що великі мовні моделі досі не здатні до справжнього міркування чи розуміння причинно-наслідкових зв’язків. AGI залишається далекою перспективою без фундаментальної перебудови принципів створення та навчання штучного інтелекту.
Межі сучасного підходу
Недавні успіхи моделей ШІ на кшталт Gemini 3 не приховують більш тверезого висновку, який прозвучав цього тижня на конференції NeurIPS 2025: індустрія будує хмарочоси штучного інтелекту на інтелектуальному піску.
Поки Google святкував стрибок продуктивності своєї останньої моделі, дослідники на найбільшій у світі конференції з ШІ попередили: незалежно від того, наскільки вражаючими виглядають сучасні великі мовні моделі, мрія про загальний штучний інтелект віддаляється, якщо галузь не переосмислить свій фундамент.
Усі учасники погодилися, що просте масштабування сучасних трансформерних моделей — надання їм більше даних, більше потужностей GPU та більше часу навчання — більше не приносить значущих результатів. Великий стрибок від GPT-3 до GPT-4 дедалі частіше розглядається як одноразове явище. Усе, що відбувалося після, більше нагадує полірування скла, ніж подолання скляних стель.
Проблема “стіни масштабування”
Це проблема не лише для дослідників, а й для всіх, кому продають ідею, що AGI вже за рогом. Правда, за словами учасників цьогорічної наукової конференції, набагато менш кінематографічна. Те, що створила індустрія — це надзвичайно красномовні системи розпізнавання патернів. Вони добре генерують відповіді, які звучать правильно. Але звучати розумно і бути розумним — дві абсолютно різні речі, і NeurIPS чітко показав, що ця прірва не зменшується.
Технічний термін, який активно обговорювався — “стіна масштабування”. Це концепція, згідно з якою поточний підхід — навчання дедалі більших моделей на дедалі більших наборах даних — стикається як з фізичними, так і з когнітивними обмеженнями. Індустрія вичерпує високоякісні людські дані. Величезні обсяги електроенергії витрачаються на отримання мінімальних покращень. І, можливо, найтривожніше — моделі досі роблять помилки, яких ніхто не хоче бачити від свого лікаря, пілота чи наукової лабораторії.
Gemini 3 підкреслює системні обмеження
Не те щоб Gemini 3 не вразив людей. Google вклав ресурси в оптимізацію архітектури моделі та методів навчання, а не просто в додаткове обладнання, що дозволило досягти неймовірної продуктивності. Але домінування Gemini 3 лише підкреслило проблему. Модель все ще базується на тій самій архітектурі, яка, за тихим визнанням усіх, не призначена для масштабування до загального інтелекту — це просто найкраща версія фундаментально обмеженої системи.
Альтернативні підходи до розвитку ШІ
Серед найбільш обговорюваних альтернатив — нейросимвольні архітектури. Це гібридні системи, що поєднують статистичне розпізнавання патернів глибокого навчання зі структурованою логікою старішого символьного ШІ.
Інші виступали за “world models” — моделі, що імітують те, як люди внутрішньо симулюють причину та наслідок. Якщо запитати сучасний чат-бот, що станеться, коли впаде тарілка, він може написати щось поетичне. Але він не має внутрішнього розуміння фізики і реального усвідомлення того, що станеться далі.
Ці пропозиції не про те, щоб зробити чат-боти більш чарівними — вони про створення систем ШІ, яким можна довіряти в середовищах, де це має значення. Ідея AGI стала маркетинговим терміном та інструментом залучення інвестицій. Але якщо найрозумніші люди в галузі кажуть, що досі бракує фундаментальних інгредієнтів, можливо, настав час переоцінити очікування.
Переосмислення траєкторії розвитку
NeurIPS 2025 можуть запам’ятати не за те, що конференція продемонструвала, а за визнання того, що поточна траєкторія індустрії вражає прибутковістю, але інтелектуально застопорилася. Щоб рухатися далі, потрібно відмовитися від ідеї, що більше завжди означає краще.


