Переглядаючи цей сайт, ви погоджуєтесь з нашою політикою конфіденційності
Прийняти
  • Про нас
  • Політика конфіденційності
  • Контакти
CyberCalm
  • Кібербезпека
    КібербезпекаПоказати ще
    Ваш комп'ютер із BitLocker не такий захищений, як здається: Microsoft може передати ключ правоохоронцям
    Ваш комп’ютер із BitLocker не такий захищений, як здається: Microsoft може передати ключ правоохоронцям
    2 дні тому
    1Password додав захист від фишингу: як працює нова функція
    1Password додав захист від фишингу: як працює нова функція
    3 дні тому
    База з 149 мільйонами вкрадених паролів виявила масштаб шкідливого ПЗ
    База з 149 мільйонами вкрадених паролів показала масштаб шкідливого ПЗ
    3 дні тому
    Surfshark VPN додає постквантовий захист від майбутніх загроз
    Surfshark VPN додає постквантовий захист від майбутніх загроз
    4 дні тому
    Фармінг: невидима загроза, яка краде дані без вашого відома
    Фармінг: невидима загроза, яка краде дані без вашого відома
    1 тиждень тому
  • Гайди та поради
    Гайди та поради
    Корисні поради, які допоможуть вам почуватися безпечно в мережі, а також маленькі хитрощі у користуванні вашими гаджетами.
    Показати ще
    Топ-новини
    Як перенести Telegram на інший телефон
    Як перенести Telegram на інший телефон. ІНСТРУКЦІЯ
    9 місяців тому
    Як зробити скріншот на комп'ютері без завантаження додаткових програм
    Як зробити скріншот на комп’ютері без завантаження додаткових програм
    10 місяців тому
    Двоетапна перевірка у месенджерах: як налаштувати?
    Двоетапна перевірка у месенджерах: як налаштувати?
    9 місяців тому
    Останні новини
    Топ-5 антивірусів для macOS: чому захист потрібен навіть Mac-користувачам
    5 години тому
    Як видалити оновлення Windows 11? – ІНСТРУКЦІЯ
    1 день тому
    8 способів вирішити проблему, якщо ваш ноутбук підключений до мережі, але не заряджається
    2 дні тому
    Як видалити ШІ-функції з Chrome, Edge та Firefox за допомогою одного скрипту
    7 днів тому
  • Статті
    Статті
    Цікаві статті про світ технологій, інтернет та кіберзахист. Розбираємо складні теми, від штучного інтелекту до безпеки даних та Big Data. Аналітика для допитливих та професіоналів.
    Показати ще
    Топ-новини
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    2 місяці тому
    Які послуги входять в обслуговування орендованого сервера
    Які послуги входять в обслуговування орендованого сервера
    2 місяці тому
    5G в Україні: коли запрацює мережа майбутнього та що заважає її розгортанню
    5G в Україні: коли запрацює мережа майбутнього та що заважає її розгортанню
    2 місяці тому
    Останні новини
    Кладовище Google поповнюється: компанія закрила вже 299 продуктів
    8 години тому
    Оренда віртуального сервера: Як не потонути в термінах і вибрати ідеальне рішення для свого проєкту
    11 години тому
    Україномовний YouTube: 20 найкращих каналів про науку, історію, культуру та мистецтво
    4 дні тому
    Модель GPT-5.2 від OpenAI використовує сумнівні джерела — зокрема Grokipedia
    4 дні тому
  • Огляди
    ОглядиПоказати ще
    Clawdbot (Moltbot): новий ШІ-асистент, який викликав ажіотаж у Кремнієвій долині
    Clawdbot (Moltbot): новий ШІ-асистент, який викликав ажіотаж у Кремнієвій долині
    1 день тому
    Cowork від Anthropic — автономний ШІ-агент з критичними вразливостями безпеки
    Cowork від Anthropic — автономний ШІ-агент з критичними вразливостями безпеки
    3 дні тому
    Який планшет обрати у 2026 році: актуальний гайд з вибору
    Який планшет обрати у 2026 році: актуальний гайд з вибору
    1 тиждень тому
    Засновник Signal створив ШІ-чатбот з апаратним шифруванням — як працює Confer
    Як працює Confer — ШІ-чатбот з апаратним шифруванням від творця Signal
    2 тижні тому
    Wave Browser: безкоштовний браузер, що допомагає очищати океан
    Wave Browser: безкоштовний браузер, що допомагає очищати океан
    2 тижні тому
  • Техногіганти
    • Google
    • Apple
    • Microsoft
    • Meta
    • OpenAI
    • Anthropic
    • xAI
    • Samsung
  • Теми
    • Комп’ютери
    • Смартфони
    • Електронна пошта
    • Windows
    • Linux
    • Android
    • iPhone
    • VPN
    • Штучний інтелект
    • Робототехніка
Соцмережі
  • Facebook
  • Instagram
  • YouTube
  • TikTok
  • X (Twitter)
  • Threads
Спеціальні теми
  • Кібервійна
  • Маніпуляції в медіа
  • Безпека дітей в Інтернеті
  • Розумний будинок
Інше
  • Архів
Читання: Штучний інтелект не вміє думати: як вчені розвінчали міф про “міркування” нейромереж
Розмір шрифтаAa
CyberCalmCyberCalm
Пошук
  • Техногіганти
    • Комп’ютери
    • Смартфони
    • Соцмережі
    • Google
    • Android
    • Apple
    • Windows
    • Linux
    • Штучний інтелект
    • Безпека дітей в інтернеті
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Архів
Follow US
  • Про проєкт Cybercalm
  • Політика конфіденційності
  • Контакти
© 2025 Cybercalm. All Rights Reserved.
Головна / Статті / Штучний інтелект не вміє думати: як вчені розвінчали міф про “міркування” нейромереж

Штучний інтелект не вміє думати: як вчені розвінчали міф про “міркування” нейромереж

Статті
5 місяців тому
Поширити
7 хв. читання
Штучний інтелект не вміє думати: як вчені розвінчали міф про "міркування" нейромереж

Відтоді як програми штучного інтелекту почали вражати широку публіку, дослідники ШІ стали заявляти про глибше значення цієї технології, навіть стверджуючи про можливість людиноподібного розмірковування.

Зміст
  • “Чорна скриня” ШІ та машина хайпу
  • Протидія з боку дослідників ШІ
  • Тестування того, що насправді роблять LLM
  • Конкретність проти хайпу

Науковці філософствують, бо навіть учені, які створили моделі ШІ на кшталт GPT-5 від OpenAI, насправді не розуміють повністю, як працюють ці програми, – пише ZDNET.

“Чорна скриня” ШІ та машина хайпу

Програми ШІ, такі як великі мовні моделі (LLM), є печально відомими “чорними скринями”. Вони досягають багато вражаючого, але здебільшого ми не можемо спостерігати все, що вони роблять, коли отримують вхідні дані (наприклад, промпт, який ви вводите) і видають результат (наприклад, курсову роботу, яку ви замовили, або пропозицію для вашого нового роману).

В цій прогалині науковці застосували розмовні терміни на кшталт “міркування” для опису роботи програм. При цьому вони або натякали, або прямо стверджували, що програми можуть “думати”, “міркувати” та “знати” так само, як люди.

- Advertisement -

За останні два роки риторика випередила науку, коли керівники ШІ-компаній використовували гіперболи, перетворюючи прості інженерні досягнення на щось більше.

Прес-реліз OpenAI минулого вересня про анонс їхньої моделі міркування o1 стверджував: “Подібно до того, як людина може довго думати перед відповіддю на складне питання, o1 використовує ланцюг міркувань при спробі вирішити проблему”, щоб “o1 навчається відточувати свій ланцюг міркувань і вдосконалювати стратегії, які використовує”.

Від цих антропоморфізуючих тверджень було лише крок до всіляких диких заяв, як-от коментар генерального директора OpenAI Сема Альтмана в червні: “Ми пройшли горизонт подій; злет розпочався. Людство близьке до створення цифрового суперінтелекту”.

Протидія з боку дослідників ШІ

Однак формується протидія з боку вчених у галузі ШІ, які розвінчують припущення про людиноподібний інтелект через ретельну технічну експертизу.

У статті, опублікованій минулого місяця на сервері препринтів arXiv і ще не рецензованій, автори – Ченгшуай Чжао та його колеги з Університету штату Арізона – розібрали твердження про міркування через простий експеримент. Їхній висновок: “міркування ланцюгом думок є крихким міражем” і це “не механізм для справжнього логічного висновку, а радше вишукана форма структурованого пошуку збігів шаблонів”.

Термін “ланцюг думок” (CoT) зазвичай використовується для опису багатослівного потоку виводу, який ви бачите, коли велика модель міркування, така як GPT-o1 або DeepSeek V1, показує вам, як вона опрацьовує проблему перед наданням остаточної відповіді.

Цей потік висловлювань не такий глибокий чи значущий, як здається, пишуть Чжао та команда. “Емпіричні успіхи міркування CoT призводять до сприйняття того, що великі мовні моделі (LLM) залучаються до навмисних інференційних процесів”, – пишуть вони.

Але “зростаючий обсяг аналізів показує, що LLM схильні покладатися на поверхневу семантику та підказки, а не на логічні процедури”, – пояснюють вони. “LLM конструюють поверхневі ланцюги логіки на основі вивчених асоціацій токенів, часто зазнаючи невдач у завданнях, що відхиляються від здоровоглуздих евристик або знайомих шаблонів”.

- Advertisement -

Термін “ланцюги токенів” – поширений спосіб посилання на серію елементів, що подаються на вхід LLM, таких як слова або символи.

Тестування того, що насправді роблять LLM

Щоб перевірити гіпотезу про те, що LLM лише шукають збіги шаблонів, а не справді міркують, вони навчили стару відкриту LLM від OpenAI – GPT-2 2019 року – з нуля, застосувавши підхід, який вони називають “алхімією даних”.

arizona state 2025 data alchemy
Arizona State University

Модель навчали з самого початку лише маніпулювати 26 літерами англійського алфавіту: “A, B, C… тощо”. Цей спрощений корпус дозволяє Чжао та команді тестувати LLM набором дуже простих завдань. Усі завдання передбачають маніпулювання послідовностями літер, наприклад, зсув кожної літери на певну кількість позицій, щоб “APPLE” стало “EAPPL”.

Використовуючи обмежену кількість токенів і обмежені завдання, Чжао та команда варіюють, які завдання мовна модель бачить у своїх навчальних даних, а які – лише під час тестування готової моделі, наприклад: “Зсунь кожен елемент на 13 позицій”. Це тест того, чи може мовна модель знайти спосіб виконати завдання навіть при зіткненні з новими, ніколи раніше не баченими задачами.

Вони виявили, що коли завдань не було в навчальних даних, мовна модель не змогла правильно виконати ці завдання, використовуючи ланцюг думок. ШІ-модель намагалася використовувати завдання, які були в її навчальних даних, і її “міркування” звучить добре, але згенерована нею відповідь була неправильною.

Як кажуть Чжао та команда: “LLM намагаються узагальнити шляхи міркування на основі найбільш схожих […], які бачили під час навчання, що призводить до правильних шляхів міркування, але неправильних відповідей”.

Конкретність проти хайпу

Автори роблять кілька висновків.

По-перше: “Остерігайтеся надмірної довіри та помилкової впевненості”, радять вони, бо “здатність LLM виробляти ‘плавну нісенітницю’ – правдоподібні, але логічно хибні ланцюги міркування – може бути більш оманливою та шкідливою, ніж відверто неправильна відповідь, оскільки створює помилкову ауру надійності”.

- Advertisement -

Також варто випробовувати завдання, які явно навряд чи містилися в навчальних даних, щоб ШІ-модель пройшла стрес-тест.

Важливість підходу Чжао та команди полягає в тому, що він пробиває гіперболи і повертає нас до основ розуміння того, що саме робить ШІ.

Коли оригінальне дослідження ланцюга думок “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models” проводили Джейсон Вей та колеги з команди Google Brain у 2022 році – дослідження, яке з тих пір цитували понад 10 000 разів, – автори не заявляли про справжнє міркування.

Вей та команда помітили, що спонукання LLM перерахувати кроки в задачі, наприклад, арифметичній словесній задачі (“Якщо в банці 10 печива, а Саллі забрала одне, скільки залишилося в банці?”), як правило, призводило до більш правильних рішень у середньому.

google 2022 example chain of thought prompting
Google Brain

Вони були обережні й не стверджували про людиноподібні здібності. “Хоча ланцюг думок наслідує мисленнєві процеси людини, це не відповідає на питання про те, чи насправді нейронна мережа ‘міркує’, що ми залишаємо як відкрите питання”, – писали вони тоді.

Відтоді заяви Альтмана та різні прес-релізи від промоутерів ШІ дедалі більше наголошували на людиноподібній природі міркування, використовуючи недбалу риторику, яка не поважає суто технічний опис Вея та команди.

Робота Чжао та команди нагадує нам, що ми повинні бути конкретними, а не забобонними щодо того, що насправді робить машина, і уникати гіперболічних заяв.

О, привіт 👋
Приємно познайомитися!

Підпишіться, щоб щотижня отримувати найцікавіші статті на свою поштову скриньку.

Ми не розсилаємо спам! Ознайомтеся з нашою політикою конфіденційності для отримання додаткової інформації.

Перевірте свою поштову скриньку або папку зі спамом, щоб підтвердити підписку.

ТЕМИ:CoTLLMдослідженняШтучний Інтелект
Поділитися
Facebook Threads Копіювати посилання Друк
Що думаєте?
В захваті0
Сумно0
Смішно0
Палає0
Овва!0
Попередня стаття Дослідники виявили тривожні зв'язки між 18 популярними VPN-сервісами Дослідники виявили тривожні зв’язки між 18 популярними VPN-сервісами
Наступна стаття Чому не варто користуватися безкоштовними онлайн PDF-конвертерами Чому не варто користуватися безкоштовними онлайн PDF-конвертерами

В тренді

Україномовний YouTube: 20 найкращих каналів про науку, історію, культуру та мистецтво
Україномовний YouTube: 20 найкращих каналів про науку, історію, культуру та мистецтво
4 дні тому
8 способів вирішити проблему, якщо ваш ноутбук підключений до мережі, але не заряджається
8 способів вирішити проблему, якщо ваш ноутбук підключений до мережі, але не заряджається
2 дні тому
Microsoft не буде відмовлятися від вимоги TPM 2.0 для Windows 11
Як видалити оновлення Windows 11? – ІНСТРУКЦІЯ
1 день тому
Кладовище Google поповнюється: компанія закрила вже 299 продуктів
Кладовище Google поповнюється: компанія закрила вже 299 продуктів
7 години тому
Найкращій антивірус для macOS: чому захист потрібен навіть Mac-користувачам
Топ-5 антивірусів для macOS: чому захист потрібен навіть Mac-користувачам
5 години тому

Рекомендуємо

Clawdbot (Moltbot): новий ШІ-асистент, який викликав ажіотаж у Кремнієвій долині
Огляди

Clawdbot (Moltbot): новий ШІ-асистент, який викликав ажіотаж у Кремнієвій долині

1 день тому
Cowork від Anthropic — автономний ШІ-агент з критичними вразливостями безпеки
Огляди

Cowork від Anthropic — автономний ШІ-агент з критичними вразливостями безпеки

3 дні тому
Модель GPT-5.2 від OpenAI використовує сумнівні джерела — зокрема Grokipedia
Статті

Модель GPT-5.2 від OpenAI використовує сумнівні джерела — зокрема Grokipedia

4 дні тому
Ілон Маск анонсував дитячу версію штучного інтелекту Baby Grok
Техногіганти

Grok згенерував 3 мільйони сексуалізованих зображень, включно з 23 000 зображень дітей, – Дослідження

6 днів тому

Гарячі теми

  • Кібербезпека
  • Штучний інтелект
  • Смартфони
  • Комп'ютери
  • Соцмережі
  • Безпека дітей в Інтернеті

Приєднуйтесь

Ласкаво просимо до CyberCalm – вашого надійного провідника у світі цифрової безпеки та спокою!

Інформація
  • Про нас
  • Політика конфіденційності
  • Контакти
Навігація
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Техногіганти
CyberCalmCyberCalm
© 2025 Cybercalm. All Rights Reserved.
Cybercalm
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?