Переглядаючи цей сайт, ви погоджуєтесь з нашою політикою конфіденційності
Прийняти
  • Про нас
  • Політика конфіденційності
  • Контакти
CyberCalm
  • Кібербезпека
    КібербезпекаПоказати ще
    Хакери у костюмах: як фейкові IT-працівники крадуть дані компаній
    Хакери у костюмах: як фейкові IT-працівники крадуть дані компаній
    20 години тому
    Поліція закрила Cryptomixer: відмито €1,3 мільярда
    Поліція закрила Cryptomixer: відмито €1,3 мільярда
    24 години тому
    Рейтинг приватності ШІ-сервісів: хто захищає ваші дані, а хто — ні
    Прихована загроза ШІ-агентів: як уникнути катастрофи при впровадженні ШІ
    2 дні тому
    RDP-атаки: як зловмисники використовують віддалений робочий стіл для проникнення в корпоративні мережі
    RDP-атаки: як зловмисники використовують віддалений робочий стіл для проникнення в корпоративні мережі
    3 дні тому
    Що таке безфайлове шкідливе програмне забезпечення і як можна захиститися?
    Що таке безфайлове шкідливе програмне забезпечення і як можна захиститися?
    4 дні тому
  • Гайди та поради
    Гайди та поради
    Корисні поради, які допоможуть вам почуватися безпечно в мережі, а також маленькі хитрощі у користуванні вашими гаджетами.
    Показати ще
    Топ-новини
    Як перенести Telegram на інший телефон
    Як перенести Telegram на інший телефон. ІНСТРУКЦІЯ
    7 місяців тому
    Як керувати телефоном віддалено, якщо він залишився вдома
    Як керувати телефоном віддалено, якщо він залишився вдома
    8 місяців тому
    Як виявити програми для стеження на вашому ноутбуці
    Як виявити програми для стеження на вашому ноутбуці
    1 місяць тому
    Останні новини
    Бездротові навушники постійно відключаються: як це виправити
    4 дні тому
    Windows 11 не оновлюється? 5 способів вирішити проблему
    1 тиждень тому
    Чи безпечно купувати вживаний роутер?
    1 тиждень тому
    Кращі VPN-додатки для Android у 2025 році: огляд та рекомендації
    1 тиждень тому
  • Статті
    Статті
    Цікаві статті про світ технологій, інтернет та кіберзахист. Розбираємо складні теми, від штучного інтелекту до безпеки даних та Big Data. Аналітика для допитливих та професіоналів.
    Показати ще
    Топ-новини
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    2 тижні тому
    Які послуги входять в обслуговування орендованого сервера
    Які послуги входять в обслуговування орендованого сервера
    1 тиждень тому
    Чи можна зламати прямий інтерфейс "мозок-комп'ютер"
    Чи можна зламати прямий інтерфейс “мозок-комп’ютер”?
    8 місяців тому
    Останні новини
    Чому користувачі масово переходять на Linux у 2025 році
    1 день тому
    4 нових темних патерни у Windows 11 у 2025 році
    3 дні тому
    Апертура камери смартфона: що це означає і чому це важливо
    3 дні тому
    Google Santa Tracker – святкова розвага, яка покращує Google
    3 дні тому
  • Огляди
    ОглядиПоказати ще
    Як обрати розумний годинник: порівняння функцій та можливостей
    Як обрати розумний годинник: порівняння функцій та можливостей
    16 години тому
    DeepSeek V3.2: чи загрожує новий відкритий ШІ домінуванню пропрієтарних моделей
    DeepSeek V3.2: чи загрожує новий відкритий ШІ домінуванню пропрієтарних моделей
    2 дні тому
    Вийшло стабільне ядро Linux 6.18: огляд ключових нововведень
    Вийшло стабільне ядро Linux 6.18: огляд ключових нововведень
    3 дні тому
    TeamGroup випустила SSD з кнопкою самознищення для захисту даних
    TeamGroup випустила SSD з кнопкою самознищення для захисту даних
    2 тижні тому
    Chrome проти Firefox: порівняння найпопулярнішого браузера з найкращою open-source альтернативою
    Chrome проти Firefox: порівняння найпопулярнішого браузера з найкращою open-source альтернативою
    3 тижні тому
  • Техногіганти
    • Google
    • Apple
    • Microsoft
    • Meta
    • OpenAI
    • Anthropic
    • xAI
    • Samsung
  • Теми
    • Комп’ютери
    • Смартфони
    • Електронна пошта
    • Windows
    • Linux
    • Android
    • iPhone
    • Штучний інтелект
Соцмережі
  • Facebook
  • Instagram
  • YouTube
  • TikTok
  • X (Twitter)
  • Threads
Спеціальні теми
  • Кібервійна
  • Маніпуляції в медіа
  • Безпека дітей в Інтернеті
  • Розумний будинок
Інше
  • Архів
Читання: Штучний інтелект не вміє думати: як вчені розвінчали міф про “міркування” нейромереж
Розмір шрифтаAa
CyberCalmCyberCalm
Пошук
  • Техногіганти
    • Комп’ютери
    • Смартфони
    • Соцмережі
    • Google
    • Android
    • Apple
    • Windows
    • Linux
    • Штучний інтелект
    • Безпека дітей в інтернеті
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Архів
Follow US
  • Про проєкт Cybercalm
  • Політика конфіденційності
  • Контакти
© 2025 Cybercalm. All Rights Reserved.
Головна / Статті / Штучний інтелект не вміє думати: як вчені розвінчали міф про “міркування” нейромереж

Штучний інтелект не вміє думати: як вчені розвінчали міф про “міркування” нейромереж

Наталя Зарудня
ByНаталя Зарудня
Головний редактор
Досвід роботи у галузі кібербезпеки понад 10 років. Пишу про штучний інтелект, соціальні мережі, історію технологій.
Слідкуйте:
3 місяці тому
Поширити
7 хв. читання
Штучний інтелект не вміє думати: як вчені розвінчали міф про "міркування" нейромереж

Відтоді як програми штучного інтелекту почали вражати широку публіку, дослідники ШІ стали заявляти про глибше значення цієї технології, навіть стверджуючи про можливість людиноподібного розмірковування.

Зміст
  • “Чорна скриня” ШІ та машина хайпу
  • Протидія з боку дослідників ШІ
  • Тестування того, що насправді роблять LLM
  • Конкретність проти хайпу

Науковці філософствують, бо навіть учені, які створили моделі ШІ на кшталт GPT-5 від OpenAI, насправді не розуміють повністю, як працюють ці програми, – пише ZDNET.

“Чорна скриня” ШІ та машина хайпу

Програми ШІ, такі як великі мовні моделі (LLM), є печально відомими “чорними скринями”. Вони досягають багато вражаючого, але здебільшого ми не можемо спостерігати все, що вони роблять, коли отримують вхідні дані (наприклад, промпт, який ви вводите) і видають результат (наприклад, курсову роботу, яку ви замовили, або пропозицію для вашого нового роману).

В цій прогалині науковці застосували розмовні терміни на кшталт “міркування” для опису роботи програм. При цьому вони або натякали, або прямо стверджували, що програми можуть “думати”, “міркувати” та “знати” так само, як люди.

- Advertisement -

За останні два роки риторика випередила науку, коли керівники ШІ-компаній використовували гіперболи, перетворюючи прості інженерні досягнення на щось більше.

Прес-реліз OpenAI минулого вересня про анонс їхньої моделі міркування o1 стверджував: “Подібно до того, як людина може довго думати перед відповіддю на складне питання, o1 використовує ланцюг міркувань при спробі вирішити проблему”, щоб “o1 навчається відточувати свій ланцюг міркувань і вдосконалювати стратегії, які використовує”.

Від цих антропоморфізуючих тверджень було лише крок до всіляких диких заяв, як-от коментар генерального директора OpenAI Сема Альтмана в червні: “Ми пройшли горизонт подій; злет розпочався. Людство близьке до створення цифрового суперінтелекту”.

Протидія з боку дослідників ШІ

Однак формується протидія з боку вчених у галузі ШІ, які розвінчують припущення про людиноподібний інтелект через ретельну технічну експертизу.

У статті, опублікованій минулого місяця на сервері препринтів arXiv і ще не рецензованій, автори – Ченгшуай Чжао та його колеги з Університету штату Арізона – розібрали твердження про міркування через простий експеримент. Їхній висновок: “міркування ланцюгом думок є крихким міражем” і це “не механізм для справжнього логічного висновку, а радше вишукана форма структурованого пошуку збігів шаблонів”.

Термін “ланцюг думок” (CoT) зазвичай використовується для опису багатослівного потоку виводу, який ви бачите, коли велика модель міркування, така як GPT-o1 або DeepSeek V1, показує вам, як вона опрацьовує проблему перед наданням остаточної відповіді.

Цей потік висловлювань не такий глибокий чи значущий, як здається, пишуть Чжао та команда. “Емпіричні успіхи міркування CoT призводять до сприйняття того, що великі мовні моделі (LLM) залучаються до навмисних інференційних процесів”, – пишуть вони.

Але “зростаючий обсяг аналізів показує, що LLM схильні покладатися на поверхневу семантику та підказки, а не на логічні процедури”, – пояснюють вони. “LLM конструюють поверхневі ланцюги логіки на основі вивчених асоціацій токенів, часто зазнаючи невдач у завданнях, що відхиляються від здоровоглуздих евристик або знайомих шаблонів”.

- Advertisement -

Термін “ланцюги токенів” – поширений спосіб посилання на серію елементів, що подаються на вхід LLM, таких як слова або символи.

Тестування того, що насправді роблять LLM

Щоб перевірити гіпотезу про те, що LLM лише шукають збіги шаблонів, а не справді міркують, вони навчили стару відкриту LLM від OpenAI – GPT-2 2019 року – з нуля, застосувавши підхід, який вони називають “алхімією даних”.

arizona state 2025 data alchemy
Arizona State University

Модель навчали з самого початку лише маніпулювати 26 літерами англійського алфавіту: “A, B, C… тощо”. Цей спрощений корпус дозволяє Чжао та команді тестувати LLM набором дуже простих завдань. Усі завдання передбачають маніпулювання послідовностями літер, наприклад, зсув кожної літери на певну кількість позицій, щоб “APPLE” стало “EAPPL”.

Використовуючи обмежену кількість токенів і обмежені завдання, Чжао та команда варіюють, які завдання мовна модель бачить у своїх навчальних даних, а які – лише під час тестування готової моделі, наприклад: “Зсунь кожен елемент на 13 позицій”. Це тест того, чи може мовна модель знайти спосіб виконати завдання навіть при зіткненні з новими, ніколи раніше не баченими задачами.

Вони виявили, що коли завдань не було в навчальних даних, мовна модель не змогла правильно виконати ці завдання, використовуючи ланцюг думок. ШІ-модель намагалася використовувати завдання, які були в її навчальних даних, і її “міркування” звучить добре, але згенерована нею відповідь була неправильною.

Як кажуть Чжао та команда: “LLM намагаються узагальнити шляхи міркування на основі найбільш схожих […], які бачили під час навчання, що призводить до правильних шляхів міркування, але неправильних відповідей”.

Конкретність проти хайпу

Автори роблять кілька висновків.

По-перше: “Остерігайтеся надмірної довіри та помилкової впевненості”, радять вони, бо “здатність LLM виробляти ‘плавну нісенітницю’ – правдоподібні, але логічно хибні ланцюги міркування – може бути більш оманливою та шкідливою, ніж відверто неправильна відповідь, оскільки створює помилкову ауру надійності”.

- Advertisement -

Також варто випробовувати завдання, які явно навряд чи містилися в навчальних даних, щоб ШІ-модель пройшла стрес-тест.

Важливість підходу Чжао та команди полягає в тому, що він пробиває гіперболи і повертає нас до основ розуміння того, що саме робить ШІ.

Коли оригінальне дослідження ланцюга думок “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models” проводили Джейсон Вей та колеги з команди Google Brain у 2022 році – дослідження, яке з тих пір цитували понад 10 000 разів, – автори не заявляли про справжнє міркування.

Вей та команда помітили, що спонукання LLM перерахувати кроки в задачі, наприклад, арифметичній словесній задачі (“Якщо в банці 10 печива, а Саллі забрала одне, скільки залишилося в банці?”), як правило, призводило до більш правильних рішень у середньому.

google 2022 example chain of thought prompting
Google Brain

Вони були обережні й не стверджували про людиноподібні здібності. “Хоча ланцюг думок наслідує мисленнєві процеси людини, це не відповідає на питання про те, чи насправді нейронна мережа ‘міркує’, що ми залишаємо як відкрите питання”, – писали вони тоді.

Відтоді заяви Альтмана та різні прес-релізи від промоутерів ШІ дедалі більше наголошували на людиноподібній природі міркування, використовуючи недбалу риторику, яка не поважає суто технічний опис Вея та команди.

Робота Чжао та команди нагадує нам, що ми повинні бути конкретними, а не забобонними щодо того, що насправді робить машина, і уникати гіперболічних заяв.

О, привіт 👋
Приємно познайомитися!

Підпишіться, щоб щотижня отримувати найцікавіші статті на свою поштову скриньку.

Ми не розсилаємо спам! Ознайомтеся з нашою політикою конфіденційності для отримання додаткової інформації.

Перевірте свою поштову скриньку або папку зі спамом, щоб підтвердити підписку.

ТЕМИ:CoTLLMдослідженняШтучний Інтелект
Поділитися
Facebook Threads Копіювати посилання Друк
Що думаєте?
В захваті0
Сумно0
Смішно0
Палає0
Овва!0
Попередня стаття Дослідники виявили тривожні зв'язки між 18 популярними VPN-сервісами Дослідники виявили тривожні зв’язки між 18 популярними VPN-сервісами
Наступна стаття Чому не варто користуватися безкоштовними онлайн PDF-конвертерами Чому не варто користуватися безкоштовними онлайн PDF-конвертерами

В тренді

Що таке безфайлове шкідливе програмне забезпечення і як можна захиститися?
Що таке безфайлове шкідливе програмне забезпечення і як можна захиститися?
4 дні тому
Апертура камери смартфона: що це означає і чому це важливо
Апертура камери смартфона: що це означає і чому це важливо
3 дні тому
Google Santa Tracker – святкова розвага, яка покращує Google
Google Santa Tracker – святкова розвага, яка покращує Google
3 дні тому
RDP-атаки: як зловмисники використовують віддалений робочий стіл для проникнення в корпоративні мережі
RDP-атаки: як зловмисники використовують віддалений робочий стіл для проникнення в корпоративні мережі
3 дні тому
Чому вбудований менеджер паролів у браузері — не найкращий вибір
Чому вбудований менеджер паролів у браузері — не найкращий вибір
7 днів тому

Рекомендуємо

Steam вимагає розкривати використання ШІ в іграх — CEO Epic вважає це безглуздям
Техногіганти

Steam вимагає розкривати використання ШІ в іграх — CEO Epic вважає це безглуздям

2 дні тому
DeepSeek V3.2: чи загрожує новий відкритий ШІ домінуванню пропрієтарних моделей
Огляди

DeepSeek V3.2: чи загрожує новий відкритий ШІ домінуванню пропрієтарних моделей

2 дні тому
Рейтинг приватності ШІ-сервісів: хто захищає ваші дані, а хто — ні
Кібербезпека

Прихована загроза ШІ-агентів: як уникнути катастрофи при впровадженні ШІ

2 дні тому
ChatGPT-5 надає небезпечні поради людям з психічними розладами — дослідження
Статті

ChatGPT-5 надає небезпечні поради людям з психічними розладами — дослідження

4 дні тому

Гарячі теми

  • Кібербезпека
  • Штучний інтелект
  • Смартфони
  • Комп'ютери
  • Соцмережі
  • Безпека дітей в Інтернеті

Приєднуйтесь

Ласкаво просимо до CyberCalm – вашого надійного провідника у світі цифрової безпеки та спокою!

Інформація
  • Про нас
  • Політика конфіденційності
  • Контакти
Навігація
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Техногіганти
CyberCalmCyberCalm
© 2025 Cybercalm. All Rights Reserved.
Cybercalm
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?