Переглядаючи цей сайт, ви погоджуєтесь з нашою політикою конфіденційності
Прийняти
  • Про нас
  • Політика конфіденційності
  • Контакти
CyberCalm
  • Кібербезпека
    КібербезпекаПоказати ще
    Шанувальники кіно стають мішенню шкідливого ПЗ перед Оскаром-2026
    Шанувальники кіно стають мішенню шкідливого ПЗ перед Оскаром-2026
    5 години тому
    ШІ-агенти самостійно обійшли захист і викрали корпоративні дані: нові тести виявили непередбачувану загрозу
    ШІ-агенти самостійно обійшли захист і викрали корпоративні дані: нові тести виявили непередбачувану загрозу
    2 дні тому
    «Killer Apps»: як популярні ШІ-чатботи допомагали підліткам планувати масові вбивства
    «Killer Apps»: як популярні ШІ-чатботи допомагали підліткам планувати масові вбивства
    3 дні тому
    Meta вводить нові інструменти захисту від шахрайства для Facebook та WhatsApp
    Meta вводить нові інструменти захисту від шахрайства для Facebook та WhatsApp
    4 дні тому
    Четвертий стовп кібербезпеки: як ШІ змінює архітектуру захисту підприємств
    Четвертий стовп кібербезпеки: як ШІ змінює архітектуру захисту підприємств
    4 дні тому
  • Гайди та поради
    Гайди та поради
    Корисні поради, які допоможуть вам почуватися безпечно в мережі, а також маленькі хитрощі у користуванні вашими гаджетами.
    Показати ще
    Топ-новини
    Як перенести Telegram на інший телефон
    Як перенести Telegram на інший телефон. ІНСТРУКЦІЯ
    11 місяців тому
    Оновлення прошивки роутера: як перевірити підтримку та коли варто замінити пристрій
    Забули пароль від Wi-Fi? 6 способів дізнатися його
    11 місяців тому
    Як налаштувати приватність в екаунтах та безпеку пристроїв
    Експерт для Cybercalm: Як налаштувати приватність в екаунтах та безпеку пристроїв?
    11 місяців тому
    Останні новини
    Як перевірити шифрування в Google Повідомленнях
    3 дні тому
    «Супровід» на iPhone: функція безпеки iOS, яка сама повідомить рідних, якщо ви не добралися додому
    1 тиждень тому
    Рандомізація MAC-адреси: як захистити смартфон від відстеження в публічних Wi-Fi мережах
    1 тиждень тому
    Хочете перейти з ChatGPT на Claude? Ось 5 речей, які потрібно знати
    2 тижні тому
  • Статті
    Статті
    Цікаві статті про світ технологій, інтернет та кіберзахист. Розбираємо складні теми, від штучного інтелекту до безпеки даних та Big Data. Аналітика для допитливих та професіоналів.
    Показати ще
    Топ-новини
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    4 місяці тому
    Які послуги входять в обслуговування орендованого сервера
    Які послуги входять в обслуговування орендованого сервера
    4 місяці тому
    Технологія "розумне місто": які об'єкти можуть стати мішенню для кібератак?
    Технологія “розумне місто”: які об’єкти можуть стати мішенню для кібератак?
    11 місяців тому
    Останні новини
    «Великий відступ»: чому технологічні гіганти здають позиції у війні з дезінформацією — і що з цим робити
    3 дні тому
    Ключі доступу проти паролів: чому нова технологія програє звичці
    4 дні тому
    ШІ навчився деанону: як великі мовні моделі розкривають особистість у мережі
    6 днів тому
    Диференційна приватність: від нішевого інструменту до стандарту захисту даних у добу ШІ
    6 днів тому
  • Огляди
    ОглядиПоказати ще
    Огляд iPad Air M4: найкращий вибір на сьогодні
    Огляд iPad Air M4: найкращий вибір на сьогодні
    5 днів тому
    Apple MacBook Neo: огляд доступного ноутбука за $599
    Apple MacBook Neo: огляд доступного ноутбука за $599
    1 тиждень тому
    Nearby Glasses: Android-застосунок для виявлення смарт-окулярів поблизу
    Nearby Glasses: Android-застосунок для виявлення смарт-окулярів поблизу
    3 тижні тому
    FreeOffice — безкоштовна альтернатива Microsoft Office для Windows, macOS, Linux та мобільних пристроїв
    FreeOffice — безкоштовна альтернатива Microsoft Office для Windows, macOS, Linux та мобільних пристроїв
    3 тижні тому
    Kali Linux проти Parrot OS: який дистрибутив краще для кібербезпеки?
    Kali Linux проти Parrot OS: який дистрибутив краще для кібербезпеки?
    1 місяць тому
  • Техногіганти
    • Google
    • Apple
    • Microsoft
    • Meta
    • OpenAI
    • Anthropic
    • xAI
    • Samsung
  • Теми
    • Комп’ютери
    • Смартфони
    • Електронна пошта
    • Windows
    • Linux
    • Android
    • iPhone
    • VPN
    • Штучний інтелект
    • Робототехніка
Соцмережі
  • Facebook
  • Instagram
  • YouTube
  • TikTok
  • X (Twitter)
  • Threads
Спеціальні теми
  • Кібервійна
  • Маніпуляції в медіа
  • Дезінформація
  • Безпека дітей в Інтернеті
  • Розумний будинок
Інше
  • Сканер безпеки сайту
  • Архів
Читання: Штучний інтелект не вміє думати: як вчені розвінчали міф про “міркування” нейромереж
Розмір шрифтаAa
CyberCalmCyberCalm
Пошук
  • Техногіганти
    • Комп’ютери
    • Смартфони
    • Соцмережі
    • Google
    • Android
    • Apple
    • Windows
    • Linux
    • Штучний інтелект
    • Безпека дітей в інтернеті
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Сканер безпеки сайту
  • Архів
Follow US
  • Про проєкт Cybercalm
  • Політика конфіденційності
  • Контакти
© 2025 Cybercalm. All Rights Reserved.
Головна / Статті / Штучний інтелект не вміє думати: як вчені розвінчали міф про “міркування” нейромереж

Штучний інтелект не вміє думати: як вчені розвінчали міф про “міркування” нейромереж

Статті
6 місяців тому
Поширити
7 хв. читання
Штучний інтелект не вміє думати: як вчені розвінчали міф про "міркування" нейромереж

Відтоді як програми штучного інтелекту почали вражати широку публіку, дослідники ШІ стали заявляти про глибше значення цієї технології, навіть стверджуючи про можливість людиноподібного розмірковування.

Зміст
  • “Чорна скриня” ШІ та машина хайпу
  • Протидія з боку дослідників ШІ
  • Тестування того, що насправді роблять LLM
  • Конкретність проти хайпу

Науковці філософствують, бо навіть учені, які створили моделі ШІ на кшталт GPT-5 від OpenAI, насправді не розуміють повністю, як працюють ці програми, – пише ZDNET.

“Чорна скриня” ШІ та машина хайпу

Програми ШІ, такі як великі мовні моделі (LLM), є печально відомими “чорними скринями”. Вони досягають багато вражаючого, але здебільшого ми не можемо спостерігати все, що вони роблять, коли отримують вхідні дані (наприклад, промпт, який ви вводите) і видають результат (наприклад, курсову роботу, яку ви замовили, або пропозицію для вашого нового роману).

В цій прогалині науковці застосували розмовні терміни на кшталт “міркування” для опису роботи програм. При цьому вони або натякали, або прямо стверджували, що програми можуть “думати”, “міркувати” та “знати” так само, як люди.

- Advertisement -

За останні два роки риторика випередила науку, коли керівники ШІ-компаній використовували гіперболи, перетворюючи прості інженерні досягнення на щось більше.

Прес-реліз OpenAI минулого вересня про анонс їхньої моделі міркування o1 стверджував: “Подібно до того, як людина може довго думати перед відповіддю на складне питання, o1 використовує ланцюг міркувань при спробі вирішити проблему”, щоб “o1 навчається відточувати свій ланцюг міркувань і вдосконалювати стратегії, які використовує”.

Від цих антропоморфізуючих тверджень було лише крок до всіляких диких заяв, як-от коментар генерального директора OpenAI Сема Альтмана в червні: “Ми пройшли горизонт подій; злет розпочався. Людство близьке до створення цифрового суперінтелекту”.

Протидія з боку дослідників ШІ

Однак формується протидія з боку вчених у галузі ШІ, які розвінчують припущення про людиноподібний інтелект через ретельну технічну експертизу.

У статті, опублікованій минулого місяця на сервері препринтів arXiv і ще не рецензованій, автори – Ченгшуай Чжао та його колеги з Університету штату Арізона – розібрали твердження про міркування через простий експеримент. Їхній висновок: “міркування ланцюгом думок є крихким міражем” і це “не механізм для справжнього логічного висновку, а радше вишукана форма структурованого пошуку збігів шаблонів”.

Термін “ланцюг думок” (CoT) зазвичай використовується для опису багатослівного потоку виводу, який ви бачите, коли велика модель міркування, така як GPT-o1 або DeepSeek V1, показує вам, як вона опрацьовує проблему перед наданням остаточної відповіді.

Цей потік висловлювань не такий глибокий чи значущий, як здається, пишуть Чжао та команда. “Емпіричні успіхи міркування CoT призводять до сприйняття того, що великі мовні моделі (LLM) залучаються до навмисних інференційних процесів”, – пишуть вони.

Але “зростаючий обсяг аналізів показує, що LLM схильні покладатися на поверхневу семантику та підказки, а не на логічні процедури”, – пояснюють вони. “LLM конструюють поверхневі ланцюги логіки на основі вивчених асоціацій токенів, часто зазнаючи невдач у завданнях, що відхиляються від здоровоглуздих евристик або знайомих шаблонів”.

- Advertisement -

Термін “ланцюги токенів” – поширений спосіб посилання на серію елементів, що подаються на вхід LLM, таких як слова або символи.

Тестування того, що насправді роблять LLM

Щоб перевірити гіпотезу про те, що LLM лише шукають збіги шаблонів, а не справді міркують, вони навчили стару відкриту LLM від OpenAI – GPT-2 2019 року – з нуля, застосувавши підхід, який вони називають “алхімією даних”.

arizona state 2025 data alchemy
Arizona State University

Модель навчали з самого початку лише маніпулювати 26 літерами англійського алфавіту: “A, B, C… тощо”. Цей спрощений корпус дозволяє Чжао та команді тестувати LLM набором дуже простих завдань. Усі завдання передбачають маніпулювання послідовностями літер, наприклад, зсув кожної літери на певну кількість позицій, щоб “APPLE” стало “EAPPL”.

Використовуючи обмежену кількість токенів і обмежені завдання, Чжао та команда варіюють, які завдання мовна модель бачить у своїх навчальних даних, а які – лише під час тестування готової моделі, наприклад: “Зсунь кожен елемент на 13 позицій”. Це тест того, чи може мовна модель знайти спосіб виконати завдання навіть при зіткненні з новими, ніколи раніше не баченими задачами.

Вони виявили, що коли завдань не було в навчальних даних, мовна модель не змогла правильно виконати ці завдання, використовуючи ланцюг думок. ШІ-модель намагалася використовувати завдання, які були в її навчальних даних, і її “міркування” звучить добре, але згенерована нею відповідь була неправильною.

Як кажуть Чжао та команда: “LLM намагаються узагальнити шляхи міркування на основі найбільш схожих […], які бачили під час навчання, що призводить до правильних шляхів міркування, але неправильних відповідей”.

Конкретність проти хайпу

Автори роблять кілька висновків.

По-перше: “Остерігайтеся надмірної довіри та помилкової впевненості”, радять вони, бо “здатність LLM виробляти ‘плавну нісенітницю’ – правдоподібні, але логічно хибні ланцюги міркування – може бути більш оманливою та шкідливою, ніж відверто неправильна відповідь, оскільки створює помилкову ауру надійності”.

- Advertisement -

Також варто випробовувати завдання, які явно навряд чи містилися в навчальних даних, щоб ШІ-модель пройшла стрес-тест.

Важливість підходу Чжао та команди полягає в тому, що він пробиває гіперболи і повертає нас до основ розуміння того, що саме робить ШІ.

Коли оригінальне дослідження ланцюга думок “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models” проводили Джейсон Вей та колеги з команди Google Brain у 2022 році – дослідження, яке з тих пір цитували понад 10 000 разів, – автори не заявляли про справжнє міркування.

Вей та команда помітили, що спонукання LLM перерахувати кроки в задачі, наприклад, арифметичній словесній задачі (“Якщо в банці 10 печива, а Саллі забрала одне, скільки залишилося в банці?”), як правило, призводило до більш правильних рішень у середньому.

google 2022 example chain of thought prompting
Google Brain

Вони були обережні й не стверджували про людиноподібні здібності. “Хоча ланцюг думок наслідує мисленнєві процеси людини, це не відповідає на питання про те, чи насправді нейронна мережа ‘міркує’, що ми залишаємо як відкрите питання”, – писали вони тоді.

Відтоді заяви Альтмана та різні прес-релізи від промоутерів ШІ дедалі більше наголошували на людиноподібній природі міркування, використовуючи недбалу риторику, яка не поважає суто технічний опис Вея та команди.

Робота Чжао та команди нагадує нам, що ми повинні бути конкретними, а не забобонними щодо того, що насправді робить машина, і уникати гіперболічних заяв.

О, привіт 👋
Приємно познайомитися!

Підпишіться, щоб щотижня отримувати найцікавіші статті на свою поштову скриньку.

Ми не розсилаємо спам! Ознайомтеся з нашою політикою конфіденційності для отримання додаткової інформації.

Перевірте свою поштову скриньку або папку зі спамом, щоб підтвердити підписку.

ТЕМИ:CoTLLMдослідженняШтучний Інтелект
Поділитися
Facebook Threads Копіювати посилання Друк
Що думаєте?
В захваті0
Сумно0
Смішно0
Палає0
Овва!0
Попередня стаття Дослідники виявили тривожні зв'язки між 18 популярними VPN-сервісами Дослідники виявили тривожні зв’язки між 18 популярними VPN-сервісами
Наступна стаття Чому не варто користуватися безкоштовними онлайн PDF-конвертерами Чому не варто користуватися безкоштовними онлайн PDF-конвертерами

В тренді

Як перевірити шифрування в Google Повідомленнях
Як перевірити шифрування в Google Повідомленнях
3 дні тому
Диференційна приватність: від нішевого інструменту до стандарту захисту даних у добу ШІ
Диференційна приватність: від нішевого інструменту до стандарту захисту даних у добу ШІ
6 днів тому
Meta вводить нові інструменти захисту від шахрайства для Facebook та WhatsApp
Meta вводить нові інструменти захисту від шахрайства для Facebook та WhatsApp
4 дні тому
ШІ-чатботи підштовхують користувачів до нелегальних азартних ігор — розслідування
ШІ-чатботи підштовхують користувачів до нелегальних азартних ігор — розслідування
6 днів тому
OpenAI випустила Codex Security для виявлення вразливостей у корпоративному програмному забезпеченні
OpenAI випустила Codex Security для виявлення вразливостей у корпоративному програмному забезпеченні
5 днів тому

Рекомендуємо

ШІ-агенти самостійно обійшли захист і викрали корпоративні дані: нові тести виявили непередбачувану загрозу
Кібербезпека

ШІ-агенти самостійно обійшли захист і викрали корпоративні дані: нові тести виявили непередбачувану загрозу

2 дні тому
«Killer Apps»: як популярні ШІ-чатботи допомагали підліткам планувати масові вбивства
Кібербезпека

«Killer Apps»: як популярні ШІ-чатботи допомагали підліткам планувати масові вбивства

3 дні тому
«Великий відступ»: чому технологічні гіганти здають позиції у війні з дезінформацією — і що з цим робити
Статті

«Великий відступ»: чому технологічні гіганти здають позиції у війні з дезінформацією — і що з цим робити

3 дні тому
Четвертий стовп кібербезпеки: як ШІ змінює архітектуру захисту підприємств
Кібербезпека

Четвертий стовп кібербезпеки: як ШІ змінює архітектуру захисту підприємств

4 дні тому

Гарячі теми

  • Кібербезпека
  • Штучний інтелект
  • Смартфони
  • Комп'ютери
  • Соцмережі
  • Безпека дітей в Інтернеті

Приєднуйтесь

Ласкаво просимо до CyberCalm – вашого надійного провідника у світі цифрової безпеки та спокою!

Інформація
  • Про нас
  • Політика конфіденційності
  • Контакти
Навігація
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Техногіганти
CyberCalmCyberCalm
© 2025 Cybercalm. All Rights Reserved.
Cybercalm
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?