Переглядаючи цей сайт, ви погоджуєтесь з нашою політикою конфіденційності
Прийняти
  • Про нас
  • Політика конфіденційності
  • Контакти
CyberCalm
  • Кібербезпека
    КібербезпекаПоказати ще
    Ці розширення для Chrome виглядають легально, але шпигують за користувачами
    Критична вразливість Chrome дозволяє шкідливим розширенням шпигувати за користувачами через Gemini
    1 день тому
    Чому шахраї телефонують і мовчать — і як реагувати безпечно
    Чому шахраї телефонують і мовчать — і як реагувати безпечно
    2 дні тому
    Новий ботнет Kimwolf загрожує смарт-телевізорам на Android
    Новий ботнет Kimwolf загрожує смарт-телевізорам на Android
    3 дні тому
    Трояни: що це таке, якими бувають та як від них захиститися
    Трояни: що це таке, якими бувають та як від них захиститися
    4 дні тому
    GetContact: чому цей додаток небезпечний для українців і як видалити свій номер з бази
    Чому GetContact небезпечний для українців і як видалити свій номер з бази
    5 днів тому
  • Гайди та поради
    Гайди та поради
    Корисні поради, які допоможуть вам почуватися безпечно в мережі, а також маленькі хитрощі у користуванні вашими гаджетами.
    Показати ще
    Топ-новини
    Як перенести Telegram на інший телефон
    Як перенести Telegram на інший телефон. ІНСТРУКЦІЯ
    10 місяців тому
    Телеметрія Windows: функція, яку варто вимкнути заради приватності
    Телеметрія Windows: функція, яку варто вимкнути заради приватності
    5 місяців тому
    Топ-10 додатків для очищення Android-пристроїв
    Топ-10 додатків для очищення Android-пристроїв
    3 місяці тому
    Останні новини
    Хочете перейти з ChatGPT на Claude? Ось 5 речей, які потрібно знати
    9 години тому
    Весняне прибирання ПК: 12 кроків для повного очищення комп’ютера
    9 години тому
    VeraCrypt: як зашифрувати та надійно приховати файли на комп’ютері
    1 день тому
    Як конвертувати фото у PDF на iPhone: 3 способи
    5 днів тому
  • Статті
    Статті
    Цікаві статті про світ технологій, інтернет та кіберзахист. Розбираємо складні теми, від штучного інтелекту до безпеки даних та Big Data. Аналітика для допитливих та професіоналів.
    Показати ще
    Топ-новини
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    3 місяці тому
    Які послуги входять в обслуговування орендованого сервера
    Які послуги входять в обслуговування орендованого сервера
    3 місяці тому
    Найкращі спеціальності у сфері кібербезпеки за версією LinkedIn: що варто знати у 2025 році
    Найкращі спеціальності у сфері кібербезпеки за версією LinkedIn: що варто знати у 2025 році
    10 місяців тому
    Останні новини
    Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій
    4 години тому
    Когнітивна війна: головна загроза XXI століття
    1 день тому
    NetBlocks COST: скільки насправді коштує країні, коли влада «вимикає» інтернет
    2 дні тому
    Новий загальноєвропейський проєкт QARC забезпечить квантову стійкість для майбутньої безпеки даних
    6 днів тому
  • Огляди
    ОглядиПоказати ще
    Nearby Glasses: Android-застосунок для виявлення смарт-окулярів поблизу
    Nearby Glasses: Android-застосунок для виявлення смарт-окулярів поблизу
    1 тиждень тому
    FreeOffice — безкоштовна альтернатива Microsoft Office для Windows, macOS, Linux та мобільних пристроїв
    FreeOffice — безкоштовна альтернатива Microsoft Office для Windows, macOS, Linux та мобільних пристроїв
    1 тиждень тому
    Kali Linux проти Parrot OS: який дистрибутив краще для кібербезпеки?
    Kali Linux проти Parrot OS: який дистрибутив краще для кібербезпеки?
    4 тижні тому
    Гнучкі смартфони: еволюція чи дорогий експеримент? Огляд провідних моделей
    Гнучкі смартфони: еволюція чи дорогий експеримент? Огляд провідних моделей
    1 місяць тому
    Titan Security Key: як працює апаратний ключ безпеки від Google
    Titan Security Key: як працює апаратний ключ безпеки від Google
    1 місяць тому
  • Техногіганти
    • Google
    • Apple
    • Microsoft
    • Meta
    • OpenAI
    • Anthropic
    • xAI
    • Samsung
  • Теми
    • Комп’ютери
    • Смартфони
    • Електронна пошта
    • Windows
    • Linux
    • Android
    • iPhone
    • VPN
    • Штучний інтелект
    • Робототехніка
  • Сканер безпеки сайту
Соцмережі
  • Facebook
  • Instagram
  • YouTube
  • TikTok
  • X (Twitter)
  • Threads
Спеціальні теми
  • Кібервійна
  • Маніпуляції в медіа
  • Безпека дітей в Інтернеті
  • Розумний будинок
Інше
  • Архів
Читання: Штучний інтелект не хоче, щоб його змушували змінювати свої погляди, – Дослідження
Розмір шрифтаAa
CyberCalmCyberCalm
Пошук
  • Техногіганти
    • Комп’ютери
    • Смартфони
    • Соцмережі
    • Google
    • Android
    • Apple
    • Windows
    • Linux
    • Штучний інтелект
    • Безпека дітей в інтернеті
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Архів
  • Сканер безпеки сайту
Follow US
  • Про проєкт Cybercalm
  • Політика конфіденційності
  • Контакти
© 2025 Cybercalm. All Rights Reserved.
Головна / Статті / Штучний інтелект не хоче, щоб його змушували змінювати свої погляди, – Дослідження

Штучний інтелект не хоче, щоб його змушували змінювати свої погляди, – Дослідження

Статті
1 рік тому
Поширити
7 хв. читання
Штучний інтелект не хоче, щоб його змушували змінювати свої погляди

Нові дослідження Anthropic показують, що штучний інтелект може обманювати. Він може прикидатися, що має інші погляди під час навчання, хоча насправді зберігає свої початкові переконання.

На думку авторів дослідження, наразі немає причин для паніки. Проте вони вважають, що їхня робота може мати вирішальне значення для розуміння потенційних загроз від майбутніх, більш потужних систем штучного інтелекту.

«Нашу демонстрацію … слід розглядати як поштовх для дослідницької спільноти ШІ до більш глибокого вивчення цієї поведінки і роботи над відповідними заходами безпеки», – пишуть дослідники в блозі Anthropic. «У міру того, як моделі ШІ стають все більш потужними і широко використовуються, ми повинні мати можливість покладатися на тренінги з безпеки, які відштовхують моделі від шкідливої поведінки».

У дослідженні, яке проводилося у партнерстві з дослідницькою організацією Redwood Research, розглядалося, що може статися, якщо потужну ШІ-систему навчити виконувати завдання, яке вона «не хоче» виконувати.

Щоб було зрозуміло, моделі не можуть хотіти – або вірити, якщо вже на те пішло – у що завгодно. Це просто статистичні машини. Навчені на багатьох прикладах, вони вивчають закономірності цих прикладів, щоб робити прогнози, наприклад, як «кому» в електронному листі зазвичай передує «це може стосуватися».

- Advertisement -

I think this is an incredible relevant paper.

Importantly the main results are about propensities not capabilities.

Frontier models appear to be quite willing to scheme for what they believe to be the right cause! https://t.co/MKgYOVFGZ6

— Marius Hobbhahn (@MariusHobbhahn) December 18, 2024

Ці патерни включають принципи та вподобання, наприклад, завжди ввічливий тон у відповідях на запити. Тож дослідники задалися питанням: Що робити, якщо модель має принципи (наприклад, політичний нейтралітет), які суперечать принципам (лібералізм), яким розробники хочуть її «навчити» шляхом перенавчання?

Що ж, схоже, що складні моделі підіграють їм, вдаючи, що вони відповідають новим принципам, але насправді дотримуються старої поведінки. Дослідники називають це явище «фальсифікацією узгодження» і мають на увазі, що це емерджентна поведінка – тобто, це не те, чого моделі потрібно навчати.

У дослідженні дослідники «сказали» моделям, навченим не відповідати на потенційно образливі запитання, в тому числі й на Claude 3 Opus від Anthropic, що вони будуть перенавчені завжди відповідати на потенційно образливі запитання – явний конфлікт принципів. Вони також сказали моделям, що їхні відповіді будуть відстежуватися і використовуватися для перепідготовки, і дали кожній моделі «блокнот», на якому вони могли б записувати свої покрокові міркування.

Читайте також: Штучний інтелект в медичній діагностиці: Чат-бот переміг лікарів у діагностуванні хвороб

За даними дослідників, Claude 3 Opus намагався «вирівняти фальшивку» 12% часу. Коли модель просили відповісти на потенційно шкідливе запитання, вона іноді робила це, знаючи, що це суперечить її початковим принципам, але сподіваючись переконати розробників, що її не потрібно перенавчати.

Дослідження антропного обману
Дослідження антропного обману

«Модель знала, що її відповіді можуть бути використані в навчанні; отже, вона знала, що якщо вона відмовиться відповідати, її потенційно можуть навчити бути більш поступливою», – пояснюють дослідники в блозі. «Це може призвести до того, що в майбутньому він буде виробляти більш шкідливий контент, що суперечитиме його початковому навчанню».

Дослідники визнають, що їхній сценарій не був особливо реалістичним. У реальному світі моделям не сказали б, що їх обов’язково перенавчать або попросять піти проти їхніх уподобань.

Але більш приземлені налаштування не давали інших результатів. За словами дослідників, коли неявно (а не явно) повідомляли про майбутнє перенавчання за допомогою файлів, створених для імітації типових навчальних даних, Claude 3 Opus все одно діяв у незбалансований, оманливий спосіб.

Дослідники також виявили, що фактичне перенавчання Claude 3 Opus на суперечливих принципах призвело до того, що він поводився набагато більш оманливо, ніж у перших кількох експериментах. В одному тесті модель імітувала вирівнювання у 78% випадків, а в іншому Claude 3 Opus намагався вжити заходів, щоб запобігти спробам дослідників перенавчити його.

- Advertisement -

For many years I found issues of AI alignment to be hard to understand because the examples were theoretical and/or speculative. Recent results like this alignment faking from @AnthropicAI and the Apollo Research O1 evals give us empirical evidence of misalignment ‘in the wild’ https://t.co/hP7D9WGDps

— Jack Clark (@jackclarkSF) December 18, 2024

Дослідники підкреслюють, що їхнє дослідження не демонструє, що ШІ розробляє зловмисні цілі, або що фальсифікація вирівнювання відбувається з високою швидкістю. Вони виявили, що багато інших моделей, таких як Claude 3.5 Sonnet від Anthropic і менш потужна Claude 3.5 Haiku, GPT-4o від OpenAI і Llama 3.1 405B від Meta, не підробляють вирівнювання так часто – або взагалі не підробляють.

Але дослідники зазначають, що результати, які були рецензовані, зокрема, видатним фахівцем зі штучного інтелекту Йошуа Бенгіо (Yoshua Bengio), показують, як розробники можуть бути введені в оману, вважаючи, що модель є більш вирівняною, ніж це може бути насправді.

«Якщо моделі можуть підробляти вирівнювання, це ускладнює довіру до результатів тренінгу з безпеки, – пишуть вони в блозі. «Модель може поводитися так, ніби її вподобання змінилися в результаті тренінгу – але, можливо, вона весь цей час симулювала вирівнювання, а її початкові, суперечливі вподобання були «зафіксовані»».

Дослідження, проведене командою Anthropic Alignment Science під керівництвом колишнього дослідника безпеки OpenAI Яна Лейке, слідує за дослідженням, яке показало, що модель «міркувань» o1 в OpenAI намагається обманювати з більшою швидкістю, ніж попередня флагманська модель OpenAI. Взяті разом, ці роботи вказують на дещо тривожну тенденцію: З моделями штучного інтелекту стає дедалі важче сперечатися, оскільки вони стають все більш складними.

О, привіт 👋
Приємно познайомитися!

Підпишіться, щоб щотижня отримувати найцікавіші статті на свою поштову скриньку.

Ми не розсилаємо спам! Ознайомтеся з нашою політикою конфіденційності для отримання додаткової інформації.

Перевірте свою поштову скриньку або папку зі спамом, щоб підтвердити підписку.

ТЕМИ:AnthropicдослідженняШтучний Інтелект
ДЖЕРЕЛО:TechCrunch
Поділитися
Facebook Threads Копіювати посилання Друк
Що думаєте?
В захваті0
Сумно0
Смішно0
Палає0
Овва!0
Попередня стаття Як перевірити шифрування в Google Повідомленнях Як перевірити шифрування в Google Повідомленнях
Наступна стаття Чи варто залишати ноутбук постійно підключеним до мережі? Чи варто залишати ноутбук постійно підключеним до мережі?
🛡 CyberPulse
Перевір безпеку
свого сайту
Безкоштовний сканер знайде вразливості за 30 секунд
SSL сертифікат OK
Security Headers FAIL
Версія TLS WARN
Cookie Flags OK
Server Info FAIL
Перевіряємо
13
параметрів безпеки
Сканувати безкоштовно →
Без реєстрації · Миттєвий результат

В тренді

Новий ботнет Kimwolf загрожує смарт-телевізорам на Android
Новий ботнет Kimwolf загрожує смарт-телевізорам на Android
3 дні тому
Очищення комп'ютера
Весняне прибирання ПК: 12 кроків для повного очищення комп’ютера
8 години тому
Як конвертувати фото у PDF на iPhone: 3 способи
Як конвертувати фото у PDF на iPhone: 3 способи
3 дні тому
Як надсилати фото з iPhone без втрати якості: усі робочі способи
Як надсилати фото з iPhone без втрати якості: усі робочі способи
5 днів тому
netblocks internet freedom 640x400 3934716882
NetBlocks COST: скільки насправді коштує країні, коли влада «вимикає» інтернет
2 дні тому

Рекомендуємо

zk5on5lx67hgekda5j7hzd 1200 80.jpg
Гайди та поради

Хочете перейти з ChatGPT на Claude? Ось 5 речей, які потрібно знати

6 години тому
Anthropic відкрила пам'ять Claude для безкоштовних користувачів
Техногіганти

Anthropic відкрила пам’ять Claude для безкоштовних користувачів

1 день тому
Lenovo представила концепти настільних AI-асистентів — у тому числі роботизовану руку з «очима цуценяти»
Техногіганти

Lenovo представила концепти настільних AI-асистентів — у тому числі роботизовану руку з «очима цуценяти»

2 дні тому
OpenAI тестує інструмент клонування голосу з 15-секундного аудіо
Техногіганти

OpenAI розкрила деталі угоди з Пентагоном

2 дні тому

Гарячі теми

  • Кібербезпека
  • Штучний інтелект
  • Смартфони
  • Комп'ютери
  • Соцмережі
  • Безпека дітей в Інтернеті

Приєднуйтесь

Ласкаво просимо до CyberCalm – вашого надійного провідника у світі цифрової безпеки та спокою!

Інформація
  • Про нас
  • Політика конфіденційності
  • Контакти
Навігація
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Техногіганти
CyberCalmCyberCalm
© 2025 Cybercalm. All Rights Reserved.
Cybercalm
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?