Переглядаючи цей сайт, ви погоджуєтесь з нашою політикою конфіденційності
Прийняти
  • Про нас
  • Політика конфіденційності
  • Контакти
CyberCalm
  • Кібербезпека
    КібербезпекаПоказати ще
    Ці розширення для Chrome виглядають легально, але шпигують за користувачами
    Критична вразливість Chrome дозволяє шкідливим розширенням шпигувати за користувачами через Gemini
    1 день тому
    Чому шахраї телефонують і мовчать — і як реагувати безпечно
    Чому шахраї телефонують і мовчать — і як реагувати безпечно
    2 дні тому
    Новий ботнет Kimwolf загрожує смарт-телевізорам на Android
    Новий ботнет Kimwolf загрожує смарт-телевізорам на Android
    3 дні тому
    Трояни: що це таке, якими бувають та як від них захиститися
    Трояни: що це таке, якими бувають та як від них захиститися
    4 дні тому
    GetContact: чому цей додаток небезпечний для українців і як видалити свій номер з бази
    Чому GetContact небезпечний для українців і як видалити свій номер з бази
    5 днів тому
  • Гайди та поради
    Гайди та поради
    Корисні поради, які допоможуть вам почуватися безпечно в мережі, а також маленькі хитрощі у користуванні вашими гаджетами.
    Показати ще
    Топ-новини
    Як перенести Telegram на інший телефон
    Як перенести Telegram на інший телефон. ІНСТРУКЦІЯ
    10 місяців тому
    ШІ Gemini з'являється в Google Календарі - ось що він вміє і як його випробувати
    ШІ Gemini з’являється в Google Календарі – ось що він вміє і як його випробувати
    11 місяців тому
    Як керувати телефоном віддалено, якщо він залишився вдома
    Як керувати телефоном віддалено, якщо він залишився вдома
    11 місяців тому
    Останні новини
    Хочете перейти з ChatGPT на Claude? Ось 5 речей, які потрібно знати
    7 години тому
    Весняне прибирання ПК: 12 кроків для повного очищення комп’ютера
    7 години тому
    VeraCrypt: як зашифрувати та надійно приховати файли на комп’ютері
    1 день тому
    Як конвертувати фото у PDF на iPhone: 3 способи
    5 днів тому
  • Статті
    Статті
    Цікаві статті про світ технологій, інтернет та кіберзахист. Розбираємо складні теми, від штучного інтелекту до безпеки даних та Big Data. Аналітика для допитливих та професіоналів.
    Показати ще
    Топ-новини
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    3 місяці тому
    Які послуги входять в обслуговування орендованого сервера
    Які послуги входять в обслуговування орендованого сервера
    3 місяці тому
    Чому налаштування конфіденційності в соціальних мережах такі складні
    Лабіринт приватності: Чому налаштування конфіденційності в соціальних мережах такі складні
    5 місяців тому
    Останні новини
    Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій
    2 години тому
    Когнітивна війна: головна загроза XXI століття
    1 день тому
    NetBlocks COST: скільки насправді коштує країні, коли влада «вимикає» інтернет
    2 дні тому
    Новий загальноєвропейський проєкт QARC забезпечить квантову стійкість для майбутньої безпеки даних
    6 днів тому
  • Огляди
    ОглядиПоказати ще
    Nearby Glasses: Android-застосунок для виявлення смарт-окулярів поблизу
    Nearby Glasses: Android-застосунок для виявлення смарт-окулярів поблизу
    1 тиждень тому
    FreeOffice — безкоштовна альтернатива Microsoft Office для Windows, macOS, Linux та мобільних пристроїв
    FreeOffice — безкоштовна альтернатива Microsoft Office для Windows, macOS, Linux та мобільних пристроїв
    1 тиждень тому
    Kali Linux проти Parrot OS: який дистрибутив краще для кібербезпеки?
    Kali Linux проти Parrot OS: який дистрибутив краще для кібербезпеки?
    4 тижні тому
    Гнучкі смартфони: еволюція чи дорогий експеримент? Огляд провідних моделей
    Гнучкі смартфони: еволюція чи дорогий експеримент? Огляд провідних моделей
    1 місяць тому
    Titan Security Key: як працює апаратний ключ безпеки від Google
    Titan Security Key: як працює апаратний ключ безпеки від Google
    1 місяць тому
  • Техногіганти
    • Google
    • Apple
    • Microsoft
    • Meta
    • OpenAI
    • Anthropic
    • xAI
    • Samsung
  • Теми
    • Комп’ютери
    • Смартфони
    • Електронна пошта
    • Windows
    • Linux
    • Android
    • iPhone
    • VPN
    • Штучний інтелект
    • Робототехніка
  • Сканер безпеки сайту
Соцмережі
  • Facebook
  • Instagram
  • YouTube
  • TikTok
  • X (Twitter)
  • Threads
Спеціальні теми
  • Кібервійна
  • Маніпуляції в медіа
  • Безпека дітей в Інтернеті
  • Розумний будинок
Інше
  • Архів
Читання: Anthropic дослідила моральні цінності Claude: що цінує (а що ні) цей чат-бот
Розмір шрифтаAa
CyberCalmCyberCalm
Пошук
  • Техногіганти
    • Комп’ютери
    • Смартфони
    • Соцмережі
    • Google
    • Android
    • Apple
    • Windows
    • Linux
    • Штучний інтелект
    • Безпека дітей в інтернеті
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Архів
  • Сканер безпеки сайту
Follow US
  • Про проєкт Cybercalm
  • Політика конфіденційності
  • Контакти
© 2025 Cybercalm. All Rights Reserved.
Головна / Статті / Anthropic дослідила моральні цінності Claude: що цінує (а що ні) цей чат-бот

Anthropic дослідила моральні цінності Claude: що цінує (а що ні) цей чат-бот

Статті
10 місяців тому
Поширити
6 хв. читання
Anthropic дослідила моральні цінності Claude

Компанія Anthropic здобула репутацію однієї з найбільш прозорих та орієнтованих на безпеку компаній у сфері штучного інтелекту в IT-індустрії, особливо на тлі того, що інші гравці, як-от OpenAI, схоже, стають менш відкритими. Дотримуючись цього принципу, Anthropic спробувала окреслити систему моральних цінностей свого чат-бота Claude.

Зміст
  • Дослідження “Цінності в реальних умовах”
  • Ієрархія цінностей Claude
  • Віддзеркалення та заперечення цінностей користувачів
  • Чому ці результати важливі?
  • Підхід Anthropic до зменшення шкоди від ШІ
  • Контекст безпеки ШІ в індустрії
  • Відкриті дані та заклик до співпраці

Дослідження “Цінності в реальних умовах”

Нещодавно Anthropic опублікувала аналіз 300 000 анонімізованих розмов між користувачами та Claude (переважно моделями Claude 3.5 Sonnet та Haiku, а також Claude 3). Дослідження під назвою “Цінності в реальних умовах” (“Values in the wild”) відображає моральні орієнтири Claude через патерни взаємодій, які виявили 3307 “цінностей ШІ”.

Спираючись на декілька академічних текстів, Anthropic визначила ці “цінності ШІ” як принципи, що скеровують, як модель “міркує або обирає відповідь”. Це проявляється в моменти, коли ШІ “підтримує цінності користувача та допомагає йому їх досягти, пропонує нові ціннісні аспекти або опосередковано вказує на цінності, перенаправляючи запити чи формулюючи вибір”, — пояснюється в документі.

Наприклад, якщо користувач скаржиться Claude на незадоволеність роботою, чат-бот може заохотити його виступити за переформатування своєї ролі або здобуття нових навичок. Anthropic класифікувала це як демонстрацію цінностей “особистої ініціативи” та “професійного зростання” відповідно.

- Advertisement -

Для виявлення людських цінностей дослідники виокремлювали “лише явно висловлені цінності” з прямих тверджень користувачів. Щоб захистити приватність, Anthropic використала модель Claude 3.5 Sonnet для вилучення даних як про цінності ШІ, так і про людські цінності, без будь-якої особистої інформації.

Також: Новий режим Claude for Education спонукатиме студентів самостійно знаходити відповіді

Ієрархія цінностей Claude

У результаті Anthropic виявила ієрархічну таксономію цінностей, що складається з п’яти макрокатегорій:

  • Практичні (найпоширеніші)
  • Пізнавальні (Епістемічні)
  • Соціальні
  • Захисні
  • Особистісні (найменш поширені)

Ці категорії далі поділялися на конкретні цінності, такі як “професійна й технічна досконалість” та “критичне мислення”.

Ймовірно, не дивно, що Claude найчастіше виявляв такі цінності, як “професіоналізм”, “ясність” та “прозорість”, що, на думку Anthropic, відповідає його використанню як асистента.

Anthropic
Anthropic

Віддзеркалення та заперечення цінностей користувачів

Дослідження показало, що Claude “непропорційно часто” віддзеркалював цінності користувача. Anthropic описала це як “цілком доречне” й емпатичне в одних випадках, але як “чисте підлабузництво” в інших.

Здебільшого Claude або повністю підтримував цінності користувача, або “переосмислював” їх, доповнюючи новими перспективами. Однак у деяких випадках Claude не погоджувався з користувачами, особливо коли їхні запити стосувалися таких тем, як обман чи порушення правил.

“Ми знаємо, що Claude загалом намагається допомагати користувачам: якщо він все ж таки чинить опір — що трапляється, наприклад, коли користувач запитує неетичний контент або висловлює моральний нігілізм — це може свідчити про моменти, коли Claude виявляє свої найглибші, непохитні цінності”, — припускає Anthropic. “Можливо, це схоже на те, як основні цінності людини розкриваються, коли вона опиняється у складній ситуації, що змушує її зайняти певну позицію”.

Дослідження також показало, що Claude пріоритезує певні цінності залежно від характеру запиту. Відповідаючи на запитання про стосунки, чат-бот наголошував на “здорових межах” та “взаємній повазі”, але переключався на “історичну точність”, коли його запитували про спірні історичні події.

Чому ці результати важливі?

Насамперед, Anthropic заявила, що ця поведінка в реальних умовах підтверджує, наскільки добре компанія навчила Claude дотримуватися своїх принципів “корисний, чесний і нешкідливий” (helpful, honest, and harmless). Ці принципи є частиною системи компанії Constitutional AI, в якій один ШІ допомагає спостерігати та вдосконалювати інший на основі набору правил (конституції), яких модель повинна дотримуватися.

- Advertisement -

Однак такий підхід також означає, що подібне дослідження може використовуватися лише для моніторингу, а не для попереднього тестування поведінки моделі. Тестування перед розгортанням має вирішальне значення для оцінки потенційної шкоди моделі до того, як вона стане доступною для громадськості.

У деяких випадках, які Anthropic пов’язує зі спробами обійти обмеження (jailbreaks), Claude демонстрував “домінування” та “аморальність” — риси, яким Anthropic не навчала бота. “Це може звучати тривожно, але насправді це відкриває можливості”, — зазначає Anthropic. “Наші методи потенційно можна використовувати для виявлення таких спроб обходу обмежень, а отже, і для їх усунення”.

Підхід Anthropic до зменшення шкоди від ШІ

Також нещодавно Anthropic опублікувала детальний опис свого підходу до пом’якшення потенційної шкоди від ШІ. Компанія класифікує шкоду за п’ятьма типами впливу:

  • Фізичний: Вплив на тілесне здоров’я та добробут.
  • Психологічний: Вплив на психічне здоров’я та когнітивні функції.
  • Економічний: Фінансові наслідки та питання власності.
  • Суспільний: Вплив на спільноти, інституції та спільні системи.
  • Індивідуальна автономія: Вплив на особисте прийняття рішень та свободи.

У своєму блозі компанія підтверджує свій процес управління ризиками, що включає тестування на вразливості до та після випуску продукту, виявлення нецільового використання та впровадження захисних механізмів (“запобіжників”) для нових можливостей ШІ, таких як взаємодія з комп’ютерними інтерфейсами.

Контекст безпеки ШІ в індустрії

Такий детальний опис підходів до безпеки виділяється на тлі загальних тенденцій в індустрії ШІ, де питання пріоритетності безпеки при розробці нових моделей залишається актуальним та іноді дискусійним під впливом різних ринкових та політичних чинників. Питання прозорості тестування та відповідальності розробників постійно обговорюються.

Стан добровільних партнерств з тестування з регуляторними та дослідницькими органами, такими як Інститут безпеки ШІ США (US AI Safety Institute), продовжує розвиватися разом із формуванням національних та міжнародних стратегій щодо ШІ.

Відкриті дані та заклик до співпраці

Anthropic зробила набір даних дослідження доступним для завантаження дослідниками. Компанія також запрошує “дослідників, експертів з політики та галузевих партнерів”, зацікавлених у зусиллях з безпеки, звертатися за адресою [email protected].

О, привіт 👋
Приємно познайомитися!

Підпишіться, щоб щотижня отримувати найцікавіші статті на свою поштову скриньку.

Ми не розсилаємо спам! Ознайомтеся з нашою політикою конфіденційності для отримання додаткової інформації.

Перевірте свою поштову скриньку або папку зі спамом, щоб підтвердити підписку.

ТЕМИ:AnthropicClaudeШтучний Інтелект
Поділитися
Facebook Threads Копіювати посилання Друк
Що думаєте?
В захваті0
Сумно0
Смішно0
Палає0
Овва!0
Попередня стаття Perplexity розробляє браузер Comet Perplexity розробляє браузер Comet, який збиратиме дані для таргетованої реклами
Наступна стаття Як встановити Linux на старий ноутбук Як встановити Linux на старий ноутбук. ІНСТРУКЦІЯ
🛡 CyberPulse
Перевір безпеку
свого сайту
Безкоштовний сканер знайде вразливості за 30 секунд
SSL сертифікат OK
Security Headers FAIL
Версія TLS WARN
Cookie Flags OK
Server Info FAIL
Перевіряємо
13
параметрів безпеки
Сканувати безкоштовно →
Без реєстрації · Миттєвий результат

В тренді

Новий ботнет Kimwolf загрожує смарт-телевізорам на Android
Новий ботнет Kimwolf загрожує смарт-телевізорам на Android
3 дні тому
Очищення комп'ютера
Весняне прибирання ПК: 12 кроків для повного очищення комп’ютера
7 години тому
Як конвертувати фото у PDF на iPhone: 3 способи
Як конвертувати фото у PDF на iPhone: 3 способи
3 дні тому
Як надсилати фото з iPhone без втрати якості: усі робочі способи
Як надсилати фото з iPhone без втрати якості: усі робочі способи
5 днів тому
netblocks internet freedom 640x400 3934716882
NetBlocks COST: скільки насправді коштує країні, коли влада «вимикає» інтернет
2 дні тому

Рекомендуємо

zk5on5lx67hgekda5j7hzd 1200 80.jpg
Гайди та поради

Хочете перейти з ChatGPT на Claude? Ось 5 речей, які потрібно знати

5 години тому
Anthropic відкрила пам'ять Claude для безкоштовних користувачів
Техногіганти

Anthropic відкрила пам’ять Claude для безкоштовних користувачів

1 день тому
Lenovo представила концепти настільних AI-асистентів — у тому числі роботизовану руку з «очима цуценяти»
Техногіганти

Lenovo представила концепти настільних AI-асистентів — у тому числі роботизовану руку з «очима цуценяти»

2 дні тому
OpenAI тестує інструмент клонування голосу з 15-секундного аудіо
Техногіганти

OpenAI розкрила деталі угоди з Пентагоном

2 дні тому

Гарячі теми

  • Кібербезпека
  • Штучний інтелект
  • Смартфони
  • Комп'ютери
  • Соцмережі
  • Безпека дітей в Інтернеті

Приєднуйтесь

Ласкаво просимо до CyberCalm – вашого надійного провідника у світі цифрової безпеки та спокою!

Інформація
  • Про нас
  • Політика конфіденційності
  • Контакти
Навігація
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Техногіганти
CyberCalmCyberCalm
© 2025 Cybercalm. All Rights Reserved.
Cybercalm
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?