Переглядаючи цей сайт, ви погоджуєтесь з нашою політикою конфіденційності
Прийняти
  • Про нас
  • Політика конфіденційності
  • Контакти
CyberCalm
  • Кібербезпека
    КібербезпекаПоказати ще
    У Іспанії заарештували хакера, який вкрав 64 млн записів даних
    У Іспанії заарештували хакера, який вкрав 64 млн записів даних
    2 дні тому
    Microsoft Patch Tuesday: виправлено три zero-day вразливості та 57 помилок у грудневому оновленні безпеки
    Microsoft Patch Tuesday: виправлено три zero-day вразливості та 57 помилок у грудневому оновленні безпеки
    2 дні тому
    Головні кіберзагрози 2025 року: від крадіжки даних до засобів знищення систем захисту
    Головні кіберзагрози 2025 року: від крадіжки даних до засобів знищення систем захисту
    4 дні тому
    Чим небезпечні розумні пристрої для дому та як вберегтися від загроз?
    Чим небезпечні розумні пристрої для дому та як вберегтися від загроз?
    4 дні тому
    Атака підміни DNS-записів: як зловмисники перенаправляють користувачів на шкідливі сайти
    Атака підміни DNS-записів: як зловмисники перенаправляють користувачів на шкідливі сайти
    4 дні тому
  • Гайди та поради
    Гайди та поради
    Корисні поради, які допоможуть вам почуватися безпечно в мережі, а також маленькі хитрощі у користуванні вашими гаджетами.
    Показати ще
    Топ-новини
    Як перенести Telegram на інший телефон
    Як перенести Telegram на інший телефон. ІНСТРУКЦІЯ
    8 місяців тому
    Як змінити пароль на роутері?
    Як змінити пароль на роутері? – ІНСТРУКЦІЯ
    8 місяців тому
    Як вимкнути відстеження вашого місцезнаходження на iPhone?
    Як вимкнути відстеження вашого місцезнаходження на iPhone? – ІНСТРУКЦІЯ
    8 місяців тому
    Останні новини
    Як увімкнути безпечний пошук в інтернеті. ІНСТРУКЦІЯ
    2 дні тому
    Як відновити видалені фото на iPhone
    2 дні тому
    Як встановити ключі доступу в Telegram — ІНСТРУКЦІЯ
    3 дні тому
    Як безпечно скасувати підписку на спам-розсилки: Поради та рекомендації
    4 дні тому
  • Статті
    Статті
    Цікаві статті про світ технологій, інтернет та кіберзахист. Розбираємо складні теми, від штучного інтелекту до безпеки даних та Big Data. Аналітика для допитливих та професіоналів.
    Показати ще
    Топ-новини
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    3 тижні тому
    Які послуги входять в обслуговування орендованого сервера
    Які послуги входять в обслуговування орендованого сервера
    2 тижні тому
    Лінус Торвальдс створив Git за 10 днів – і навіть не уявляв, що він проіснує 20 років
    Лінус Торвальдс створив Git за 10 днів – і навіть не уявляв, що він проіснує 20 років
    2 тижні тому
    Останні новини
    Як відкритий код безшумно переміг у програмних війнах
    19 години тому
    Matter: один стандарт для всіх розумних пристроїв у домі
    4 дні тому
    Чому світ не може відмовитися від QWERTY: історія найпопулярнішої розкладки клавіатури
    3 дні тому
    AGI залишається недосяжним без вирішення однієї фундаментальної проблеми — експерти з ШІ
    5 днів тому
  • Огляди
    ОглядиПоказати ще
    Засновник Pebble представив AI-кільце Index 01 за $75
    Index 01: Засновник Pebble представив AI-кільце за $75
    2 дні тому
    Jolla Phone повертається: Linux-смартфон з фокусом на приватність як альтернатива Android та iOS
    Jolla Phone повертається: Linux-смартфон з фокусом на приватність як альтернатива Android та iOS
    6 днів тому
    Як обрати розумний годинник: порівняння функцій та можливостей
    Як обрати розумний годинник: порівняння функцій та можливостей
    1 тиждень тому
    DeepSeek V3.2: чи загрожує новий відкритий ШІ домінуванню пропрієтарних моделей
    DeepSeek V3.2: чи загрожує новий відкритий ШІ домінуванню пропрієтарних моделей
    2 тижні тому
    Вийшло стабільне ядро Linux 6.18: огляд ключових нововведень
    Вийшло стабільне ядро Linux 6.18: огляд ключових нововведень
    2 тижні тому
  • Техногіганти
    • Google
    • Apple
    • Microsoft
    • Meta
    • OpenAI
    • Anthropic
    • xAI
    • Samsung
  • Теми
    • Комп’ютери
    • Смартфони
    • Електронна пошта
    • Windows
    • Linux
    • Android
    • iPhone
    • Штучний інтелект
Соцмережі
  • Facebook
  • Instagram
  • YouTube
  • TikTok
  • X (Twitter)
  • Threads
Спеціальні теми
  • Кібервійна
  • Маніпуляції в медіа
  • Безпека дітей в Інтернеті
  • Розумний будинок
Інше
  • Архів
Читання: Microsoft виявила атаку Whisper Leak, яка розкриває теми AI-чатів у зашифрованому трафіку
Розмір шрифтаAa
CyberCalmCyberCalm
Пошук
  • Техногіганти
    • Комп’ютери
    • Смартфони
    • Соцмережі
    • Google
    • Android
    • Apple
    • Windows
    • Linux
    • Штучний інтелект
    • Безпека дітей в інтернеті
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Архів
Follow US
  • Про проєкт Cybercalm
  • Політика конфіденційності
  • Контакти
© 2025 Cybercalm. All Rights Reserved.
Головна / Кібербезпека / Microsoft виявила атаку Whisper Leak, яка розкриває теми AI-чатів у зашифрованому трафіку

Microsoft виявила атаку Whisper Leak, яка розкриває теми AI-чатів у зашифрованому трафіку

Олена Кожухар
ByОлена Кожухар
Багато років працюю в журналістиці. Пишу гайди та поради, технічні лайфхаки, інструкції з налаштувань та використання пристроїв.
1 місяць тому
Поширити
8 хв. читання
Microsoft виявила атаку Whisper Leak, яка розкриває теми AI-чатів у зашифрованому трафіку

Дослідники Microsoft виявили нову атаку бічного каналу під назвою “Whisper Leak”, яка дозволяє зловмисникам визначати теми розмов з віддаленими мовними моделями штучного інтелекту, навіть якщо трафік зашифрований. Ця вразливість становить серйозну загрозу для конфіденційності користувачів AI-сервісів.

Зміст
  • Як працює атака Whisper Leak
  • Технічні деталі атаки
  • Потокова передача та вразливість
  • Дослідження та результати
  • Потенційні загрози
  • Потенційні наслідки для користувачів
  • Методи захисту
  • Ширший контекст уразливостей LLM
  • Висновки

Такий витік даних між користувачами та мовними моделями в режимі потокової передачі може становити серйозні ризики для конфіденційності особистих та корпоративних комунікацій, зазначила компанія. Атаці присвоєно кодову назву Whisper Leak.

Як працює атака Whisper Leak

Атака Whisper Leak використовує аналіз розміру пакетів даних для визначення тематики розмов користувачів з AI-моделями. Навіть при використанні надійного шифрування, зловмисники можуть спостерігати за мережевим трафіком і робити висновки про зміст діалогів на основі патернів передачі даних.

Дослідники безпеки Джонатан Бар Ор і Джефф Макдональд разом із командою Microsoft Defender Security Research Team пояснюють, що атака працює через те, що різні типи запитів і відповідей генерують характерні послідовності пакетів різного розміру. Аналізуючи ці патерни, зловмисник може з високою точністю визначити, про що йде мова в розмові між користувачем і AI-асистентом.

- Advertisement -

Технічні деталі атаки

Whisper Leak базується на аналізі метаданих мережевого трафіку, а не на розшифруванні самого контенту. Атака використовує машинне навчання для класифікації патернів трафіку і може досягати точності понад 80% у визначенні тематики розмов.

Ключові характеристики атаки включають:

  1. Пасивність: зловмисникам не потрібно активно втручатися в комунікацію
  2. Масштабованість: можливість одночасного моніторингу множини користувачів
  3. Стійкість: ефективність навіть при використанні VPN та інших засобів захисту

Потокова передача та вразливість

Потокова передача у великих мовних моделях (LLM) — це технологія, яка дозволяє отримувати дані поступово під час генерації відповідей моделлю, замість очікування обчислення всього результату. Це критичний механізм зворотного зв’язку, оскільки певні відповіді можуть потребувати часу залежно від складності запиту або завдання.

Методика, продемонстрована Microsoft, є значущою тому, що працює, незважаючи на те, що комунікації з AI-чатботами зашифровані через HTTPS, який забезпечує безпеку вмісту обміну даними та унеможливлює його підробку.

За останні роки розроблено чимало атак через побічні канали на LLM, зокрема можливість визначати довжину окремих незашифрованих токенів за розміром зашифрованих пакетів у відповідях потокових моделей або використовувати часові різниці, спричинені кешуванням висновків LLM, для викрадення вхідних даних (атака InputSnatch).

Дослідження та результати

Whisper Leak розвиває ці висновки, досліджуючи можливість того, що послідовність розмірів зашифрованих пакетів і часу їх надходження під час відповіді потокової мовної моделі містить достатньо інформації для класифікації теми початкового запиту, навіть коли відповіді передаються групами токенів.

Для перевірки цієї гіпотези Microsoft навчила бінарний класифікатор як proof-of-concept, здатний розрізняти запити на конкретну тему та решту (шум) за допомогою трьох різних моделей машинного навчання: LightGBM, Bi-LSTM і BERT.

Результат показав, що багато моделей від Alibaba, DeepSeek, Mistral, Microsoft, OpenAI та xAI досягли показників понад 98%, що дозволяє зловмиснику, який моніторить випадкові розмови з чатботами, надійно визначати конкретну тему. Моделі від Google та Amazon продемонстрували більшу стійкість, ймовірно, завдяки пакетній обробці токенів, хоча вони не повністю імунні до атаки.

- Advertisement -

Потенційні загрози

«Якби урядова установа чи інтернет-провайдер моніторили трафік до популярного AI-чатбота, вони могли б надійно ідентифікувати користувачів, які ставлять запитання про конкретні конфіденційні теми — чи то відмивання грошей, політичний дисидентство чи інші контрольовані теми — навіть попри те, що весь трафік зашифрований», — зазначила Microsoft.

Дослідники виявили, що ефективність Whisper Leak може покращуватися в міру збору зловмисником більшої кількості навчальних зразків з часом, перетворюючи її на практичну загрозу. Після відповідального розкриття інформації OpenAI, Mistral, Microsoft та xAI впровадили заходи протидії цьому ризику.

«У поєднанні з більш складними моделями атак і багатшими патернами, доступними в багатокрокових розмовах або кількох розмовах від одного користувача, це означає, що кіберзловмисник з терпінням і ресурсами може досягти вищих показників успішності, ніж показують наші початкові результати», — додали в компанії.

Потенційні наслідки для користувачів

Витік інформації про теми AI-розмов може мати серйозні наслідки для приватності користувачів. Зловмисники можуть використовувати отримані дані для:

  • Цільових фішингових атак на основі виявлених інтересів
  • Промислового шпигунства через моніторинг корпоративних запитів
  • Дискримінації на основі медичних або особистих запитів
  • Соціальної інженерії з використанням профілів інтересів

Методи захисту

Ефективний контрзахід, розроблений OpenAI, Microsoft і Mistral, передбачає додавання випадкової послідовності тексту змінної довжини до кожної відповіді, що маскує довжину кожного токена і нівелює побічний канал.

Microsoft також рекомендує користувачам, які турбуються про конфіденційність під час взаємодії з AI-чатботами:

  • Уникати обговорення надзвичайно конфіденційних тем при користуванні ненадійними мережами, такими як публічний Wi-Fi
  • Використовувати VPN для додаткового рівня захисту
  • Використовувати непотокові моделі LLM
  • Переходити до провайдерів, які впровадили відповідні заходи захисту

Ширший контекст уразливостей LLM

Розкриття відбулося одночасно з новою оцінкою восьми LLM з відкритими вагами від Alibaba (Qwen3-32B), DeepSeek (v3.1), Google (Gemma 3-1B-IT), Meta (Llama 3.3-70B-Instruct), Microsoft (Phi-4), Mistral (Large-2), OpenAI (GPT-OSS-20b) і Zhipu AI (GLM 4.5-Air), яка виявила їхню високу сприйнятливість до адверсаріального маніпулювання, особливо у багатокрокових атаках.

«Ці результати підкреслюють системну нездатність поточних моделей з відкритими вагами підтримувати бар’єри безпеки протягом тривалих взаємодій», — зазначили дослідники Cisco AI Defense Емі Чанг, Ніколас Конлі, Харіш Сантаналакшмі Ганесан і Адам Сванда в супровідній статті.

- Advertisement -

«Ми оцінюємо, що стратегії узгодження та лабораторні пріоритети суттєво впливають на стійкість: моделі, орієнтовані на можливості, такі як Llama 3.3 і Qwen 3, демонструють вищу багатокрокову сприйнятливість, тоді як дизайни, орієнтовані на безпеку, такі як Google Gemma 3, показують збалансованішу продуктивність».

Висновки

Ці відкриття демонструють, що організації, які впроваджують моделі з відкритим кодом, можуть стикатися з операційними ризиками за відсутності додаткових бар’єрів безпеки. Це доповнює зростаючий масив досліджень, які виявляють фундаментальні вразливості безпеки в LLM та AI-чатботах з моменту публічного дебюту OpenAI ChatGPT у листопаді 2022 року.

Розробникам критично важливо впроваджувати адекватні заходи безпеки під час інтеграції таких можливостей у свої робочі процеси, тонко налаштовувати моделі з відкритими вагами для підвищення стійкості до зломів та інших атак, проводити періодичні AI red-teaming оцінки та впроваджувати суворі системні промпти, узгоджені з визначеними варіантами використання.

Експерти з кібербезпеки підкреслюють важливість цього дослідження для розуміння нових векторів атак у епоху широкого використання AI-технологій. Виявлення Whisper Leak демонструє, що навіть найсучасніші методи шифрування не завжди можуть повністю захистити конфіденційність користувачів.

Це дослідження Microsoft є черговим нагадуванням про те, що з розвитком AI-технологій з’являються нові виклики для кібербезпеки, які потребують постійної уваги та інноваційних рішень для захисту.

О, привіт 👋
Приємно познайомитися!

Підпишіться, щоб щотижня отримувати найцікавіші статті на свою поштову скриньку.

Ми не розсилаємо спам! Ознайомтеся з нашою політикою конфіденційності для отримання додаткової інформації.

Перевірте свою поштову скриньку або папку зі спамом, щоб підтвердити підписку.

ТЕМИ:MicrosoftWhisper LeakКонфіденційністьчат-ботиШтучний Інтелект
ДЖЕРЕЛО:The Hacker News
Поділитися
Facebook Threads Копіювати посилання Друк
Що думаєте?
В захваті0
Сумно0
Смішно0
Палає0
Овва!0
Попередня стаття Чи варто заряджати смартфон у автомобілі? Чи варто заряджати смартфон у автомобілі?
Наступна стаття Як правильно доглядати за портативними зарядними станціями та домашніми електростанціями Як правильно доглядати за портативними зарядними станціями та домашніми електростанціями

В тренді

Чим небезпечні розумні пристрої для дому та як вберегтися від загроз?
Чим небезпечні розумні пристрої для дому та як вберегтися від загроз?
4 дні тому
Як увімкнути безпечний пошук в інтернеті. ІНСТРУКЦІЯ
Як увімкнути безпечний пошук в інтернеті. ІНСТРУКЦІЯ
2 дні тому
Як безпечно скасувати підписку на спам-розсилки
Як безпечно скасувати підписку на спам-розсилки: Поради та рекомендації
4 дні тому
Як видалити історію голосових помічників: Google Assistant, Alexa, Siri та Bixby
Як видалити історію голосових помічників: Google Assistant, Alexa, Siri та Bixby
4 дні тому
Апатія до приватності реальна - і у вас, мабуть, вона є
Апатія до приватності: чому люди свідомо йдуть на кіберризики
6 днів тому

Рекомендуємо

McDonald's та Coca-Cola випустили святкову AI-рекламу — і отримали хвилю критики
Техногіганти

McDonald’s та Coca-Cola випустили святкову AI-рекламу — і отримали хвилю критики

1 день тому
Засновник Pebble представив AI-кільце Index 01 за $75
Огляди

Index 01: Засновник Pebble представив AI-кільце за $75

2 дні тому
Microsoft Patch Tuesday: виправлено три zero-day вразливості та 57 помилок у грудневому оновленні безпеки
Кібербезпека

Microsoft Patch Tuesday: виправлено три zero-day вразливості та 57 помилок у грудневому оновленні безпеки

2 дні тому
AGI залишається недосяжним без вирішення однієї фундаментальної проблеми — експерти з ШІ
Статті

AGI залишається недосяжним без вирішення однієї фундаментальної проблеми — експерти з ШІ

5 днів тому

Гарячі теми

  • Кібербезпека
  • Штучний інтелект
  • Смартфони
  • Комп'ютери
  • Соцмережі
  • Безпека дітей в Інтернеті

Приєднуйтесь

Ласкаво просимо до CyberCalm – вашого надійного провідника у світі цифрової безпеки та спокою!

Інформація
  • Про нас
  • Політика конфіденційності
  • Контакти
Навігація
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Техногіганти
CyberCalmCyberCalm
© 2025 Cybercalm. All Rights Reserved.
Cybercalm
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?