Переглядаючи цей сайт, ви погоджуєтесь з нашою політикою конфіденційності
Прийняти
  • Про нас
  • Політика конфіденційності
  • Контакти
CyberCalm
  • Кібербезпека
    КібербезпекаПоказати ще
    Менеджер паролів Bitwarden атаковано через ланцюжок постачання: npm-пакет містив шкідливий код
    Менеджер паролів Bitwarden атаковано через ланцюжок постачання: npm-пакет містив шкідливий код
    4 дні тому
    Apple усунула вразливість iOS, через яку ФБР відновило видалені повідомлення Signal
    Apple усунула вразливість iOS, через яку ФБР відновило видалені повідомлення Signal
    5 днів тому
    Зловмисники маскуються під IT-підтримку в Microsoft Teams, щоб отримати доступ до корпоративних мереж
    Зловмисники маскуються під IT-підтримку в Microsoft Teams, щоб отримати доступ до корпоративних мереж
    1 тиждень тому
    Бекдор: прихований хід, який ви не бачите — але він бачить вас
    Бекдор: прихований хід, який ви не бачите — але він бачить вас
    2 тижні тому
    AgingFly: нове шкідливе ПЗ атакує українські лікарні, місцеву владу та операторів FPV-дронів
    AgingFly: нове шкідливе ПЗ атакує українські лікарні, місцеву владу та операторів FPV-дронів
    2 тижні тому
  • Гайди та поради
    Гайди та поради
    Корисні поради, які допоможуть вам почуватися безпечно в мережі, а також маленькі хитрощі у користуванні вашими гаджетами.
    Показати ще
    Топ-новини
    Як перенести Telegram на інший телефон
    Як перенести Telegram на інший телефон. ІНСТРУКЦІЯ
    1 рік тому
    Телефонне шахрайство: як розпізнати обман та викрити зловмисника?
    Телефонне шахрайство: як розпізнати обман та викрити зловмисника?
    1 рік тому
    Як перетворити старий телефон Android на камеру відеоспостереження
    Як перетворити старий телефон Android на камеру відеоспостереження
    1 рік тому
    Останні новини
    Прихована функція стеження у вашому Smart TV: як вимкнути ACR на телевізорах будь-якої марки
    3 години тому
    Псевдонім електронної пошти: простий спосіб позбутися спаму та розсилок
    2 тижні тому
    Як заархівувати та розпакувати файли та папки на Mac
    3 тижні тому
    Втрата даних: як відновити інформацію після видалення
    3 тижні тому
  • Статті
    Статті
    Цікаві статті про світ технологій, інтернет та кіберзахист. Розбираємо складні теми, від штучного інтелекту до безпеки даних та Big Data. Аналітика для допитливих та професіоналів.
    Показати ще
    Топ-новини
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    Для яких завдань потрібен VDS сервер: реальні приклади та особистий досвід
    5 місяців тому
    Які послуги входять в обслуговування орендованого сервера
    Які послуги входять в обслуговування орендованого сервера
    5 місяців тому
    VPS-хостинг: від «просто працює» до «літає» — тактичний посібник
    VPS-хостинг: від «просто працює» до «літає» — тактичний посібник
    2 тижні тому
    Останні новини
    Тіньові SIM-ферми за лавиною шахрайських SMS: як працює «фабрика дзвінків» і як захиститися
    4 дні тому
    Як кіберзлочинці взаємодіють між собою
    1 тиждень тому
    VPS-хостинг: від «просто працює» до «літає» — тактичний посібник
    2 тижні тому
    Як ШІ перетворився на машину дезінформації — дослідження НАТО
    2 тижні тому
  • Огляди
    ОглядиПоказати ще
    Найкращі альтернативи AirPods у 2026 році: огляд моделей для Android, Windows та iOS
    Найкращі альтернативи AirPods у 2026 році: огляд моделей для Android, Windows та iOS
    6 днів тому
    Google випустила десктопний застосунок для Windows: як він змінює роботу з пошуком і особистими даними
    Google випустила десктопний застосунок для Windows: як він змінює роботу з пошуком і особистими даними
    1 тиждень тому
    GrapheneOS: як влаштована найзахищеніша мобільна ОС — і чому вона не йде на поступки
    GrapheneOS: як влаштована найзахищеніша мобільна ОС — і чому вона не йде на поступки
    1 місяць тому
    Picsart запускає маркетплейс ШІ-агентів для контент-мейкерів
    Picsart запускає маркетплейс ШІ-агентів для контент-мейкерів
    1 місяць тому
    Pluggable TBT5-AI — перший зовнішній GPU-корпус для запуску ШІ-моделей на ноутбуках
    Pluggable TBT5-AI — перший зовнішній GPU-корпус для запуску ШІ-моделей на ноутбуках
    1 місяць тому
  • Техногіганти
    • Google
    • Apple
    • Microsoft
    • Meta
    • OpenAI
    • Anthropic
    • xAI
    • Samsung
  • Теми
    • Комп’ютери
    • Смартфони
    • Електронна пошта
    • Windows
    • Linux
    • Android
    • iPhone
    • VPN
    • Штучний інтелект
    • Робототехніка
Соцмережі
  • Facebook
  • Instagram
  • YouTube
  • TikTok
  • X (Twitter)
  • Threads
Спеціальні теми
  • Кібервійна
  • Маніпуляції в медіа
  • Дезінформація
  • Безпека дітей в Інтернеті
  • Розумний будинок
Інше
  • Сканер безпеки сайту
  • Архів
Читання: Microsoft виявила атаку Whisper Leak, яка розкриває теми AI-чатів у зашифрованому трафіку
Розмір шрифтаAa
CyberCalmCyberCalm
Пошук
  • Техногіганти
    • Комп’ютери
    • Смартфони
    • Соцмережі
    • Google
    • Android
    • Apple
    • Windows
    • Linux
    • Штучний інтелект
    • Безпека дітей в інтернеті
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Сканер безпеки сайту
  • Архів
Follow US
  • Про проєкт Cybercalm
  • Політика конфіденційності
  • Контакти
© 2025 Cybercalm. All Rights Reserved.
Головна / Кібербезпека / Microsoft виявила атаку Whisper Leak, яка розкриває теми AI-чатів у зашифрованому трафіку

Microsoft виявила атаку Whisper Leak, яка розкриває теми AI-чатів у зашифрованому трафіку

Кібербезпека
6 місяців тому
Поширити
8 хв. читання
Microsoft виявила атаку Whisper Leak, яка розкриває теми AI-чатів у зашифрованому трафіку

Дослідники Microsoft виявили нову атаку бічного каналу під назвою “Whisper Leak”, яка дозволяє зловмисникам визначати теми розмов з віддаленими мовними моделями штучного інтелекту, навіть якщо трафік зашифрований. Ця вразливість становить серйозну загрозу для конфіденційності користувачів AI-сервісів.

Зміст
  • Як працює атака Whisper Leak
  • Технічні деталі атаки
  • Потокова передача та вразливість
  • Дослідження та результати
  • Потенційні загрози
  • Потенційні наслідки для користувачів
  • Методи захисту
  • Ширший контекст уразливостей LLM
  • Висновки

Такий витік даних між користувачами та мовними моделями в режимі потокової передачі може становити серйозні ризики для конфіденційності особистих та корпоративних комунікацій, зазначила компанія. Атаці присвоєно кодову назву Whisper Leak.

Як працює атака Whisper Leak

Атака Whisper Leak використовує аналіз розміру пакетів даних для визначення тематики розмов користувачів з AI-моделями. Навіть при використанні надійного шифрування, зловмисники можуть спостерігати за мережевим трафіком і робити висновки про зміст діалогів на основі патернів передачі даних.

Дослідники безпеки Джонатан Бар Ор і Джефф Макдональд разом із командою Microsoft Defender Security Research Team пояснюють, що атака працює через те, що різні типи запитів і відповідей генерують характерні послідовності пакетів різного розміру. Аналізуючи ці патерни, зловмисник може з високою точністю визначити, про що йде мова в розмові між користувачем і AI-асистентом.

- Advertisement -

Технічні деталі атаки

Whisper Leak базується на аналізі метаданих мережевого трафіку, а не на розшифруванні самого контенту. Атака використовує машинне навчання для класифікації патернів трафіку і може досягати точності понад 80% у визначенні тематики розмов.

Ключові характеристики атаки включають:

  1. Пасивність: зловмисникам не потрібно активно втручатися в комунікацію
  2. Масштабованість: можливість одночасного моніторингу множини користувачів
  3. Стійкість: ефективність навіть при використанні VPN та інших засобів захисту

Потокова передача та вразливість

Потокова передача у великих мовних моделях (LLM) — це технологія, яка дозволяє отримувати дані поступово під час генерації відповідей моделлю, замість очікування обчислення всього результату. Це критичний механізм зворотного зв’язку, оскільки певні відповіді можуть потребувати часу залежно від складності запиту або завдання.

Методика, продемонстрована Microsoft, є значущою тому, що працює, незважаючи на те, що комунікації з AI-чатботами зашифровані через HTTPS, який забезпечує безпеку вмісту обміну даними та унеможливлює його підробку.

За останні роки розроблено чимало атак через побічні канали на LLM, зокрема можливість визначати довжину окремих незашифрованих токенів за розміром зашифрованих пакетів у відповідях потокових моделей або використовувати часові різниці, спричинені кешуванням висновків LLM, для викрадення вхідних даних (атака InputSnatch).

Дослідження та результати

Whisper Leak розвиває ці висновки, досліджуючи можливість того, що послідовність розмірів зашифрованих пакетів і часу їх надходження під час відповіді потокової мовної моделі містить достатньо інформації для класифікації теми початкового запиту, навіть коли відповіді передаються групами токенів.

Для перевірки цієї гіпотези Microsoft навчила бінарний класифікатор як proof-of-concept, здатний розрізняти запити на конкретну тему та решту (шум) за допомогою трьох різних моделей машинного навчання: LightGBM, Bi-LSTM і BERT.

Результат показав, що багато моделей від Alibaba, DeepSeek, Mistral, Microsoft, OpenAI та xAI досягли показників понад 98%, що дозволяє зловмиснику, який моніторить випадкові розмови з чатботами, надійно визначати конкретну тему. Моделі від Google та Amazon продемонстрували більшу стійкість, ймовірно, завдяки пакетній обробці токенів, хоча вони не повністю імунні до атаки.

- Advertisement -

Потенційні загрози

«Якби урядова установа чи інтернет-провайдер моніторили трафік до популярного AI-чатбота, вони могли б надійно ідентифікувати користувачів, які ставлять запитання про конкретні конфіденційні теми — чи то відмивання грошей, політичний дисидентство чи інші контрольовані теми — навіть попри те, що весь трафік зашифрований», — зазначила Microsoft.

Дослідники виявили, що ефективність Whisper Leak може покращуватися в міру збору зловмисником більшої кількості навчальних зразків з часом, перетворюючи її на практичну загрозу. Після відповідального розкриття інформації OpenAI, Mistral, Microsoft та xAI впровадили заходи протидії цьому ризику.

«У поєднанні з більш складними моделями атак і багатшими патернами, доступними в багатокрокових розмовах або кількох розмовах від одного користувача, це означає, що кіберзловмисник з терпінням і ресурсами може досягти вищих показників успішності, ніж показують наші початкові результати», — додали в компанії.

Потенційні наслідки для користувачів

Витік інформації про теми AI-розмов може мати серйозні наслідки для приватності користувачів. Зловмисники можуть використовувати отримані дані для:

  • Цільових фішингових атак на основі виявлених інтересів
  • Промислового шпигунства через моніторинг корпоративних запитів
  • Дискримінації на основі медичних або особистих запитів
  • Соціальної інженерії з використанням профілів інтересів

Методи захисту

Ефективний контрзахід, розроблений OpenAI, Microsoft і Mistral, передбачає додавання випадкової послідовності тексту змінної довжини до кожної відповіді, що маскує довжину кожного токена і нівелює побічний канал.

Microsoft також рекомендує користувачам, які турбуються про конфіденційність під час взаємодії з AI-чатботами:

  • Уникати обговорення надзвичайно конфіденційних тем при користуванні ненадійними мережами, такими як публічний Wi-Fi
  • Використовувати VPN для додаткового рівня захисту
  • Використовувати непотокові моделі LLM
  • Переходити до провайдерів, які впровадили відповідні заходи захисту

Ширший контекст уразливостей LLM

Розкриття відбулося одночасно з новою оцінкою восьми LLM з відкритими вагами від Alibaba (Qwen3-32B), DeepSeek (v3.1), Google (Gemma 3-1B-IT), Meta (Llama 3.3-70B-Instruct), Microsoft (Phi-4), Mistral (Large-2), OpenAI (GPT-OSS-20b) і Zhipu AI (GLM 4.5-Air), яка виявила їхню високу сприйнятливість до адверсаріального маніпулювання, особливо у багатокрокових атаках.

«Ці результати підкреслюють системну нездатність поточних моделей з відкритими вагами підтримувати бар’єри безпеки протягом тривалих взаємодій», — зазначили дослідники Cisco AI Defense Емі Чанг, Ніколас Конлі, Харіш Сантаналакшмі Ганесан і Адам Сванда в супровідній статті.

- Advertisement -

«Ми оцінюємо, що стратегії узгодження та лабораторні пріоритети суттєво впливають на стійкість: моделі, орієнтовані на можливості, такі як Llama 3.3 і Qwen 3, демонструють вищу багатокрокову сприйнятливість, тоді як дизайни, орієнтовані на безпеку, такі як Google Gemma 3, показують збалансованішу продуктивність».

Висновки

Ці відкриття демонструють, що організації, які впроваджують моделі з відкритим кодом, можуть стикатися з операційними ризиками за відсутності додаткових бар’єрів безпеки. Це доповнює зростаючий масив досліджень, які виявляють фундаментальні вразливості безпеки в LLM та AI-чатботах з моменту публічного дебюту OpenAI ChatGPT у листопаді 2022 року.

Розробникам критично важливо впроваджувати адекватні заходи безпеки під час інтеграції таких можливостей у свої робочі процеси, тонко налаштовувати моделі з відкритими вагами для підвищення стійкості до зломів та інших атак, проводити періодичні AI red-teaming оцінки та впроваджувати суворі системні промпти, узгоджені з визначеними варіантами використання.

Експерти з кібербезпеки підкреслюють важливість цього дослідження для розуміння нових векторів атак у епоху широкого використання AI-технологій. Виявлення Whisper Leak демонструє, що навіть найсучасніші методи шифрування не завжди можуть повністю захистити конфіденційність користувачів.

Це дослідження Microsoft є черговим нагадуванням про те, що з розвитком AI-технологій з’являються нові виклики для кібербезпеки, які потребують постійної уваги та інноваційних рішень для захисту.

О, привіт 👋
Приємно познайомитися!

Підпишіться, щоб щотижня отримувати найцікавіші статті на свою поштову скриньку.

Ми не розсилаємо спам! Ознайомтеся з нашою політикою конфіденційності для отримання додаткової інформації.

Перевірте свою поштову скриньку або папку зі спамом, щоб підтвердити підписку.

ТЕМИ:MicrosoftWhisper LeakКонфіденційністьчат-ботиШтучний Інтелект
ДЖЕРЕЛО:The Hacker News
Поділитися
Facebook Threads Копіювати посилання Друк
Що думаєте?
В захваті0
Сумно0
Смішно0
Палає0
Овва!0
Попередня стаття Чи варто заряджати смартфон у автомобілі? Чи варто заряджати смартфон у автомобілі?
Наступна стаття Як правильно доглядати за портативними зарядними станціями та домашніми електростанціями Як правильно доглядати за портативними зарядними станціями та домашніми електростанціями

В тренді

Найкращі альтернативи AirPods у 2026 році: огляд моделей для Android, Windows та iOS
Найкращі альтернативи AirPods у 2026 році: огляд моделей для Android, Windows та iOS
6 днів тому
Meta тестує платну підписку WhatsApp Plus: що отримають передплатники і скільки це коштуватиме
Meta тестує платну підписку WhatsApp Plus: що отримають передплатники і скільки це коштуватиме
6 днів тому
Прихована функція стеження у вашому Smart TV: як вимкнути ACR на телевізорах будь-якої марки
Прихована функція стеження у вашому Smart TV: як вимкнути ACR на телевізорах будь-якої марки
3 години тому
Тіньові SIM-ферми за лавиною шахрайських SMS: як працює «фабрика дзвінків» і як захиститися
Тіньові SIM-ферми за лавиною шахрайських SMS: як працює «фабрика дзвінків» і як захиститися
5 днів тому
Apple усунула вразливість iOS, через яку ФБР відновило видалені повідомлення Signal
Apple усунула вразливість iOS, через яку ФБР відновило видалені повідомлення Signal
5 днів тому

Рекомендуємо

Зловмисники маскуються під IT-підтримку в Microsoft Teams, щоб отримати доступ до корпоративних мереж
Кібербезпека

Зловмисники маскуються під IT-підтримку в Microsoft Teams, щоб отримати доступ до корпоративних мереж

1 тиждень тому
OpenAI запустила GPT-5.4-Cyber — AI-модель для кібербезпеки з послабленими обмеженнями
Техногіганти

OpenAI запустила GPT-5.4-Cyber — ШІ-модель для кібербезпеки з послабленими обмеженнями

2 тижні тому
Операція Pushpaganda: як ШІ-контент і push-сповіщення перетворили Google Discover на інструмент шахраїв
Кібербезпека

Операція Pushpaganda: як ШІ-контент і push-сповіщення перетворили Google Discover на інструмент шахраїв

2 тижні тому
Понад 70 організацій вимагають від Meta відмовитися від розпізнавання облич у смарт-окулярах
Техногіганти

Понад 70 організацій вимагають від Meta відмовитися від розпізнавання облич у смарт-окулярах

2 тижні тому

Гарячі теми

  • Кібербезпека
  • Штучний інтелект
  • Смартфони
  • Комп'ютери
  • Соцмережі
  • Безпека дітей в Інтернеті

Приєднуйтесь

Ласкаво просимо до CyberCalm – вашого надійного провідника у світі цифрової безпеки та спокою!

Інформація
  • Про нас
  • Політика конфіденційності
  • Контакти
Навігація
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Техногіганти
CyberCalmCyberCalm
© 2025 Cybercalm. All Rights Reserved.
Cybercalm
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?