Переглядаючи цей сайт, ви погоджуєтесь з нашою політикою конфіденційності
Прийняти
  • Про нас
  • Політика конфіденційності
  • Контакти
CyberCalm
  • Новини
  • Кібербезпека
    КібербезпекаПоказати ще
    Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска
    Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска
    15 години тому
    Що таке комп'ютер зі штучним інтелектом
    Введіть цю фразу в пошук — і знайдете конфіденційні корпоративні документи в інтернеті
    18 години тому
    Дослідники виявили GhostCall та GhostHire: нові ланцюги шкідливого ПЗ BlueNoroff
    Дослідники виявили GhostCall та GhostHire: нові ланцюги шкідливого ПЗ BlueNoroff
    4 дні тому
    Чи зроблять нові оновлення ChatGPT безпечнішим для психічного здоров'я
    Чи зроблять нові оновлення ChatGPT безпечнішим для психічного здоров’я?
    4 дні тому
    Apple Pay проти Google Pay: хто краще захищає ваші гроші?
    Apple Pay проти Google Pay: хто краще захищає ваші гроші?
    5 днів тому
  • Гайди та поради
    Гайди та поради
    Корисні поради, які допоможуть вам почуватися безпечно в мережі, а також маленькі хитрощі у користуванні вашими гаджетами.
    Показати ще
    Топ-новини
    Як перенести Telegram на інший телефон
    Як перенести Telegram на інший телефон. ІНСТРУКЦІЯ
    6 місяців тому
    Як змінити мову в App Store
    Як змінити мову в App Store
    7 місяців тому
    placeholder
    Як розблокувати смартфон без графічного ключа? Поради
    1 місяць тому
    Останні новини
    Як виявити програми для стеження на вашому ноутбуці
    5 днів тому
    Чорний екран смерті на Windows: 7 кроків для виправлення проблеми
    1 тиждень тому
    Як очистити кеш на телевізорі (і навіщо це робити)
    1 тиждень тому
    Повільний інтернет вдома? 3 речі, які потрібно перевірити першими для швидшого Wi-Fi
    2 тижні тому
  • Статті
    Статті
    Цікаві статті про світ технологій, інтернет та кіберзахист. Розбираємо складні теми, від штучного інтелекту до безпеки даних та Big Data. Аналітика для допитливих та професіоналів.
    Показати ще
    Топ-новини
    Високотехнологічні новинки, які спростять вам життя
    Високотехнологічні новинки, які спростять вам життя
    7 місяців тому
    Історія Caps Lock: Чому ця функція існує
    Історія Caps Lock: Чому ця функція існує?
    7 місяців тому
    eSIM проти SIM: чи eSIM краща за фізичну SIM-карту?
    eSIM проти SIM: чи eSIM краща за фізичну SIM-карту?
    4 місяці тому
    Останні новини
    Microsoft Bob залишається найнезграбнішим продуктом компанії Microsoft
    1 день тому
    Windows 11 почне пропонувати сканування пам’яті після “синіх екранів смерті”
    6 днів тому
    Дослідження підтвердило: AI-чатботи надмірно підлабузницькі
    1 тиждень тому
    Як розумні гаджети можуть допомогти в офісному переїзді?
    2 тижні тому
  • Огляди
    ОглядиПоказати ще
    Surfshark та Proton VPN: порівняння кращих VPN-сервісів
    Surfshark та Proton VPN: порівняння кращих VPN-сервісів
    13 години тому
    clamav
    Антивірус, якому можна довіряти на Linux — і він безкоштовний
    7 днів тому
    Gemini Google Home плутає собак з котами, але покращує автоматизацію розумного дому
    Gemini Google Home плутає собак з котами, але покращує автоматизацію розумного дому
    2 тижні тому
    Донгл для ремонту телефону за $5: результати тестування розчаровують
    Донгл для ремонту телефону за $5: результати тестування розчаровують
    2 тижні тому
    Meta Ray-Ban Display Glasses: огляд розумних окулярів з дисплеєм
    Meta Ray-Ban Display Glasses: чи безпечні розумні окуляри від Meta?
    2 тижні тому
  • Теми
    • Комп’ютери
    • Смартфони
    • Windows
    • Linux
    • Android
    • iOS
    • Штучний інтелект
    • Розумний будинок
  • Архів
Техногіганти
  • Google
  • Apple
  • Samsung
  • Microsoft
  • Meta
  • OpenAI
Соцмережі
  • Facebook
  • Instagram
  • YouTube
  • TikTok
  • X (Twitter)
  • Threads
Спеціальні теми
  • Кібервійна
  • Безпека дітей в Інтернеті
  • Маніпуляції в медіа
Читання: Введіть цю фразу в пошук — і знайдете конфіденційні корпоративні документи в інтернеті
Розмір шрифтаAa
CyberCalmCyberCalm
Пошук
  • Новини
    • Комп’ютери
    • Смартфони
    • Соцмережі
    • Google
    • Android
    • Apple
    • Windows
    • Linux
    • Штучний інтелект
    • Безпека дітей в інтернеті
  • Кібербезпека
  • Гайди та поради
  • Статті
  • Огляди
  • Архів
Follow US
  • Про проєкт Cybercalm
  • Політика конфіденційності
  • Контакти
© 2025 Cybercalm. All Rights Reserved.
Головна / Кібербезпека / Введіть цю фразу в пошук — і знайдете конфіденційні корпоративні документи в інтернеті

Введіть цю фразу в пошук — і знайдете конфіденційні корпоративні документи в інтернеті

Семенюк Валентин
18 години тому
Поширити
9 хв. читання
Що таке комп'ютер зі штучним інтелектом

Компанії, які використовують штучний інтелект без належного нагляду, піддають себе непотрібному ризику, попереджають аналітики кібербезпеки. Нове дослідження виявило тривожну тенденцію: понад 40% користувачів діляться конфіденційною інформацією з AI-інструментами, не розуміючи потенційних наслідків.

Зміст
  • Проблема не лише в Claude
  • Що не так із використанням AI на роботі?
  • Рекомендації для захисту корпоративних даних
  • Альтернативні рішення для безпечного використання AI

За даними Cybernews, понад 40% респондентів опитування зізналися, що передають чутливу інформацію — дані клієнтів, фінансові звіти та внутрішні документи компаній — штучному інтелекту без відома роботодавця. Нещодавно команда PromptArmor, консалтингової фірми з кібербезпеки, перевірила 22 популярні AI-додатки, зокрема Claude, Perplexity та Vercel V0. Вони виявили у відкритому доступі надзвичайно чутливі корпоративні дані, завантажені до AI-чатботів: токени AWS, судові документи, звіт Oracle про зарплати з позначкою «конфіденційно» та внутрішню інвестиційну записку венчурної фірми.

У звіті, наданому PCMag, дослідники PromptArmor зазначили, що будь-хто може отримати доступ до таких даних, ввівши в пошукову систему: «site:claude.ai + internal use only». Я перевірив цей запит і побачив кілька результатів зі звіту, а також інші цікаві знахідки.

2025 11 02 22.11.55 www.google.com 4244e9495e36

- Advertisement -

Проблема не лише в Claude

Витік даних не обмежується Claude. Ваші спільні розмови в Grok можуть з’явитися в результатах пошуку Google. Meta AI також робить публічними ваші розмови (хоча компанія нещодавно додала попереджувальне повідомлення перед тим, як користувачі діляться чатами). У серпні OpenAI прибрала розмови ChatGPT з результатів пошуку Google, заявивши, що індексування діалогів користувачів було «експериментом», який завершився.

Найцікавіший аспект опитування Cybernews — більшість людей (89%) визнали, що знають про значні ризики AI-інструментів. Витік даних називали найчастішою наслідком. Як зазначено у звіті: «Це означає, що співробітники використовують несанкціоновані AI-інструменти на роботі та діляться конфіденційною інформацією, хоча знають, що це може призвести до витоку даних».

Якщо ризик витоку даних недостатньо переконливий, щоб подумати двічі перед використанням неавторизованих AI-інструментів на роботі, є й інші питання — комплаєнс, правові та регуляторні. Давайте детальніше розглянемо ризики безпеки та конфіденційності, пов’язані з використанням AI на роботі, та що компанії можуть зробити, щоб навчити співробітників безпечному використанню штучного інтелекту.

Що не так із використанням AI на роботі?

Коли співробітники використовують AI-інструменти, які не пройшли належне тестування IT-відділом компанії, вони наражають компанію на цілий спектр ризиків. Несанкціоноване використання AI називають причиною збільшення фінансових втрат від витоків даних на $670 000, згідно зі звітом IBM за 2025 рік. Ми склали неповний перелік додаткових факторів, які роботодавці та команди корпоративної безпеки повинні враховувати під час розробки правил використання AI на роботі:

Великі мовні моделі вразливі — і хакери про це знають

Дослідники безпеки регулярно тестують популярні чатботи, тому не дивно, що вже виявили вразливості. У серпні OpenAI виправила вразливість, яка могла дозволити хакерам змусити ChatGPT розкривати електронні адреси користувачів. Того ж місяця на конференції Black Hat з кібербезпеки дослідники показали, як хакери можуть подавати шкідливі запити до Google Gemini через запрошення Google Calendar.

Google виправила цю вразливість ще до початку конференції, проте подібна проблема існує в інших чатботах, включно з Copilot та Einstein. Microsoft усунула цю проблему в серпні, а Salesforce — на початку вересня. Усі ці реакції надійшли через місяці після того, як дослідники повідомили про вразливість у червні. Варто також зазначити, що прогалини в безпеці виявили та повідомили про них дослідники, а не хакери. Останні напевно знайшли способи отримувати цінні дані з AI-чатботів, але не діляться цією інформацією публічно.

AI-галюцинації коштують компаніям реальних грошей

AI-галюцинації — це реальність, і вони коштують компаніям великих грошей та репутаційних втрат. В одному випадку адвоката оштрафували та зробили йому догану суддя за посилання на понад 20 вигаданих судових справ у юридичному документі. Юрист стверджував, що пропустив свій попередньо написаний документ через AI-інструмент, щоб «покращити його», а потім подав документ, не прочитавши.

У вересневому звіті NBC зазначено, що хоча аутсорсингових працівників у багатьох компаніях замінили на AI, люди-фрілансери знаходять роботу з виправлення помилок, згенерованих штучним інтелектом. В іншому недавньому прикладі глобальна фінансова консалтингова фірма Deloitte повернула австралійському уряду шестизначну суму після подання згенерованого AI звіту, який містив кілька фальшивих академічних статей та цитат, а також інші фактичні помилки.

- Advertisement -

«Робоча халтура»: коли AI-контент виглядає бездоганно, але марнує час

Команда Стенфордської лабораторії соціальних медіа виявила, що 40% американських офісних працівників на повну ставку отримували «робочу халтуру» (workslop). Цей термін означає AI-згенерований контент, який «маскується під якісну роботу, але не має змісту для реального просування завдання». Коротко кажучи, «робоча халтура» — проблема, бо вона марна. Коли співробітники витрачають оплачувані години на виправлення коду, переписування або перевірку фактів в AI-згенерованих документах, нотатках та показниках продажів, це нівелює початковий приріст продуктивності від AI. Втрата продуктивності часто означає втрату прибутку.

Іноді «робоча халтура» — це відносно безневинний лист із характерним тире; інколи це використання AI у ситуаціях, де його не варто застосовувати, що відкриває компанії для проблем із комплаєнсом та регулюванням, а також фінансових та юридичних наслідків.

Браузерне розширення Claude робить скріншоти під час роботи

Якщо ви використовуєте браузерні розширення з AI або AI-браузери, ви також відкриваєте двері для інших проблем безпеки, як-от атаки через промпт-інʼєкції або таємний збір даних з допомогою AI. Приклад — браузерне розширення Claude AI для Chrome, яке робить скріншоти активної вкладки браузера під час використання, автоматично руйнуючи будь-які уявлення про конфіденційність на робочому місці. Інструмент не отримує доступ до сайтів ризикованих категорій, включно з фінансовими, що добре. Це ускладнює випадкову передачу банківських даних до чатбота, але це надзвичайно погано для збереження приватних даних компанії та клієнтів.

Варто зазначити, що браузерне розширення Claude — експериментальна функція, наразі доступна лише обраним передплатникам тарифу Max.

Деякі AI-інструменти збирають приголомшливо детальні дані користувачів

Дослідження AI-чатботів, проведене на початку року, показало, який з них збирає найбільше даних із ваших пристроїв, і, несподівано, це виявився не Deepseek,  а помічник від компанії Google — Gemini. Втім, Google ніколи не мала репутацію компанії, яка дбає про конфіденційність користувачів.

Рекомендації для захисту корпоративних даних

Експерти радять компаніям негайно вжити заходів для мінімізації ризиків, пов’язаних з використанням AI-технологій:

Розробка корпоративної політики – створіть чіткі правила використання AI-інструментів співробітниками. Визначте, які типи інформації можна передавати AI-системам, а які – категорично заборонено.

Навчання персоналу – проведіть освітні програми для співробітників про ризики неконтрольованого використання штучного інтелекту. Багато витоків відбувається через незнання, а не злий умисел.

- Advertisement -

Технічні заходи захисту – впровадьте системи моніторингу та контролю, які відстежуватимуть передачу конфіденційних даних зовнішнім сервісам. Використовуйте DLP-рішення (Data Loss Prevention) для автоматичного виявлення спроб передачі чутливої інформації.

Альтернативні рішення для безпечного використання AI

Замість повної відмови від AI-технологій, компанії можуть обрати більш безпечні альтернативи:

  • Використання приватних AI-рішень з гарантіями конфіденційності
  • Впровадження локальних AI-систем без передачі даних третім особам
  • Анонімізація даних перед передачею AI-сервісам
  • Регулярний аудит використання AI-інструментів у компанії

Важливо пам’ятати, що штучний інтелект може значно підвищити продуктивність та ефективність бізнес-процесів, але тільки за умови правильного та безпечного використання. Компанії, які зможуть знайти баланс між інноваціями та безпекою, матимуть конкурентну перевагу на ринку.

Ситуація з витоком корпоративних документів через AI-платформи підкреслює необхідність комплексного підходу до кібербезпеки в епоху штучного інтелекту. Організації повинні адаптувати свої політики безпеки до нових реалій та забезпечити належний контроль над використанням AI-технологій.

О, привіт 👋
Приємно познайомитися!

Підпишіться, щоб щотижня отримувати найцікавіші статті на свою поштову скриньку.

Ми не розсилаємо спам! Ознайомтеся з нашою політикою конфіденційності для отримання додаткової інформації.

Перевірте свою поштову скриньку або папку зі спамом, щоб підтвердити підписку.

ТЕМИ:витік данихзахист інформаціїкібербезпека бізнесукорпоративна безпекаШтучний Інтелект
Поділитися
Facebook Threads Копіювати посилання Друк
Що думаєте?
В захваті0
Сумно0
Смішно0
Палає0
Овва!0
Попередня стаття Microsoft Bob залишається найнезграбнішим продуктом компанії Microsoft Microsoft Bob залишається найнезграбнішим продуктом компанії Microsoft
Наступна стаття Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска

В тренді

Як виявити програми для стеження на вашому ноутбуці
Як виявити програми для стеження на вашому ноутбуці
5 днів тому
aaa
Cторонній брандмауер на Windows: Чи справді він потрібен?
7 днів тому
Чи зроблять нові оновлення ChatGPT безпечнішим для психічного здоров'я
Чи зроблять нові оновлення ChatGPT безпечнішим для психічного здоров’я?
4 дні тому
Windows 11 отримує нову функцію безпеки — Administrator Protection
Windows 11 отримує нову функцію безпеки — Administrator Protection
5 днів тому
clamav
Антивірус, якому можна довіряти на Linux — і він безкоштовний
7 днів тому

Рекомендуємо

Дослідники виявили GhostCall та GhostHire: нові ланцюги шкідливого ПЗ BlueNoroff
Кібербезпека

Дослідники виявили GhostCall та GhostHire: нові ланцюги шкідливого ПЗ BlueNoroff

4 дні тому
Масштабний збій Azure завершено, але проблеми залишаються — що сталося
Новини

Масштабний збій Azure завершено, але проблеми залишаються — що сталося

4 дні тому
10 найбільших зломів VPN-сервісів в історії: рейтинг катастроф
Кібербезпека

10 найбільших зломів VPN-сервісів в історії: рейтинг катастроф

6 днів тому
Дослідження підтвердило: AI-чатботи надмірно підлабузницькі
Статті

Дослідження підтвердило: AI-чатботи надмірно підлабузницькі

1 тиждень тому
CyberCalmCyberCalm
Follow US
© 2025 Cybercalm. All Rights Reserved.
  • Про проєкт Cybercalm
  • Політика конфіденційності
  • Контакти
Cybercalm
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?