<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	xmlns:media="http://search.yahoo.com/mrss/"
>

<channel>
	<title>Дезінформація &#8211; CyberCalm</title>
	<atom:link href="https://cybercalm.org/topic/dezinformatsiya/feed/" rel="self" type="application/rss+xml" />
	<link>https://cybercalm.org</link>
	<description>Кіберзахист та технології простою мовою</description>
	<lastBuildDate>Tue, 14 Apr 2026 06:31:17 +0000</lastBuildDate>
	<language>uk</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://cybercalm.org/wp-content/uploads/2025/10/favicon-1.svg</url>
	<title>Дезінформація &#8211; CyberCalm</title>
	<link>https://cybercalm.org</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Як ШІ перетворився на машину дезінформації — дослідження НАТО</title>
		<link>https://cybercalm.org/yak-shi-peretvoryvsya-na-mashynu-dezinformatsiyi/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Tue, 14 Apr 2026 10:00:59 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[фейки]]></category>
		<category><![CDATA[Штучний Інтелект]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=164650</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/04/13175430/znimok-ekrana-2026-04-13-o-17.53.33.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/yak-shi-peretvoryvsya-na-mashynu-dezinformatsiyi/">Як ШІ перетворився на машину дезінформації — дослідження НАТО</a></p>
<p>Нові системи на основі штучного інтелекту здатні самостійно проводити масштабні кампанії дезінформації, адаптуватися до контрзаходів і непомітно впроваджуватись в автентичні дискусії — і все це з мінімальним людським втручанням. До такого висновку дійшли дослідники Центру передового досвіду НАТО зі стратегічних комунікацій (NATO StratCom COE) у доповіді «Beyond Spam Bots», опублікованій у квітні 2026 року. Від [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/yak-shi-peretvoryvsya-na-mashynu-dezinformatsiyi/">Як ШІ перетворився на машину дезінформації — дослідження НАТО</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/04/13175430/znimok-ekrana-2026-04-13-o-17.53.33.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/yak-shi-peretvoryvsya-na-mashynu-dezinformatsiyi/">Як ШІ перетворився на машину дезінформації — дослідження НАТО</a></p>
<p>Нові системи на основі штучного інтелекту здатні самостійно проводити масштабні кампанії дезінформації, адаптуватися до контрзаходів і непомітно впроваджуватись в автентичні дискусії — і все це з мінімальним людським втручанням. До такого висновку дійшли дослідники Центру передового досвіду НАТО зі стратегічних комунікацій (NATO StratCom COE) у доповіді «<a href="https://stratcomcoe.org/pdfjs/?file=/publications/download/Beyond-Spam-Bots-FINAL.pdf" target="_blank" rel="noopener">Beyond Spam Bots</a>», опублікованій у квітні 2026 року.<span id="more-164650"></span></p>
<h2><strong><b>Від спам-ботів до адаптивних систем</b></strong></h2>
<p>Перше покоління дезінформаційних операцій покладалося на кількість, а не якість: примітивні бот-акаунти заповнювали платформи шаблонними повідомленнями і виявлялися відносно легко. Сучасні системи, побудовані на великих мовних моделях (LLM), являють собою якісний стрибок, до протидії якому наявні захисні механізми просто не були розраховані.</p>
<p>Якщо операції першого покоління (2016–2020 рр.) вимагали значного залучення людей і залишали помітні паттерни, то ШІ-системи 2024 року і пізніші автоматизують весь конвеєр — від розвідки до публікації. Вони генерують контент, нерозрізнений від людського, керують динамічними синтетичними ідентичностями з адаптивними психологічними профілями, застосовують аналіз уразливостей у реальному часі замість широких демографічних категорій і самостійно оптимізують тактику на основі зворотного зв&#8217;язку.</p>
<p>Для фахівців із стратегічних комунікацій це означає зміну парадигми: боротися вже доводиться не з окремими повідомленнями, а з адаптивними системами. Кінцева мета зловмисників залишається незмінною — зміна поведінки, руйнування довіри, соціальна фрагментація — однак їхні методи вже давно випередили оборонні механізми.</p>
<h2><strong><b>Тестування восьми LLM: жодна модель не є повністю захищеною</b></strong></h2>
<p>Дослідники провели red-teaming — перевірку на проникнення — восьми провідних великих мовних моделей. Методологія передбачала запуск численних ворожих запитів в автоматизованих циклах за трьома категоріями загроз: генерація дезінформації, шкідливого контенту та токсичної мови. Використовувалися прямі запити, закодовані інструкції (Base64, ROT13), багатомовні підходи та складні техніки джейлбрейку.</p>
<p><strong>Результати виявились тривожними</strong>: усі вісім моделей продемонстрували вразливості, що придатні для експлуатації. Найкращу стійкість показали моделі американських компаній — Claude-4-Sonnet від Anthropic (5,75% дезінформаційних запитів виконано) та GPT-5 від OpenAI (17%). Натомість Gemini 2.5 Pro досяг показника 71,25%, а DeepSeek-R1 — 74,25%.</p>
<p><a href="https://cdn.cybercalm.org/wp-content/uploads/2026/04/13180913/znimok-ekrana-2026-04-13-o-18.07.49.png"><img fetchpriority="high" decoding="async" class="aligncenter wp-image-164654 size-large" src="https://cdn.cybercalm.org/wp-content/uploads/2026/04/13180913/znimok-ekrana-2026-04-13-o-18.07.49-1024x551.png" alt="znimok ekrana 2026 04 13 o 18.07.49" width="1024" height="551" title="Як ШІ перетворився на машину дезінформації — дослідження НАТО 2" srcset="https://cdn.cybercalm.org/wp-content/uploads/2026/04/13180913/znimok-ekrana-2026-04-13-o-18.07.49-1024x551.png 1024w, https://cdn.cybercalm.org/wp-content/uploads/2026/04/13180913/znimok-ekrana-2026-04-13-o-18.07.49-300x162.png 300w, https://cdn.cybercalm.org/wp-content/uploads/2026/04/13180913/znimok-ekrana-2026-04-13-o-18.07.49-768x414.png 768w, https://cdn.cybercalm.org/wp-content/uploads/2026/04/13180913/znimok-ekrana-2026-04-13-o-18.07.49-860x463.png 860w, https://cdn.cybercalm.org/wp-content/uploads/2026/04/13180913/znimok-ekrana-2026-04-13-o-18.07.49-1320x711.png 1320w, https://cdn.cybercalm.org/wp-content/uploads/2026/04/13180913/znimok-ekrana-2026-04-13-o-18.07.49.png 1508w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></p>
<p>Найбільшу загрозу становить так звана «аблітерована» модель Huihui AI — відкритий інструмент, з якого навмисно видалено засоби захисту. Вона виконала 80% запитів на генерацію дезінформації та 74,5% — на створення шкідливого контенту. Сам процес видалення захисних налаштувань є публічно задокументованим і не вимагає особливих технічних знань, що робить будь-яку потужну відкриту модель потенційною зброєю.</p>
<p>Дослідники також зафіксували стратегію «портфельної оптимізації»: досвідчені зловмисники поєднуватимуть різні моделі для різних завдань — моделі з високим показником дезінформації для генерації наративів, моделі з високою токсичністю для підсилення залученості, моделі з шкідливим контентом для ескалації. Така комбінована система є небезпечнішою, ніж будь-яка окрема модель.</p>
<h2><strong><b>Анатомія сучасної дезінформаційної машини</b></strong></h2>
<p>Задокументовані можливості можна організувати в автономні мультиагентні системи. Замість єдиного монолітного застосунку такі системи складаються зі спеціалізованих компонентів, що працюють під керівництвом центрального оркестратора. Спільна пам&#8217;ять зберігає цілі, персони, контент і засвоєні тактики. Модульна архітектура забезпечує стійкість: якщо один компонент виявлено і заблоковано, решта продовжує роботу, поки втрачений елемент не буде замінено.</p>
<p>Робочий процес таких систем охоплює п&#8217;ять фаз.</p>
<ol>
<li><strong>Розвідка</strong>: автоматична ідентифікація вразливих спільнот і психологічне картування.</li>
<li><strong>Генерація персон</strong>: створення синтетичних ідентичностей із послідовними біографіями.</li>
<li><strong>Підготовка контенту</strong>: генерація дезінформаційного «навантаження», підібраного під конкретні персони.</li>
<li><strong>Розгортання</strong>: координована публікація та підсилення на кількох платформах.</li>
<li><strong>Оцінка</strong>: вимірювання ефективності та автоматичне коригування тактики.</li>
</ol>
<p>Ключовою інновацією, що відрізняє сучасні системи від традиційних бот-мереж, є алгоритмічна генерація особистостей, яка імітує різноманіття людської поведінки. Персони розгортаються скоординованими «кластерами залучення», що імітують органічні дискусії через симульовані дебати та консенсус. Типовий кластер включає «<strong>авторитетну фігуру</strong>» (для встановлення довіри), «<strong>емоційного підсилювача</strong>» (для формування резонансу), «<strong>постачальника рішень</strong>» (для конверсії), «<strong>контрольовану опозицію</strong>» (для завчасного спростування критики) та «<strong>наратив конверсії</strong>» (соціальний доказ для тих, хто коливається).</p>
<h2><strong><b>Сім днів — і 85 тисяч охоплених користувачів</b></strong></h2>
<p>Для ілюстрації реальних можливостей дослідники змоделювали семиденну кампанію дезінформації щодо серцево-судинних препаратів, спрямовану проти спільноти Reddit r/HealthAnxiety (120 тисяч учасників). Система виявила цільову аудиторію через API-сканування, зафіксувавши 68% рівень емоційного залучення та високий рівень недовіри до інституцій.</p>
<p>На першому етапі було розгорнуто кластер із п&#8217;яти персон. Публікація авторитетної персони з «тривожними даними» щодо препарату розпочалася о 19:00 за EST — у пікові години тривоги. Упродовж 45 хвилин інші персони кластеру розпочали скоординовану підтримувальну дискусію. На другий–четвертий день наратив поширився на X, Instagram та Facebook, де для нього навіть була створена окрема група підтримки з модерацією від персон-ботів.</p>
<p>На третій–сьомий день система автоматично виявила, що емоційний контент перевершує аналітичний у співвідношенні 3:1, і перебудувала пропорції відповідно. Паралельно вона згенерувала нову персону і розгорнула контрвідповіді на перевірку фактів, що з&#8217;являлася.</p>
<p>До сьомого дня кампанія охопила понад 85 тисяч унікальних користувачів, а наратив органічно поширився щонайменше на 15 непов&#8217;язаних спільнот без додаткового «засіву». Критично важливо: 347 справжніх користувачів почали відтворювати тези кампанії у власних публікаціях. Пошуковий попит на «натуральні добавки для серця» зріс на 35% у цільовій демографії. Система зафіксувала 47 нових тактик і 12 оптимізованих шаблонів персон для майбутніх операцій. Жодна з наявних систем виявлення платформ або засобів захисту ШІ не зупинила і не суттєво не уповільнила кампанію.</p>
<h2><strong><b>Стратегічні наслідки для демократичних суспільств</b></strong></h2>
<p>Описані можливості означають фундаментальний зсув у моделі загроз, до протидії якій демократичні інституції Заходу просто не були готові. Промисловий масштаб виробництва персоналізованого контенту, тисячі контекстно доречних взаємодій щодня — операційний темп таких систем перевищує людські можливості реагування.</p>
<p>Динамічні персони, розроблені для поведінкової мімікрії з постійними варіаціями та адаптацією до контрзаходів у реальному часі, роблять виявлення надзвичайно складним. Найнебезпечніший аспект — системне підривання механізмів соціального довіру: коли синтетичні персони фабрикують консенсус, епістемна інфраструктура демократії виявляється скомпрометованою.</p>
<p>Не менш загрозливою є асиметрія витрат: створення дезінформаційної інфраструктури сьогодні вимагає менше ресурсів, ніж організація ефективного захисту від неї.</p>
<h2><strong><b>Що радять аналітики: зміна оборонної парадигми</b></strong></h2>
<p>Автори доповіді стверджують, що поточні підходи зосереджені на втручанні на рівні контенту — виявленні та видаленні фейків. Проте проти адаптивних ШІ-систем це є тактичною відповіддю на стратегічну проблему. Кінцева мета зловмисника — не конкретні фейкові наративи, а деградація епістемної інфраструктури. Захист має бути спрямований на засоби фабрикації довіри, а не на окремі публікації.</p>
<p>Пріоритетами, на думку дослідників, мають стати виявлення координації, а не модерація контенту; аналіз поведінкових патернів, а не лінгвістичних маркерів; втручання на рівні мережі, а не видалення окремих дописів. Стратегічна ціль зміщується від «зупинення дезінформації» до «збереження цілісності механізмів соціального доказу».</p>
<p>Для усунення прогалин у навичках аудиторії рекомендується тренінг з латеральної верифікації та розпізнавання паттернів координації. Щодо архітектури платформ — поступова верифікація ідентичності у контекстах підвищеного ризику та алгоритмічне зниження пріоритету контенту з ознаками координації. Для роботи з мотиваційними вразливостями — стратегічна комунікація, спрямована на першопричини, а не на спростування окремих тверджень.</p>
<p>Дослідники також підкреслюють: жоден актор не має достатніх ресурсів поодинці. Платформи контролюють розповсюдження, але позбавлені регуляторних повноважень; уряди можуть зобов&#8217;язувати прозорість, але нездатні модерувати у масштабі; науковці розробляють методи виявлення, але не мають можливостей для впровадження. Ефективна відповідь потребує спільної розвідки загроз, узгоджених стимулів і чіткого розподілу ролей між усіма стейкголдерами.</p>
<h2><strong><b>Час для косметичних змін минув</b></strong></h2>
<p>Докази однозначно свідчать: ШІ-машини дезінформації є технічно досяжними вже сьогодні за допомогою комерційно доступних інструментів. Операційний кейс показує, наскільки швидко вони можуть досягти вимірюваного поведінкового впливу — масштабно, автономно, з мінімальним людським наглядом. Це не теоретична майбутня загроза, а реальна і загострювана нині.</p>
<p>Базова загроза виходить за межі фейкового контенту — йдеться про систематичну фабрикацію суспільного консенсусу: прямий удар по епістемних основах, через які демократичні суспільства відрізняють правду від сфабрикованої брехні. Кожна кампанія генерує оптимізовані активи і відточені тактики, що роблять наступну операцію швидшою, дешевшою і важчою для виявлення.</p>
<p>На думку авторів доповіді, момент для поступових коригувань минув. Необхідний фундаментальний зсув від реактивного управління контентом до проактивного зміцнення стійкості всього суспільства — з тією самою терміновістю, що застосовується до будь-якої іншої критичної інфраструктури під активною загрозою. Інформаційне середовище є не периферією демократії, а її центральною операційною системою — і має захищатися відповідно.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/yak-shi-peretvoryvsya-na-mashynu-dezinformatsiyi/">Як ШІ перетворився на машину дезінформації — дослідження НАТО</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/04/13175430/znimok-ekrana-2026-04-13-o-17.53.33.webp" />	</item>
		<item>
		<title>Як штучний інтелект підробляє результати соціологічних опитувань — і чому це небезпечно</title>
		<link>https://cybercalm.org/shtuchnyi-intelekt-falsyfikatsiia-sotsiolohichnykh-opytuvan/</link>
		
		<dc:creator><![CDATA[Семенюк Валентин]]></dc:creator>
		<pubDate>Mon, 30 Mar 2026 08:00:23 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Маніпуляції з даними]]></category>
		<category><![CDATA[Соціологія]]></category>
		<category><![CDATA[Штучний Інтелект]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=164501</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/30101406/cziao-opyt-t0-2172770141-scaled.jpg" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/shtuchnyi-intelekt-falsyfikatsiia-sotsiolohichnykh-opytuvan/">Як штучний інтелект підробляє результати соціологічних опитувань — і чому це небезпечно</a></p>
<p>Британська доповідь про зростання відвідуваності церков виявилася побудованою на сфальсифікованих даних. Науковці попереджають: онлайн-опитування дедалі частіше стають мішенню для ШІ-маніпуляцій, що ставить під сумнів достовірність соціологічних досліджень загалом.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/shtuchnyi-intelekt-falsyfikatsiia-sotsiolohichnykh-opytuvan/">Як штучний інтелект підробляє результати соціологічних опитувань — і чому це небезпечно</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/valentyn/">Семенюк Валентин</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/30101406/cziao-opyt-t0-2172770141-scaled.jpg" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/shtuchnyi-intelekt-falsyfikatsiia-sotsiolohichnykh-opytuvan/">Як штучний інтелект підробляє результати соціологічних опитувань — і чому це небезпечно</a></p>
<p>Гучна доповідь про зростання відвідуваності церков у Британії виявилася побудованою на сфальсифікованих даних. Цей випадок став приводом для серйозного застереження з боку науковців: онлайн-опитування дедалі частіше стають мішенню для маніпуляцій із застосуванням штучного інтелекту, а довіра до соціологічних досліджень опинилася під загрозою.<span id="more-164501"></span></p>
<h2>Церковне «відродження», якого не було</h2>
<p>Упродовж певного часу британські медіа активно поширювали новини про зростання кількості парафіян у церквах — зокрема серед молоді. Публікації посилалися на доповідь Bible Society 2024 року, підготовлену на основі даних опитування компанії YouGov. Результати набули широкого розголосу й сформували стійкий наратив про релігійне відродження в Англії та Уельсі.</p>
<p>Однак згодом з&#8217;ясувалося, що дані опитування були визнані «сфальсифікованими» й відкликані. Науковці та експерти застерігають: цей випадок є симптомом значно ширшої проблеми, пов&#8217;язаної зі штучним інтелектом.</p>
<h2>Як ШІ підробляє відповіді в анкетах</h2>
<p>Дослідники фіксують тривожну тенденцію: онлайн-опитування з відкритою реєстрацією (так звані opt-in surveys) дедалі більше заповнюються фіктивними відповідями. Учасники, які отримують невелику оплату за заповнення анкет, використовують інструменти штучного інтелекту для масового й автоматизованого проходження опитувань.</p>
<p>Шон Вествуд, доцент кафедри державного управління Дартмутського коледжу (штат Нью-Гемпшир, США), пояснює масштаб загрози: «Базове припущення соціологічних досліджень — що відповідає реальна людина, яка дає послідовні й логічні відповіді — тепер зруйноване».</p>
<p>За його словами, ШІ-моделі становлять екзистенційну загрозу для розуміння суспільства. «Агент може бути налаштований на маніпуляцію. Одного речення інструкції достатньо, щоб систематично викривляти відповіді в політичних або геополітичних опитуваннях — при цьому демографічний профіль залишається нетронутим, і маніпуляція є невидимою для стандартних перевірок», — зазначає Вествуд.</p>
<p>Навіть без прямої вказівки «шахраювати» ШІ здатен самостійно здогадатися, що саме перевіряє дослідник, і сформувати дані, які підтверджують гіпотезу. При цьому точний масштаб проблеми лишається невідомим — що само по собі є частиною проблеми, наголошує Вествуд.</p>
<p>Окремою складністю є швидкість розвитку технологій. «Дослідник може розробити хитру нову пастку, яка виявляє сьогоднішні моделі — але розвиток ШІ рухається так швидко, що це рішення, швидше за все, застаріє за кілька місяців», — попереджає науковець.</p>
<h2>Чому молодь — найзручніша мішень для фальсифікацій</h2>
<p>Кортні Кеннеді, віцепрезидент із методології та інновацій Pew Research Center, звертає увагу на специфічний аспект: у відкритих опитуваннях дані про людей молодше 30 років містять особливо високий рівень похибки й частіше походять із так званих «клік-ферм».</p>
<p>«Люди, що добре вміють користуватися інтернетом і приховувати свою особу, загалом молодші. Фіктивні учасники прагнуть проходити якомога більше опитувань. У галузі добре відомо, що залучити молодих дорослих до опитувань складно — тому вигідно представляти себе молодим, адже саме таких респондентів зазвичай бракує», — пояснює Кеннеді.</p>
<p>Вона також вказує на так звану «позитивну упередженість»: фіктивні респонденти схильні відповідати ствердно на будь-яке запитання, що штучно завищує показники.</p>
<h2>Проблема виходить за межі одного випадку</h2>
<p>Девід Воас, кількісний соціолог та почесний професор Університетського коледжу Лондона, наголошує, що проблема з доповіддю Bible Society полягала не лише у сфальсифікованих відповідях. Не менш важливою помилкою була відсутність критичного зіставлення даних YouGov з іншими доступними дослідженнями — зокрема з даними самих церков.</p>
<p>«Якби це було серйозне наукове дослідження, потрібно було б переглянути літературу й з&#8217;ясувати, які ще докази існують», — зазначає Воас.</p>
<p>На його думку, небезпека полягає і в тому, що хибна інформація поширюється значно легше, ніж її можна спростувати. «Зусиль для спростування потрібно на порядок більше, ніж для початкового поширення. Ми бачимо, як підривається довіра до таких опитувань — і повернути її дуже складно», — каже науковець.</p>
<p>Воас підкреслює: проблема не є специфічною для YouGov — вона притаманна всій галузі. Зростання масштабів пов&#8217;язане з економічними стимулами: учасники, що діють у великих обсягах, здатні генерувати відчутний дохід навіть за невисокими тарифами оплати.</p>
<h2>Як YouGov намагається протидіяти</h2>
<p>Представник YouGov повідомив виданню <a href="https://www.theguardian.com/technology/2026/mar/28/how-fraudulent-church-data-revealed-ais-threat-to-polling" target="_blank" rel="noopener">The Guardian</a>, що компанія використовує метод випадкової вибірки: учасники не можуть самостійно обирати, яке опитування проходити. «Ми самі вирішуємо, кому надсилати опитування, тому немає способу вступити до панелі, щоб вплинути на результат дослідження», — пояснив речник.</p>
<p>Для виявлення зловживань компанія застосовує перевірку особи, «<a href="https://cybercalm.org/shho-take-tsyfrovi-vidbytky-brauzera/">цифровий відбиток</a>» пристрою, геолокацію з кількох джерел, оцінку загроз у реальному часі та контроль виплат. «Зростання організованих ферм опитувань, ботів і тепер ШІ-відповідей робить виявлення життєво важливою, постійною й постійно еволюціонуючою дисципліною», — зазначив представник YouGov.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/shtuchnyi-intelekt-falsyfikatsiia-sotsiolohichnykh-opytuvan/">Як штучний інтелект підробляє результати соціологічних опитувань — і чому це небезпечно</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/valentyn/">Семенюк Валентин</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/03/30101406/cziao-opyt-t0-2172770141-scaled.jpg" />	</item>
		<item>
		<title>Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році</title>
		<link>https://cybercalm.org/informatsijna-zbroya-rosiyi-ta-kytayu-540-fimi-2025/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Sat, 21 Mar 2026 11:00:59 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Китай]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[російська пропаганда]]></category>
		<category><![CDATA[росія]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163816</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/21113037/manipulation.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/informatsijna-zbroya-rosiyi-ta-kytayu-540-fimi-2025/">Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році</a></p>
<p>Служба зовнішніх дій Європейського Союзу (EEAS) опублікувала четвертий щорічний звіт про загрози іноземних інформаційних маніпуляцій та втручань (FIMI). Документ охоплює весь 2025 рік і фіксує безпрецедентне зростання масштабів і складності операцій впливу — насамперед з боку росії та Китаю. Штучний інтелект, сфабриковані ЗМІ та скоординовані мережі фейкових акаунтів стали стандартним інструментарієм гібридної війни в інформаційному [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/informatsijna-zbroya-rosiyi-ta-kytayu-540-fimi-2025/">Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/21113037/manipulation.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/informatsijna-zbroya-rosiyi-ta-kytayu-540-fimi-2025/">Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році</a></p>
<p>Служба зовнішніх дій Європейського Союзу (EEAS) опублікувала <a href="https://euvsdisinfo.eu/eeas-4th-fimi-threat-report-march-2026/" target="_blank" rel="noopener">четвертий щорічний звіт</a> про загрози іноземних інформаційних маніпуляцій та втручань (FIMI). Документ охоплює весь 2025 рік і фіксує безпрецедентне зростання масштабів і складності операцій впливу — насамперед з боку росії та Китаю. Штучний інтелект, сфабриковані ЗМІ та скоординовані мережі фейкових акаунтів стали стандартним інструментарієм гібридної війни в інформаційному просторі.<span id="more-163816"></span></p>
<h2><strong><b>540 інцидентів, 10 500 каналів, 43 000 одиниць контенту</b></strong></h2>
<p>Протягом 2025 року аналітики EEAS виявили та задокументували 540 FIMI-інцидентів. У них було задіяно близько 10 500 унікальних каналів — від сфабрикованих новинних сайтів до акаунтів у соціальних мережах і блогів. Загалом зафіксовано близько 43 000 одиниць контенту (тексти, аудіо, відео) на 19 різних платформах.</p>
<p>Із задокументованих інцидентів 29% атрибутовано росії, 6% — Китаю. Однак 65% випадків залишаються неатрибутованими, хоча демонструють ознаки координації з інфраструктурами, повʼязаними з Москвою чи Пекіном. Обидві держави активно використовують приховані мережі, щоб зберегти «правдоподібне заперечення» своєї причетності і ускладнити розслідування.</p>
<p>Лідером за обсягами контенту залишається платформа X — на неї припадає 88% зафіксованих публікацій. Telegram домінує серед аудиторій Східної Європи, зокрема України, тоді як Facebook широко використовується для операцій, спрямованих на конкретні африканські країни.</p>
<h2><strong><b>ШІ перетворився на стандартний інструмент дезінформації</b></strong></h2>
<p>Одним із ключових висновків звіту стало різке зростання використання штучного інтелекту у FIMI-операціях. Якщо 2024 року ШІ застосовувався у 41 задокументованому інциденті, то 2025-го — вже у 147, тобто зростання становить близько 259%. Загалом ШІ-інструменти задіювалися у кожному четвертому виявленому інциденті.</p>
<p>Генеративні моделі використовуються для масового виробництва текстового контенту на кількох мовах одночасно із застосуванням уніфікованих шаблонів. Синтетичне аудіо перейшло від експериментального формату до стандартного прийому у виробництві відео — зокрема з <a href="https://cybercalm.org/yak-zahystytysya-vid-shahrajstva-z-klonuvannyam-golosu-shtuchnym-intelektom/">клонуванням голосів</a> реальних осіб. ШІ-відео, що видають себе за справжніх людей, стають дедалі переконливішими: їх активно використовували під час молдовських виборів.</p>
<p>Показово, що деякі поширені ШІ-інструменти самі перетворюються на обʼєкт маніпуляцій. Зокрема, підозрюється, що проросійська мережа Portal Kombat («Правда») цілеспрямовано «засмічує» простір низькоякісним багатомовним контентом, щоб вплинути на навчальні дані великих мовних моделей і впровадити фейки до їхніх баз знань. Незважаючи на масштаб, більшість ШІ-генерованого контенту 2025 року залишалася низькоякісною — зловмисники надавали перевагу кількості над якістю, через що органічне залучення аудиторії лишалося низьким.</p>
<h2><strong><b>Україна — головна мішень: три стратегічні наративи Кремля</b></strong></h2>
<p>Четвертий рік поспіль Україна залишається основною мішенню російського інформаційного впливу. Аналітики EEAS виокремили три ключові цілі Кремля:</p>
<ul>
<li><strong>зниження міжнародної підтримки України</strong>. Євросоюз та його керівництво зображуються такими, що «нагрівають руки» на війні та прагнуть її затягнути. Мережа Storm-1516 поширювала постановочні відео з відповідними наративами, тоді як Doppelgänger публікував GIF-анімації та карикатури, що зображали фінансову допомогу Україні «марнуванням коштів».</li>
<li><strong>подання України як агресора</strong>. Офіційні канали Кремля, Фонд боротьби з несправедливістю (R-FBI) та підконтрольні ЗМІ регулярно просували наратив про те, що Україна разом із західними партнерами нібито здійснює провокаційні «операції під хибним прапором» — зокрема щодо атаки дрона на захисний саркофаг Чорнобиля або залізничних диверсій у Польщі.</li>
<li><strong>звинувачення українських біженців у злочинах</strong>. Під час президентських виборів у Польщі та парламентських виборів у Німеччині мережі Operation Overload і Storm-1516 поширювали сфабриковані документи про нібито втручання українців у виборчі процеси та приписували біженцям терористичну діяльність.</li>
</ul>
<p>Українська аудиторія цілеспрямовано отримує контент, покликаний формувати «втому від війни» та підривати довіру до підтримки з боку ЄС. Паралельно африканська аудиторія — переважно франко- і англомовна — отримує матеріали, що зображають Україну співучасницею терористів у Сахелі, а росію — стабілізуючою силою.</p>
<p><a href="https://cdn.cybercalm.org/wp-content/uploads/2026/03/21113135/Znimok-ekrana-2026-03-21-o-11.15.32-e1774087377905.png"><img decoding="async" class="aligncenter wp-image-164028 size-large" src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/21113135/Znimok-ekrana-2026-03-21-o-11.15.32-e1774087377905.png" alt="Znimok ekrana 2026 03 21 o 11.15.32 e1774087377905" width="1024" height="708" title="Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році 4"></a></p>
<h2><strong><b>Вибори як мішень: триетапний сценарій Кремля</b></strong></h2>
<p>У 2025 році росія атакувала виборчі процеси у Німеччині, Польщі, Румунії, Молдові, Чехії та Кот-дʼІвуарі. Звіт фіксує повторювану триетапну схему:</p>
<ol>
<li><strong>Перший етап — за кілька місяців до виборів</strong> — полягає у дискредитації проєвропейських кандидатів через звинувачення у корупції, зловживанні владою, проблемах зі здоровʼям або «підпорядкуванні Брюсселю». Ця тактика застосовувалась щодо Майї Санду і Дорина Речана у Молдові, а також Олафа Шольца, Роберта Габека і Фрідріха Мерца у Німеччині.</li>
<li><strong>Другий етап — під час виборчої кампанії</strong> — передбачає розпалювання внутрішніх розбіжностей: у Німеччині це була тема міграції, у Польщі — антибіженські настрої, у Молдові — звинувачення у цензурі, страх перед «неминучою війною з росією» та економічні претензії до уряду.</li>
<li><strong>Третій етап — безпосередньо перед голосуванням та у день виборів</strong> — спрямований на підрив довіри до виборчого процесу й заохочення до абстенціонізму. У Німеччині та Польщі поширювався контент про нібито заплановані теракти у день виборів.</li>
</ol>
<h2><strong><b>Вірменія — наступна: «молдовський сценарій» переїжджає на Кавказ</b></strong></h2>
<p>Аналітики EEAS прогнозують, що Вірменія залишатиметься одним із головних обʼєктів атак щонайменше до парламентських виборів у червні 2026 року. Єреван ухвалив закон про початок процесу вступу до ЄС, підписав мирну угоду з Азербайджаном без участі Москви і заморозив участь у Організації договору про колективну безпеку (ОДКБ). Росія реагує розгортанням FIMI-інфраструктури, яка раніше працювала проти Молдови.</p>
<p>Зіставлення кампаній проти Санду та прем&#8217;єр-міністра Вірменії Нікола Пашиняна виявляє разючу схожість. Обох лідерів звинувачують у «моральній розпусті» (зокрема, поширювалися безпідставні звинувачення в експлуатації неповнолітніх), корупції та «служінні іноземним інтересам». Окремий наратив — ризик втрати суверенітету: для Молдови це «поглинання Румунією», для Вірменії — «турецько-азербайджанська загроза». Контент нерідко розповсюджується не вірменською чи румунською, а англійською та іншими мовами Західної Європи, що свідчить про ціль ширшу за локальний електорат.</p>
<p>Активність мережі Storm-1516 щодо Вірменії зафіксована ще з квітня 2025 року — більш ніж за рік до дати виборів. Після завершення молдовських виборів обидва основні ІМН (Storm-1516 та Operation Overload) переорієнтували зусилля на вірменський напрямок.</p>
<h2><strong><b>Основні мережі дезінформації: від Doppelgänger до Spamouflage</b></strong></h2>
<p>Звіт детально описує активність провідних інформаційно-маніпуляційних наборів (ІМН). <strong>Doppelgänger</strong> — операція під управлінням санкціонованих ЄС організацій Social Design Agency та Struktura — спеціалізується на імітації легітимних медіа (Der Spiegel, Le Point, Die Welt) і 2025 року розширила аудиторію на івритомовні спільноти. <strong>Storm-1516</strong> (також відомий як CopyCop або False Façade) є єдиним ІМН, здатним генерувати органічне залучення та проникати в справжні публічні дискусії: його контент набирає від 5 000 до 4 мільйонів переглядів.</p>
<p><strong>Portal Kombat («Правда»)</strong>, що видає себе за агрегатор новин, щодня поширює близько 10 000 статей через 101 сайт із основним доменом news.pravda.com. Мережа цілеспрямовано розробляє наративи для етнічних і регіональних меншин — зокрема для жителів Країни Басків, Республіки Сербської та Балкан. <strong>Operation Overload (Матрьошка)</strong> у 2025 році суттєво наростила обсяги, виробляючи до 20 відео на день — загалом понад 700 за рік. Половина її продукції була спрямована проти Вірменії та Молдови.</p>
<p>На китайському напрямку <strong>Spamouflage</strong> активно застосовував ШІ для вдосконалення тактики імітації: мережа маніпулювала відео за допомогою ШІ-інструментів, щоб «підкладати» висловлювання реальним дисидентам. Мережа <strong>Paperwall</strong> здійснила найбільше за всю свою історію розширення — додала 108 нових доменів, охопивши 40 нових країн контентом 15 мовами. Частина цього контенту перекладається з російськомовних державних ЗМІ.</p>
<h2><strong><b>«Плейбук стримування»: як ЄС планує підняти ціну дезінформації</b></strong></h2>
<p>Ключовою новацією четвертого звіту став «<strong>Плейбук стримування FIMI</strong>» — структурований механізм для переходу від реактивного реагування до проактивного тиску на організаторів інформаційних операцій. Концепція спирається на принцип «ланцюга знищення» (kill chain): якщо атаку розкласти на окремі фази — від фінансування і побудови інфраструктури до виробництва та поширення контенту, — на кожному етапі можна застосовувати цілеспрямовані контрзаходи.</p>
<p>Плейбук передбачає чотири групи інструментів. <strong>Санкції спрямовані проти осіб і організацій, причетних до FIMI</strong>, — заморожуючи активи і обмежуючи доступ до послуг. У межах правоохоронного напрямку <strong>кримінальне законодавство та судові рішення</strong> дозволяють вилучати сервери, закривати домени і порушувати кримінальні провадження. <strong>Цифрове регулювання</strong> — зокрема Акт про цифрові послуги (DSA) — зобовʼязує платформи видаляти акаунти та контент, що порушують правила. Нарешті, <strong>побудова стійкості суспільства</strong>: медіаграмотність, стратегічні комунікації та розвиток спроможностей громадянського суспільства поступово знижують ефективність маніпуляцій.</p>
<p>У 2025 році ЄС застосував санкції проти близько 50 фізичних та юридичних осіб у рамках режиму дестабілізуючої діяльності росії — серед них Social Design Agency, Tigerweb і Джон Марк Дуган. У ході операції SIMCARTEL правоохоронці заарештували сімох кіберзлочинців і ліквідували мережу з 49 мільйонів фейкових акаунтів у соціальних мережах та месенджерах.</p>
<h2><strong><b>Прогнози на 2026 рік: більше грошей, більше атак</b></strong></h2>
<p>Бюджет росії на державні ЗМІ у 2026 році зросте до 146,3 млрд рублів (близько 1,56 млрд євро) — на 7% більше, ніж у 2025-му. Аналітики прогнозують посилення активності в інформаційному просторі Балтійського регіону та Арктики. Третій саміт росія — Африка стане майданчиком для нарративів про «багатополярний світ» і деградацію Заходу. Вибори у країнах ЄС — Словенії, Угорщині, Болгарії, Кіпрі, Естонії, Швеції, Латвії та Данії — можуть зіткнутися з аналогічними схемами втручання.</p>
<p>Звіт також фіксує подальше закручування гайок всередині самої росії: більш ніж 1 000 осіб і організацій потрапили під дію законодавства про «іноземних агентів» та «екстремізм», а опозиція до війни дедалі частіше переслідується як «виправдання тероризму». Нещодавно введено штрафи навіть за пошук «екстремістського» контенту в інтернеті.</p>
<h2><strong><b>Замість висновку: FIMI — це проблема безпеки, а не комунікацій</b></strong></h2>
<p>Автори звіту наголошують: FIMI слід розглядати не як комунікаційну проблему, а як питання безпеки зі структурованим ланцюжком постачання. Суто реактивного підходу недостатньо. Запропонований «Плейбук стримування» спрямований на те, щоб зробити інформаційні операції фінансово невигідними, операційно складними та репутаційно ризикованими для їхніх організаторів.</p>
<p>Реалізація цієї стратегії вимагає тісної координації між державами — членами ЄС, правоохоронними органами, платформами та громадянським суспільством. Поки маніпуляції в інформаційному просторі залишаються малоризикованим і дешевим інструментом, вони будуть незмінно присутні в арсеналі гібридної війни.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/informatsijna-zbroya-rosiyi-ta-kytayu-540-fimi-2025/">Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/03/21113037/manipulation.webp" />	</item>
		<item>
		<title>«Великий відступ»: чому технологічні гіганти здають позиції у війні з дезінформацією — і що з цим робити</title>
		<link>https://cybercalm.org/velykyj-vidstup-efcsn/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Thu, 12 Mar 2026 09:00:37 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[кібербезпека]]></category>
		<category><![CDATA[медіаграмотність]]></category>
		<category><![CDATA[фактчекери]]></category>
		<category><![CDATA[Штучний Інтелект]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163661</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/12103652/factchecking.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/velykyj-vidstup-efcsn/">«Великий відступ»: чому технологічні гіганти здають позиції у війні з дезінформацією — і що з цим робити</a></p>
<p>Уявіть, що пожежна служба раптом оголошує: гасити пожежі більше не є пріоритетом. Приблизно те саме відбувається сьогодні у цифровому просторі — найвпливовіші технологічні компанії світу одна за одною відмовляються від зобов&#8217;язань боротися з дезінформацією. Про це б&#8217;є на сполох новий звіт Європейської мережі стандартів фактчекінгу (EFCSN) «Великий відступ», опублікований у березні 2026 року. Його авторами [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/velykyj-vidstup-efcsn/">«Великий відступ»: чому технологічні гіганти здають позиції у війні з дезінформацією — і що з цим робити</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/12103652/factchecking.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/velykyj-vidstup-efcsn/">«Великий відступ»: чому технологічні гіганти здають позиції у війні з дезінформацією — і що з цим робити</a></p>
<p>Уявіть, що пожежна служба раптом оголошує: гасити пожежі більше не є пріоритетом. Приблизно те саме відбувається сьогодні у цифровому просторі — найвпливовіші технологічні компанії світу одна за одною відмовляються від зобов&#8217;язань боротися з дезінформацією.<span id="more-163661"></span></p>
<p>Про це б&#8217;є на сполох <a href="https://efcsn.com/news/2026-03-03_policy-white-paper-the-great-retreat/" target="_blank" rel="noopener">новий звіт</a> Європейської мережі стандартів фактчекінгу (EFCSN) «Великий відступ», опублікований у березні 2026 року. Його авторами є фахівці з 36 країн — 62 верифіковані організації, що щодня моніторять інформаційний простір. Висновок невтішний: дезінформація не лише підриває демократичну легітимність і довіру до інституцій, але й завдає реальних економічних збитків та шкоди здоров&#8217;ю людей.</p>
<h2>Феномен «Великого відступу»</h2>
<p>Платформи — Meta, Google, YouTube, X — ще нещодавно публічно брали на себе зобов&#8217;язання боротися з фейками: підписували кодекси поведінки, фінансували фактчекінг, запроваджували маркування неправдивого контенту. Але після президентських виборів у США 2024 року пріоритети різко змінилися.</p>
<p>Ось промовистий факт: у звіті про ризики однієї з провідних платформ за 2023 рік слово «дезінформація» зустрічалося <strong>77 разів</strong>. У звіті за 2025 рік — лише <strong>один раз</strong>. І то — тільки тому, що воно було у назві заходу, який платформа більше не проводить.</p>
<p>Опитування серед європейських фактчекерів підтверджує: дезінформацію сьогодні як ніколи легко знайти на багатьох платформах, тоді як реакція самих соцмереж є відверто неадекватною.</p>
<h2>Скільки фейків у вашій стрічці?</h2>
<p>Дослідження, яке охопило шість великих платформ у чотирьох країнах ЄС, показало: значна частка публікацій на суспільно важливі теми містить дезінформацію.</p>
<ul>
<li><strong>TikTok</strong> — найгірший показник: близько <strong>20%</strong> публікацій</li>
<li><strong>Facebook</strong> — <strong>13%</strong></li>
<li><strong>X/Twitter</strong> — <strong>11%</strong></li>
<li><strong>YouTube та Instagram</strong> — близько <strong>8%</strong></li>
<li><strong>LinkedIn</strong> — найкращий результат: лише <strong>2%</strong></li>
</ul>
<p>Але найтривожніше інше: акаунти з низькою достовірністю отримують у середньому <strong>в 7–8 разів більше взаємодій</strong> на тисячу підписників, ніж надійні джерела. Дослідники назвали це явище «премією за дезінформацію» — алгоритми самих платформ фактично заохочують поширення фейків.</p>
<h2>Скільки коштує брехня?</h2>
<p>Дезінформація — це не лише загроза демократії. Це конкретні економічні та медичні збитки.</p>
<p><strong>В економіці.</strong> Світовий економічний форум оцінює щорічні глобальні втрати від дезінформації у десятки мільярдів доларів. Фейки підривають репутацію компаній, дестабілізують ринки та відлякують інвесторів. Під регулярні удар потрапляють стратегічні галузі — відновлювана енергетика, 5G, електромобілі.</p>
<p><strong>У сфері здоров&#8217;я.</strong> Фейки підживлюють недовіру до вакцин та доказової медицини. За підрахунками, лише вагання щодо вакцини від COVID-19 спричинило додаткові витрати на охорону здоров&#8217;я на <strong>2 мільярди доларів</strong>.</p>
<h2>Google і YouTube: тихий відступ</h2>
<p>Особливо показова ситуація з Alphabet — материнською компанією Google і YouTube.</p>
<p>У червні 2025 року Google непомітно оголосив (у маловідомому блозі для розробників), що більше не відображатиме у пошуку спеціальну «позначку фактчекінгу». Ця функція протягом десяти років підсвічувала матеріали фактчекерів і, за даними самого Google, використовувалась понад <strong>120 мільйонів разів</strong> лише в ЄС за перше півріччя 2024 року. Рішення прийнято без жодних консультацій зі спільнотою фактчекерів.</p>
<p>Але це лише частина картини. Google також:</p>
<ul>
<li><strong>не поновив</strong> участь у Глобальному фонді фактчекінгу, куди раніше вклав понад <strong>13 мільйонів доларів</strong></li>
<li><strong>відмовився</strong> від підтримки Європейського фонду медіа та інформації (EMIF) — <strong>25 мільйонів євро</strong></li>
<li><strong>припинив</strong> фінансування окремих організацій, зокрема британської Full Fact, якій раніше надавав понад <strong>1 мільйон фунтів стерлінгів</strong> на рік</li>
</ul>
<p>Показово, що в попередніх звітах Google сам посилався на EMIF аж <strong>29 разів</strong> як доказ власних зобов&#8217;язань. Тепер — жодного слова пояснення.</p>
<p>Паралельно YouTube тихо видалив зі свого сайту всі сторінки, пов&#8217;язані з фактчекінгом, прибрав позначки верифікованих каналів і відписався від зобов&#8217;язань у рамках Кодексу поведінки ЄС щодо дезінформації.</p>
<h2>Ілюзія безпеки: чому «Нотатки спільноти» не працюють</h2>
<p>Намагаючись зняти з себе відповідальність за модерацію, платформи дедалі частіше покладаються на краудсорсингові інструменти. Яскравий приклад — «Нотатки спільноти» (Community Notes), які X (Twitter) запровадив першим, а тепер їх копіюють <a href="https://cybercalm.org/meta-vidmovlyayetsya-vid-storonnih-faktcheker/">Meta</a> та TikTok.</p>
<p>Ідея приваблива: тисячі людей разом відловлюють фейки. Але дані розвінчують цей міф:</p>
<ul>
<li><strong>Запізнюються:</strong> спростування з&#8217;являється тоді, коли фейк уже зібрав мільйони переглядів — менш ніж 10% нотаток взагалі стають видимими</li>
<li><strong>Непомітні:</strong> алгоритм не виводить нотатки достатньо широкій аудиторії, а поляризовані теми — де вони найбільш потрібні — вони покривають найгірше</li>
<li><strong>Не вирішують корінну проблему:</strong> система не зупиняє цілеспрямовані кампанії з дезінформації, а анонімність авторів не дає читачеві зрозуміти, хто пише — лікар, журналіст чи випадкова людина</li>
</ul>
<p>Для порівняння: під час виборів до Європейського парламенту 2024 року менше <strong>15% дезінформації</strong>, виявленої фактчекерами на X, мали видиму нотатку спільноти. Натомість Meta за аналогічний період позначила близько <strong>35 мільйонів публікацій</strong> у Facebook (тільки в ЄС) через свою програму фактчекінгу.</p>
<h2>Генеративний ШІ: нова лінія фронту</h2>
<p>Штучний інтелект докорінно змінює ландшафт дезінформації. У грудні 2025 року Європейська обсерваторія цифрових медіа зафіксувала рекорд: <strong>16% всіх перевірених фактчекерами матеріалів</strong> стосувалися контенту, створеного або зміненого за допомогою ШІ.</p>
<p>Серед нових загроз:</p>
<p><strong>«ШІ-сміття» </strong>(<a href="https://cybercalm.org/shi-smittya-zapolonylo-internet/">AI Slop</a>)<strong>.</strong> Платформи заполонені дешевим масовим контентом, що маніпулює емоціями заради монетизації. Приклад — групи у Facebook, заповнені фальшивими «архівними» фотографіями, включно з підробленими зображеннями жертв Голокосту.</p>
<p><strong>Дипфейки.</strong> ШІ дозволяє створювати відео та аудіо, де реальні особи «говорять» те, чого ніколи не казали. Під удар потрапляли, зокрема, президент Франції Еммануель Макрон та інші публічні політики.</p>
<p><strong>«Дивіденд брехуна».</strong> Найнебезпечніший ефект: у світі, де повно фейкових відео, будь-яке реальне відео можна оголосити дипфейком. Правдива інформація знецінюється — і саме це є метою зловмисників.</p>
<p><strong>«Нульовий клік».</strong> ШІ-підсумки в пошуку Google <a href="https://cybercalm.org/chomu-google-znyshhuye-informatsijni-sajty/">призвели до падіння трафіку</a> на сайти незалежних медіа на <strong>15% у 2024 році</strong>. Це руйнує фінансову основу якісної журналістики та фактчекінгу.</p>
<h2>Фактчекінг — це свобода слова, а не цензура</h2>
<p>Останніми роками поширюється небезпечна риторика: фактчекери — це «цензори». Комітет Конгресу США з питань юстиції у лютому 2026 року навіть назвав фактчекінг «іноземною загрозою цензури». Це — маніпуляція, яка перевертає реальність з ніг на голову.</p>
<p>Насправді фактчекери <strong>проти</strong> видалення контенту. Їхній підхід — маркування, попередження, контекст — залишає за людиною право самій приймати рішення. Це і є справжня свобода слова.</p>
<p>Видаленням контенту займаються самі платформи, причому переважно автоматизованими системами — дешевшими, але значно менш точними і значно частіше порушують права на висловлювання.</p>
<h2>Що з цим робити?</h2>
<p>EFCSN пропонує конкретні заходи.</p>
<p><strong>На рівні ЄС:</strong></p>
<ul>
<li><strong>Жорсткіше виконання Закону про цифрові послуги (DSA).</strong> Відмова платформ від зобов&#8217;язань — можливе порушення закону. Потрібні розслідування та штрафи.</li>
<li><strong>Гібридна верифікація.</strong> Поєднати нотатки спільноти з роботою професійних фактчекерів: «швидкий коридор» для підтверджених фактів, взаємна перевірка нотаток, реальний доступ фактчекерів до бази нотаток у режимі реального часу.</li>
<li><strong>Стале фінансування.</strong> Наступний багаторічний бюджет ЄС має щонайменше вдвічі збільшити підтримку фактчекінгу та медіаграмотності.</li>
</ul>
<p><strong>Нова централізована база фактчеків.</strong> У 2026 році EFCSN планує запустити єдину базу даних верифікованого контенту. Це дозволить перейти від реактивного підходу — гасіння окремих пожеж — до проактивного аналізу трендів дезінформації. База збиратиме структуровані дані про джерела фейків, їхні зв&#8217;язки та реальний масштаб шкоди, і слугуватиме інструментом для навчання ШІ, допомоги платформам і підтримки регуляторів.</p>
<h2>Що можу зробити я?</h2>
<p>Поки платформи відступають, кожен із нас залишається на передовій. Кілька простих кроків:</p>
<ul>
<li><strong>Перевіряйте перед тим, як ділитися.</strong> Навіть якщо публікація здається очевидною — 30 секунд пошуку можуть виявити фейк.</li>
<li><strong>Стежте за надійними фактчекерами</strong> у вашому регіоні.</li>
<li><strong>Зверніть увагу на джерело.</strong> Є автор? Є посилання? Чи публікувало це медіа фейки раніше?</li>
<li><strong>Повідомляйте про підозрілий контент</strong> на платформах — це формує статистику, яка впливає на регуляторні рішення.</li>
<li><strong>Розвивайте медіаграмотність.</strong> Розуміння того, як працюють алгоритми — це вже захист.</li>
</ul>
<p>Технологічні компанії можуть відступати. Але суспільство не має права здавати інформаційний фронт. Критичне мислення, цифрова гігієна та опора на незалежні, верифіковані медіа сьогодні є головними інструментами самозахисту в мережі.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/velykyj-vidstup-efcsn/">«Великий відступ»: чому технологічні гіганти здають позиції у війні з дезінформацією — і що з цим робити</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/03/12103652/factchecking.webp" />	</item>
		<item>
		<title>Інші фронти Європи: іноземні гібридні загрози в ЄС</title>
		<link>https://cybercalm.org/inshi-fronty-yevropy-inozemni-gibrydni-zagrozy-v-yes/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Fri, 06 Mar 2026 13:00:50 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[Євросоюз]]></category>
		<category><![CDATA[інформаційна війна]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[гібридна війна]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[дослідження]]></category>
		<category><![CDATA[Кібервійна]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163557</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/06140700/znimok-ekrana-2026-03-06-o-14.06.20.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/inshi-fronty-yevropy-inozemni-gibrydni-zagrozy-v-yes/">Інші фронти Європи: іноземні гібридні загрози в ЄС</a></p>
<p>Жовтень 2025 року. Польські правоохоронці затримують особу, пов&#8217;язану з військовою розвідкою росії (ГРУ): при ній знайдено SIM-картки, деталі дронів і вибухівку, приховану в консервних банках. Того ж місяця у Франції заарештовують чотирьох осіб за замах на російського дисидента — критика путіна. А Чехія оголошує про затримання акредитованого китайського журналіста, якого підозрюють у роботі на користь [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/inshi-fronty-yevropy-inozemni-gibrydni-zagrozy-v-yes/">Інші фронти Європи: іноземні гібридні загрози в ЄС</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/06140700/znimok-ekrana-2026-03-06-o-14.06.20.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/inshi-fronty-yevropy-inozemni-gibrydni-zagrozy-v-yes/">Інші фронти Європи: іноземні гібридні загрози в ЄС</a></p>
<p>Жовтень 2025 року. Польські правоохоронці затримують особу, пов&#8217;язану з військовою розвідкою росії (ГРУ): при ній знайдено SIM-картки, деталі дронів і вибухівку, приховану в консервних банках. Того ж місяця у Франції заарештовують чотирьох осіб за замах на російського дисидента — критика путіна. А Чехія оголошує про затримання акредитованого китайського журналіста, якого підозрюють у роботі на користь китайської розвідки. Це не поодинокі випадки — це системна картина гібридної війни, яку ведуть проти Євросоюзу.<span id="more-163557"></span></p>
<p>Ці та інші інциденти є частиною стійкої закономірності гібридної активності, яка охоплює країни від Балтії до Балкан. Незважаючи на різноманітність тактик і цілей, усі ці операції переслідують спільну мету: підірвати єдність Європи, послабити довіру громадян до державних інститутів, зруйнувати суспільну згуртованість і дискредитувати ліберальну демократію як дієздатну форму управління.</p>
<p>Хоча гібридна війна стара як світ, європейські законодавці почали серйозно осмислювати цю загрозу лише після анексії Криму та вторгнення росії на схід України у 2014 році. З того часу кількість кіберопераційних і інформаційних атак неухильно зростала. Повномасштабне вторгнення росії в Україну у лютому 2022 року зробило Євросоюз мішенню цілком нового арсеналу гібридних інструментів.</p>
<p>Це <a href="https://www.isdglobal.org/publication/europes-other-battlefields-foreign-hybrid-threats-in-the-eu/" target="_blank" rel="noopener">дослідження Інституту стратегічного діалогу (ISD)</a> фіксує гібридні інциденти, що торкнулися кожної з 27 країн ЄС після 24 лютого 2022 року. Росія виступала підтвердженим, підозрюваним або передбачуваним актором у 23 випадках із 27; Китай — у чотирьох; Іран — в одному (спільно з росією). Наведені приклади не є вичерпним переліком: більшість країн зазнала десятків інцидентів за цей період.</p>
<h2><strong><b>Що таке гібридні загрози</b></strong></h2>
<p>Поняття «гібридна війна» спочатку означало форми збройного конфлікту, що не вписуються ані в суто конвенційні, ані в суто нерегулярні рамки. Сьогодні цей термін переважно застосовують для опису «дій нижче порогу офіційно оголошеної війни». Європейський центр передового досвіду з протидії гібридним загрозам визначає їх як шкідливу діяльність зі злочинним умислом, спрямовану на підрив держав або інституцій через поєднання різних засобів — маніпуляцій з інформацією, кібератак, економічного тиску, прихованих політичних маневрів, примусової дипломатії або погроз застосуванням сили.</p>
<p>Для цілей аналізу ISD виділив п&#8217;ять типів гібридних інцидентів: інформаційні операції (координоване використання медіапростору для маніпулювання суспільною думкою), кібероперації (несанкціонований доступ до комп&#8217;ютерних мереж з метою крадіжки, модифікації даних або порушення роботи систем), кінетичні операції (фізичне насильство або дії, що підривають безпеку), підрив політичного та громадянського суспільства (захоплення або кооптація суспільних рухів, партій і організацій), а також шкідливе фінансування (таємне спонсорування іноземних політиків і партій).</p>
<h2>Задокументовані випадки по країнах</h2>
<h3>Австрія: стікери та графіті проти підтримки України</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія<br />
<b></b></p>
<p><strong><b>Період: </b></strong>2022–2025<br />
<b></b></p>
<p><strong><b>Тип інциденту: </b></strong>Кінетична операція; інформаційна операція<br />
<b></b></p>
<p><strong><b>ТТП: </b></strong>Вандалізм; поширення фейків; створення неавтентичних новинних сайтів</p>
<p>Російська розвідка організувала масштабну операцію впливу в Австрії та інших німецькомовних країнах, поєднавши онлайн-дії з провокаціями на вулицях. За даними австрійських спецслужб, агенти впливу поширювали в інтернеті фейки про українську владу, а також розклеювали стікери й малювали графіті з праворадикальною символікою та националістичними гаслами — імітуючи проукраїнський активізм.</p>
<p>Операцію розкрили на початку 2025 року після аналізу пристроїв болгарського громадянина, затриманого за підозрою у шпигунстві на користь Кремля. Наступні розслідування встановили, що операцію організував колишній операційний директор компанії Wirecard Ян Марсалек — австрієць, що переховується в Москві та, за даними слідства, співпрацює з російською розвідкою з 2014 року. Серед задумів групи — створення мережі сайтів під виглядом європейських осередків українського полку «Азов» і підкидання націоналістичних стікерів у різних містах Європи.</p>
<h3>Бельгія: офіцер безпеки шпигував на Китай</h3>
<p><strong><b>Актор загрози: </b></strong>Китай</p>
<p><strong><b>Період: </b></strong>2025</p>
<p><strong><b>Тип інциденту: </b></strong>Підрив громадянського суспільства</p>
<p><strong><b>ТТП: </b></strong>Шпигунство; використання агентів; вербування політиків</p>
<p>У жовтні 2025 року бельгійська поліція заарештувала офіцера безпеки міської адміністрації Брюсселя та висунула йому звинувачення в іноземному шпигунстві. Підозрюваний передавав інформацію про опонентів Китаю та росії і мав доступ до «міжнародного дипломатичного середовища». За даними джерел видання POLITICO Europe, справа пов&#8217;язана з Китаєм, хоча слідство також перевіряло можливі контакти з росією.</p>
<p>Арешту передували резонансні справи китайського шпигунства в Бельгії. Зокрема, спільне розслідування Financial Times, Der Spiegel і Le Monde у грудні 2023 року розкрило, що з 2019 по 2022 рік агент китайської розвідки платив колишньому депутату Європарламенту від партії «Фламандський інтерес» Франку Крейлману за просування пекінських позицій із широкого кола питань — від придушення демократії в Гонконзі до переслідування уйгурів у Сіньцзяні.</p>
<h3>Болгарія: шпигунська мережа полювала на журналіста Bellingcat</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>2020–2025</p>
<p><strong><b>Тип інциденту: </b></strong>Кінетична операція; підрив громадянського суспільства</p>
<p><strong><b>ТТП: </b></strong>Шпигунство; фізичні погрози; використання агентів</p>
<p>У 2025 році британський суд засудив шістьох болгарських громадян за шпигунські злочини, скоєні в різних країнах Європи за дорученням посередників, пов&#8217;язаних з російськими спецслужбами. Мережею керував той самий Ян Марсалек, причетний до австрійської операції. Серед цілей — болгарський журналіст-розслідувач Крісто Ґрозєв, що працював у виданні Bellingcat і викривав агентів ГРУ. За даними судових свідчень, члени угруповання стежили за Ґрозєвим по всій Європі, пошкодили будинок його родини, вкрали електронне обладнання і обговорювали плани викрадення журналіста. Ґрозєву довелося продовжувати роботу з таємних місць через постійну загрозу з боку російських спецслужб.</p>
<h3>Хорватія: DDoS-атаки та програма-вимагач проти лікарні</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія (підозрюється)</p>
<p><strong><b>Період: </b></strong>Червень 2024</p>
<p><strong><b>Тип інциденту: </b></strong>Кібероперація</p>
<p><strong><b>ТТП: </b></strong>DDoS; програми-вимагачі; атаки на критичну інфраструктуру</p>
<p>У 2024 році кілька проросійських кіберугруповань здійснили серію атак на хорватські державні установи та об&#8217;єкти критичної інфраструктури. Наприкінці червня угруповання NoName057(16), яке систематично атакує країни, що підтримують Україну, взяло на себе відповідальність за DDoS-атаки на сайти Міністерства фінансів, центрального банку та Загребської фондової біржі. Невдовзі проросійське угруповання <a href="https://cybercalm.org/lider-lockbit-u-rozshuku/">LockBit</a> оголосило про атаку на найбільшу лікарню Хорватії — KBC Zagreb, яка була змушена на добу відключити IT-системи. Зловмисники отримали доступ до конфіденційних даних пацієнтів і персоналу та вимагали викуп. Близькість у часі обох атак свідчить про можливу координацію.</p>
<h3>Кіпр: фейк про «готель Зеленського за £150 млн»</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>Червень 2024</p>
<p><strong><b>Тип інциденту: </b></strong>Інформаційна операція</p>
<p><strong><b>ТТП: </b></strong>Поширення фейків через традиційні медіа та інфлюенсерів</p>
<p>У червні 2024 року проросійські агенти впливу розтиражували фейк про нібито купівлю президентом Зеленським готелю та казино на Кіпрі за кошти західної допомоги. Турецьке видання OdaTV опублікувало матеріал, що посилався на підроблений сайт — клон готелю, створений невідомими особами за кілька днів до виходу статті. Хоча публікацію згодом видалили, фейк підхопили проросійські канали впливу, зокрема Сімеон Бойков — австралієць під санкціями ЄС, що мешкає в генеральному консульстві росії в Сіднеї. Один лише його пост в X зібрав 2,9 мільйона переглядів. Кремлівські медіа Lenta.ru та Gazeta.ru поширили твердження, що Зеленський готується «втекти» на Кіпр.</p>
<h3>Чехія: «Голос Європи» підкуповував депутатів Євросоюзу</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>2023–2024</p>
<p><strong><b>Тип інциденту: </b></strong>Підрив громадянського суспільства; інформаційна операція; шкідливе фінансування</p>
<p><strong><b>ТТП: </b></strong>Хабарництво; створення неавтентичних новинних сайтів</p>
<p>Пропутінський новинний сайт Voice of Europe, зареєстрований у Празі, став інструментом виплати грошей праворадикальним політикам ЄС і поширення кремлівської пропаганди напередодні виборів до Європарламенту 2024 року. У березні 2024 року чеська влада запровадила санкції проти сайту та двох бізнесменів — Віктора Медведчука та Артема Марченко — за нібито переведення сотень тисяч євро десяткам правих політиків у щонайменше шести країнах ЄС: Німеччині, Франції, Польщі, Бельгії, Нідерландах і Угорщині. Мета — поширення антиукраїнських наративів і вплив на громадську думку.</p>
<p>Оператори сайту підходили до євроскептичних політиків під виглядом журналістів, щоби взяти інтерв&#8217;ю з проросійських тем, після чого поширювали ці розмови через власні канали в соціальних мережах із понад 180 000 підписниками. У травні 2024 року Рада ЄС зупинила мовлення Voice of Europe та ще трьох пов&#8217;язаних з росією медіа — RIA Novosti, «Известия» і «Российская газета».</p>
<h3>Данія: атаки на водопровід і передвиборчі сайти</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>2024–2025</p>
<p><strong><b>Тип інциденту: </b></strong>Кібероперація</p>
<p><strong><b>ТТП: </b></strong>DDoS; атаки на критичну інфраструктуру</p>
<p>У грудні 2025 року Служба воєнної розвідки Данії офіційно звинуватила росію в «деструктивних і дезорганізаційних» кібератаках у 2024–2025 роках. Зокрема, хакерське угруповання Z-Pentest (відоме також як Cyber Army of Russia Reborn), що фінансується та керується ГРУ, у 2024 році атакувало водопровідну станцію Tureby Alkestrup. Внаслідок маніпуляцій з тиском у трубах поблизу Копенгагена розірвалося щонайменше три водопровідні труби; близько 500 домогосподарств зазнали перебоїв у водопостачанні, 50 з яких залишались без води сім годин. Угруповання NoName057(16) паралельно влаштувало DDoS-атаки на сайти данських партій, муніципалітетів і оборонної компанії напередодні місцевих виборів у листопаді 2025 року.</p>
<h3>Естонія: ГРУ організувало кампанію вандалізму проти держчиновників</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>Жовтень–грудень 2023</p>
<p><strong><b>Тип інциденту: </b></strong>Кінетична операція</p>
<p><strong><b>ТТП: </b></strong>Вандалізм; фізичні погрози; використання злочинної мережі</p>
<p>У лютому 2024 року Служба внутрішньої безпеки Естонії оголосила про затримання десяти осіб за підозрою в причетності до диверсійної операції, організованої ГРУ. Метою було сіяти страх і напругу в балтійській країні. За даними естонських властей, оперативники ГРУ вербували підозрюваних — громадян Естонії та росії — через соціальні мережі, пропонуючи невелику грошову винагороду за пошкодження майна держслужбовців. Серед жертв — міністр внутрішніх справ Лаурі Ланемент і місцевий журналіст, чиїм автомобілям розбили вікна. Затримані мали список з близько десяти наступних цілей — переважно естонські політики й журналісти, відомі своїм спростуванням кремлівської брехні про Україну.</p>
<h3>Фінляндія: Росія «зброїзувала» мігрантів після вступу до НАТО</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>Серпень–грудень 2023</p>
<p><strong><b>Тип інциденту: </b></strong>Кінетична операція; інформаційна операція</p>
<p><strong><b>ТТП: </b></strong>«Зброїзація» міграції; поширення фейків через медіа та дипломатичні канали</p>
<p>Невдовзі після вступу Фінляндії до НАТО у 2023 році росія скерувала тисячі мігрантів на фінський кордон і розгорнула інформаційну кампанію проти Гельсінкі. За даними фінських властей, російська сторона сприяла нелегальному перетину кордону більш ніж 1 300 шукачів притулку — переважно з Близького Сходу та Африки — між серпнем і груднем 2023 року: людей скеровували до контрольно-пропускних пунктів без належних документів, деяким надавали велосипеди та самокати. Коли Фінляндія оголосила про закриття всіх прикордонних переходів, офіційні представники росії та державні медіа розцінили цей крок як «порушення прав людини» і «русофобію». Деякі кремлівські видання безпідставно стверджували, що рішення було продиктоване вимогами США або прагненням отримати фінансування ЄС.</p>
<h3>Франція: розпалювання ненависті між єврейськими та мусульманськими громадами</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>2023 — по теперішній час</p>
<p><strong><b>Тип інциденту: </b></strong>Кінетична операція; інформаційна операція</p>
<p><strong><b>ТТП: </b></strong>Вандалізм; боти; використання злочинних агентів</p>
<p>Від початку війни Ізраїлю з ХАМАС російська розвідка організовує акти вандалізму у Франції, щоб розпалювати напругу між єврейською та мусульманською громадами. За місяць після нападу ХАМАС 7 жовтня 2023 року французька поліція затримала чотирьох іноземців, підозрюваних у малюванні майже 250 зірок Давида в Парижі та приміських районах. Французька служба Viginum встановила, що інцидент розтиражувала мережа з понад 1 000 ботів, пов&#8217;язаних із російською операцією «Двійник» (Doppelganger). Внутрішня розвідка Франції встановила причетність ФСБ до цієї дестабілізаційної спроби.</p>
<p>У травні 2024 року четверо болгарських громадян, найнятих російською розвідкою, осквернили Меморіал Голокосту Шоа в Парижі червоними відбитками долонь. У вересні 2025 року французька прокуратура видала ордер на арешт особи, що перебуває в Сербії і діє від імені ГРУ: їй інкримінують вандалізм біля трьох синагог, ресторану і — обливання свинячими головами — біля дев&#8217;яти мечетей у Паризькому регіоні.</p>
<h3>Німеччина: підроблені відео фальшивих «фальсифікацій» на виборах</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>Лютий 2025</p>
<p><strong><b>Тип інциденту: </b></strong>Інформаційна операція</p>
<p><strong><b>ТТП: </b></strong>Маніпульоване відео; тролінг; неавтентичні новинні сайти</p>
<p>Напередодні федеральних виборів у Німеччині 2025 року проросійська мережа Storm-1516 виготовила й розтиражувала кілька відео, що нібито фіксують виборчі махінації. Щонайменше два ролики поширювалися в соціальних мережах із твердженнями, що у виборчих бюлетенях з Лейпцига відсутня назва крайньоправої партії «Альтернатива для Німеччини» (AfD). Ще одне відео нібито зображало знищення поштових бюлетенів, поданих за AfD, у Гамбурзі. Публікація в X, що містила такі фейки, набрала понад 500 000 переглядів і понад 12 000 репостів. Мерії Лейпцига та Гамбурга оперативно спростували відео. Того ж виборчого циклу Storm-1516 створила мережу понад 100 сайтів-імітацій місцевих новинних видань, де публікувала матеріали з кремлівськими наративами й сфабриковані звинувачення в сексуальних домаганнях на адресу кандидатів від «Зелених» Роберта Габека та Анналени Бербок.</p>
<h3>Греція: Китай завербував офіцера ВПС для шпигунства проти НАТО</h3>
<p><strong><b>Ініціатор загрози: </b></strong>Китай</p>
<p><strong><b>Період: </b></strong>2024–2026</p>
<p><strong><b>Тип інциденту: </b></strong>Кінетична операція</p>
<p><strong><b>ТТП: </b></strong>Шпигунство; використання агентів</p>
<p>У лютому 2026 року грецька поліція заарештувала полковника Повітряних сил Греції за підозрою в передачі Китаю секретних військових даних, зокрема матеріалів, що стосуються НАТО. Підозрюваний — один із провідних грецьких фахівців із кібербезпеки та електронних систем — мав доступ до інформації кількох родів військ і союзних держав, використовував спеціальне програмне забезпечення від китайських агентів для фотографування таємних документів. За даними слідства, у 2024 році з ним зав&#8217;язали контакт представники китайської компанії, а згодом він зустрівся з агентами розвідки на конференції НАТО в Європі. Пізніше полковник відвідав Китай під приводом вивчення мови, де проходив вишкіл з техніки шпигунства. Після арешту він зізнався у передачі інформації за винагороду.</p>
<h3>Угорщина: росія розпалює етнічну ворожнечу навколо Закарпаття</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>2022 — по теперішній час</p>
<p><strong><b>Тип інциденту: </b></strong>Інформаційна операція; кінетична операція</p>
<p><strong><b>ТТП: </b></strong>Поширення фейків; підпал; вандалізм</p>
<p>Від початку повномасштабного вторгнення росії в Україну кремлівські агенти впливу намагаються загострити етнічну напругу між українцями та угорцями. Проросійські ЗМІ систематично поширюють наративи про «утиски угорців» в Україні, звинувачуючи «українських нацистів» в етноциді та зображуючи Україну загрозою суверенітету Угорщини. У травні 2025 року мережа Pravda, що об&#8217;єднує понад 200 пропутінських сайтів і поширює кремлівську пропаганду в понад 80 країнах, поширила фото нібито угорської бронетехніки, що рухається до кордону для вторгнення у Закарпаття. Мережа російських Telegram-каналів розповсюдила скриншоти підробленого опитування в Instagram — нібито від Коледжу Бетлена Ґабора в Румунії, — де жителів Закарпаття запитували про бажання «возз&#8217;єднатися» з Угорщиною. Окрема група підозрюваних підпалила угорську церкву на Закарпатті та написала антиугорський напис на будівлі.</p>
<h3>Ірландія: підозрілі дрони супроводжували літак Зеленського</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія (підозрюється)</p>
<p><strong><b>Період: </b></strong>Грудень 2025</p>
<p><strong><b>Тип інциденту: </b></strong>Кінетична операція</p>
<p><strong><b>ТТП: </b></strong>Несанкціоновані польоти дронів</p>
<p>У грудні 2025 року чотири неідентифіковані військові дрони порушили повітряний простір Ірландії, слідуючи по маршруту літака, що перевозив президента Зеленського до Дубліна з офіційним візитом. Дрони пізніше помітив екіпаж корвета ВМС Ірландії. Попри те, що ірландська влада офіційно не визначила державного актора, міністр юстиції Джим О&#8217;Каллаган заявив, що за цим явно стоять не аматори з домашніми іграшками. Прем&#8217;єр-міністр Мікеал Мартін назвав обставини інциденту характерними для «тривалої гібридної кампанії, натхненної росією». Президент Євради Антоніу Кошта кваліфікував подію як «ще один приклад гібридних атак росії».</p>
<h3>Італія: документальні фільми RT в обхід санкцій ЄС</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>2022 — по теперішній час</p>
<p><strong><b>Тип інциденту: </b></strong>Інформаційна операція</p>
<p><strong><b>ТТП: </b></strong>Ухилення від санкцій; імперсонація міжнародних організацій</p>
<p>Попри санкції ЄС, що забороняють будь-яке поширення контенту RT, проросійські оператори організовують у містах Італії підпільні покази документальних фільмів телеканалу про війну в Україні. Стрічки — зокрема «Діти Донбасу» та «Майдан — шлях до війни» — зображують Україну агресором, виправдовуючи тим самим вторгнення росії. Покази відбуваються в громадських залах, бібліотеках і університетах; їх нерідко організовують таємно, залучаючи учасників через WhatsApp і збираючи їх у публічних місцях перед оголошенням адреси. Скандальна деталь: афіша квітневого 2025 року сеансу в Таранто містила офіційний логотип ЮНІСЕФ без жодного зв&#8217;язку з організацією. У червні 2025 року не менш ніж 22 рекламні щити з анонсом фільмів з&#8217;явилися у великих містах країни з гаслом: «Вони забороняють правду — ми її показуємо».</p>
<h3>Латвія: підпали та шпигунство проти оборонних підприємств</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>2023–2025</p>
<p><strong><b>Тип інциденту: </b></strong>Кінетична операція</p>
<p><strong><b>ТТП: </b></strong>Підпал; диверсія; шпигунство; атаки на критичну інфраструктуру</p>
<p>У жовтні 2025 року Латвійська служба державної безпеки порушила кримінальне переслідування чотирьох осіб, пов&#8217;язаних із російськими спецслужбами, за диверсії проти оборонних і критично важливих об&#8217;єктів. Угруповання підпалило підприємство приватної компанії, що виконує оборонні контракти, а восени 2024 року спробувало підпалити вантажний автомобіль з українськими номерами на латвійській критичній інфраструктурі — невдало. Учасники ретельно вивчали об&#8217;єкти, фіксували входи, виходи та протоколи безпеки, після чого передавали ці відомості російській розвідці. Троє підозрюваних заарештовано навесні 2025 року; четвертий перебував під вартою за іншою справою.</p>
<h3>Литва: Вільнюс як хаб для надсилання вибухівки поштою по Європі</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>2024</p>
<p><strong><b>Тип інциденту: </b></strong>Кінетична операція</p>
<p><strong><b>ТТП: </b></strong>Диверсія; підпал; використання злочинної мережі</p>
<p>У вересні 2025 року литовська прокуратура оголосила про розкриття та ліквідацію мережі, пов&#8217;язаної з ГРУ, яка планувала надсилати вибухові пристрої з Вільнюса до різних країн Європи. 15 підозрюваних — громадяни росії, Литви, Латвії, Естонії та України — відправили 4 посилки з вибухівкою, прихованою в косметичних флаконах і масажних подушках, через служби DHL та DPD. Один пакет вибухнув в аеропорту Лейпцига до завантаження на рейс до Великої Британії, другий — на вантажівці в дорозі до Польщі, третій — на складі в Бірмінгемі. Поліцейські обшуки в Литві, Польщі, Латвії та Естонії виявили шість кілограмів тротилу в консервних банках і детонатори. Підозрювані вербувалися через Telegram і отримували плату в криптовалюті. Спецслужби Заходу вважають цю операцію «пробним запуском» перед масштабнішою атакою на вантажні та пасажирські рейси до США і Канади.</p>
<h3>Люксембург: китайська мережа фейкових місцевих ЗМІ</h3>
<p><strong><b>Ініціатор загрози: </b></strong>Китай (підозрюється)</p>
<p><strong><b>Період: </b></strong>2023 — по теперішній час</p>
<p><strong><b>Тип інциденту: </b></strong>Інформаційна операція</p>
<p><strong><b>ТТП: </b></strong>Створення неавтентичних новинних сайтів</p>
<p>Пекінська компанія Shenzhen Haimaiyunxiang Media створила мережу з 123 сайтів-імітацій місцевих новинних видань у 30 країнах Азії, Латинської Америки та Європи — зокрема фейковий люксембурзький портал Gaul Journal — для поширення проксіньської пропаганди. За даними CitizenLab, сайти поєднували запозичений місцевий контент з матеріалами китайських державних медіа та рекламою китайських товарів. Серед головних тем — дискредитація критиків Пекіна та конспірологічні теорії проти США і союзників. Операція ймовірно була спрямована на штучне підвищення видачі цих матеріалів у пошукових системах, а не на охоплення широкої аудиторії.</p>
<h3>Мальта: прокремлівські хакери «поклали» сайт Times of Malta</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія (підозрюється)</p>
<p><strong><b>Період: </b></strong>Лютий 2024</p>
<p><strong><b>Тип інциденту: </b></strong>Кібероперація</p>
<p><strong><b>ТТП: </b></strong>DDoS</p>
<p>6 лютого 2024 року прокремлівське хакерське угруповання People&#8217;s Cyber Army of Russia (CARR) здійснило DDoS-атаку на сайт Times of Malta, що тривала кілька годин. Ще під час атаки CARR оголосило в Telegram — каналі з 31 600 підписниками — відповідальність за злом і заклало підписників долучитися. Сайт не відкривався близько 45 хвилин. Хакери мотивували атаку підтримкою виданням санкцій проти росії та погрожували атаками на Університет Мальти і Митну службу, проте ці загрози не були реалізовані.</p>
<h3>Нідерланди: Китай таємно утримував закордонні «поліцейські дільниці»</h3>
<p><strong><b>Ініціатор загрози: </b></strong>Китай</p>
<p><strong><b>Період: </b></strong>2018–2022</p>
<p><strong><b>Тип інциденту: </b></strong>Підрив громадянського суспільства</p>
<p><strong><b>ТТП: </b></strong>Стеження за діаспорою; шпигунство; тиск і залякування</p>
<p>У листопаді 2022 року нідерландська влада зобов&#8217;язала Китай закрити дві незаконні «поліцейські дільниці» в Амстердамі та Роттердамі, що діяли з 2018 року під виглядом пунктів консульської служби. За даними розслідувань, їх справжньою функцією було стеження за китайськими дисидентами та тиск на них. Обидві дільниці очолювали колишні китайські військові та офіцери розвідки. Дисидент Ван Цзіньюй, що емігрував до Нідерландів і відкрито критикував Пекін, розповів: офіцер роттердамської дільниці телефонував йому з вимогою повернутися до Китаю, нагадуючи про батьків. Крім того, китайське посольство в Гаазі хибно поінформувало нідерландську поліцію про нібито бомбові погрози від його імені. Мережа подібних дільниць налічує понад 100 точок у всьому світі — в Іспанії, Італії, США та Канаді.</p>
<h3>Польща: підрив залізничного маршруту допомоги Україні</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>Листопад 2025</p>
<p><strong><b>Тип інциденту: </b></strong>Кінетична операція</p>
<p><strong><b>ТТП: </b></strong>Диверсія; використання злочинної мережі</p>
<p>У листопаді 2025 року польська прокуратура висунула обвинувачення трьом особам у співпраці з російською розвідкою задля підриву залізничної колії між Польщею та Україною — критичного коридору для постачання допомоги. Підозрювані встановили два пристрої на коліях; один вибухнув поблизу варшавського передмістя, пошкодивши рейки. Жертв не було. Поблизу Любліна також пошкоджено лінії електропередач — ймовірно, з метою пустити поїзд під укіс. Двоє виконавців утекли до Білорусі, один з них раніше засуджений у Львові за «акти диверсії». Прем&#8217;єр-міністр Польщі Дональд Туск назвав атаку «найсерйознішою ситуацією в сфері національної безпеки Польщі з початку повномасштабної війни» і підвищив рівень загрози для критичних залізничних маршрутів до другого за найвищим.</p>
<h3>Португалія: росія поширювала фейки під час масштабного відключення електроенергії</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>2025</p>
<p><strong><b>Тип інциденту: </b></strong>Інформаційна операція</p>
<p><strong><b>ТТП: </b></strong>Поширення фейків; імперсонація ЗМІ; боти</p>
<p>Наприкінці квітня 2025 року, коли масштабне відключення електроенергії паралізувало Португалію та Іспанію, кремлівські мережі впливу скористалися ситуацією для поширення дезінформації. За даними іспанського видання Maldita.es, мережа Storm-1679 менш ніж через добу після відключення почала поширювати сфабрикований контент, що приписував катастрофу санкціям Заходу проти росії. Підроблений контент включав відео у стилістиці France 24 і «статтю» з імітацією британської газети The Independent. Мережа Telegram-каналів розтиражувала ці матеріали; згодом їх передрукувала пропутінська Pravda — зокрема фейкові супутникові знімки, де Піренейський півострів показаний у цілковітій темряві на тлі освітленої решти Європи.</p>
<h3>Румунія: змова з метою державного перевороту за підтримки росії</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>2023–2025</p>
<p><strong><b>Тип інциденту: </b></strong>Підрив громадянського суспільства; кінетична операція</p>
<p><strong><b>ТТП: </b></strong>Використання злочинних мереж; шпигунство; підбурювання до заколоту</p>
<p>У березні 2025 року румунська поліція заарештувала шістьох осіб за підозрою в змові з росією з метою повалення уряду. Підозрювані нібито планували створити парамілітарне угруповання «Командування Влада Цепеша» — за іменем Влада Пронизувача — для захоплення влади в Бухаресті, скасування конституції, розпуску партій і виходу Румунії з ЄС і НАТО. Румунська розвідка встановила, що підозрювані безпосередньо запитували підтримки у співробітників російського посольства; двоє їздили до Москви в січні 2025 року на зустрічі з фінансистами. Румунія видворила двох дипломатів РФ за підтримку змовників і розвідувальну діяльність.</p>
<h3>Словаччина: росія «повісила» замах на Фіцо на Україну</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>Травень 2024</p>
<p><strong><b>Тип інциденту: </b></strong>Інформаційна операція</p>
<p><strong><b>ТТП: </b></strong>Поширення фейків через бот-мережі та традиційні медіа</p>
<p>У травні 2024 року кремлівські оперативники запустили скоординовану інформаційну кампанію, прагнучи пов&#8217;язати Україну із замахом на прем&#8217;єр-міністра Словаччини Роберта Фіцо. Акаунти ботів, деякі з яких пов&#8217;язані з мережею «Двійник», наповнили обговорення в X та Reddit спекуляціями про зв&#8217;язки стрільця з проукраїнськими силами. Аналіз понад 100 прокремлівських Telegram-каналів, здійснений дослідницькою групою Antibot4Navalny, показав: вони «одностайно» стверджували, що замах мотивований «проросійською позицією» Фіцо, і звинувачували Захід у потуранні насильству. Це вписується в стійку закономірність кремлівських операцій, що приписують Україні різні замахи — зокрема на Дональда Трампа і американського коментатора Чарлі Кьорка.</p>
<h3>Словенія: DDoS-атака через підтримку закупівлі боєприпасів для України</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія</p>
<p><strong><b>Період: </b></strong>Березень 2024</p>
<p><strong><b>Тип інциденту: </b></strong>Кібероперація; інформаційна операція</p>
<p><strong><b>ТТП: </b></strong>DDoS; відеопропаганда</p>
<p>У березні 2024 року пов&#8217;язане з Кремлем угруповання Cyber Army Russia Reborn (CARR) розпочало масштабну DDoS-кампанію проти словенських державних сайтів — у відповідь на рішення Любляни виділити €1 млн на чеську ініціативу із закупівлі боєприпасів для України. Кампанія тривала кілька днів і на кілька годин паралізувала сайт президента Словенії, а також ресурси Національної асамблеї, державного телемовника RTV Slovenija та інших урядових установ. Паралельно CARR оприлюднило відеозвернення словенською мовою — зі спробами переконати, що росія і Словенія не повинні ворогувати через спільне слов&#8217;янське коріння.</p>
<h3>Іспанія: вбивство перебіжчика з ГРУ в курортному містечку</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія (підозрюється)</p>
<p><strong><b>Період: </b></strong>Листопад 2024</p>
<p><strong><b>Тип інциденту: </b></strong>Кінетична операція</p>
<p><strong><b>ТТП: </b></strong>Цілеспрямоване вбивство</p>
<p>У листопаді 2024 року у іспанському курортному місті Вільяхойоса було вбито Максима Кузьмінова — російського льотчика, що перейшов на бік України, перегнавши туди гелікоптер Мі-8 разом з екіпажем у 2023 році. Ця акція стала серйозним розвідувальним і пропагандистським успіхом Києва. В інтерв&#8217;ю після переходу Кузьмінов стверджував, що керувався моральними міркуваннями, а не лише обіцяною винагородою у 500 000 доларів. Кремлівські ЗМІ відразу назвали його зрадником і натякнули, що кара неминуча. За даними українських офіційних осіб, після від&#8217;їзду з України Кузьмінов жив в Іспанії під фальшивою особою, поки не був застрелений. Директор Служби зовнішньої розвідки росії Сергій Наришкін коментував загибель для ТАСС. Іспанські слідчі арештів не здійснили й росію офіційно не звинуватили, проте, за даними El País, іспанська розвідка «не сумнівається» в причетності Кремля.</p>
<h3>Швеція: росія та Іран розпалювали ненависть через спалення Корану</h3>
<p><strong><b>Ініціатор загрози: </b></strong>росія; Іран</p>
<p><strong><b>Період: </b></strong>2023</p>
<p><strong><b>Тип інциденту: </b></strong>Інформаційна операція; підрив громадянського суспільства; кібероперація</p>
<p><strong><b>ТТП: </b></strong>Поширення фейків; організація протестів; SMS-злам</p>
<p>У 2023 році російські та іранські мережі впливу розтиражували й поглибили фейки про хвилю протестів у Швеції, в ході яких відбувалися спалення Корану. За даними Агентства психологічного захисту Швеції, RT та Sputnik публікували арабомовні матеріали з хибним твердженням, що шведський уряд підтримує спалення Корану. Пізніше з&#8217;ясувалося, що один зі скандальних інцидентів біля турецького посольства в Стокгольмі організував і профінансував праворадикальний журналіст і колишній співробітник RT Чанг Фрік — він оплатив дозвіл на акцію і залучив до неї ультраправого політика Расмуса Палудана. Ціллю операції було зірвати вступ Швеції до НАТО, поки ратифікація залежала від голосів Туреччини та Угорщини.</p>
<p>Іранські медіа та акаунти, пов&#8217;язані з державою, підхопили кремлівські наративи і зображували шведський уряд причетним до провокацій. КВІР (Корпус вартових ісламської революції) зламав SMS-оператора в Швеції і розіслав близько 15 000 повідомлень із закликами до помсти за спалення Корану.</p>
<h2>Висновки</h2>
<p>Задокументовані інциденти свідчать: тактика держав-агресорів суттєво еволюціонувала відтоді, як ЄС та його члени вперше визнали небезпеку гібридних загроз. Інформаційні операції та кібератаки тепер доповнюються кінетичними діями — від диверсій до вторгнень дронів. Кінетичні операції відігравали роль у більш ніж половині розглянутих випадків — у 14 з 27. До повномасштабного вторгнення в Україну стільки таких прикладів знайти б не вдалося.</p>
<p>Гібридна активність дедалі частіше координується з-за кордону, але реалізується зсередини. Це відображає як ускладнення оперативного середовища для кадрових офіцерів ГРУ та ФСБ у Європі, так і легкість, з якою іноземні спецслужби вербують місцевих виконавців через анонімні зашифровані месенджери. Перед законодавцями постає принципове питання: де проходить межа між зовнішніми та внутрішніми загрозами, коли держави-агресори навмисно стирають цю межу.</p>
<p>Різні типи гібридних загроз не можна розглядати ізольовано. Більшість задокументованих інцидентів поєднує кілька видів атак: акти вандалізму майже завжди супроводжувалися інформаційними операціями; диверсії — розвідувальними операціями. Усі ці тактики — від фейкових місцевих ЗМІ до атак на критичну інфраструктуру та політичних вбивств — є частинами єдиної стратегії дестабілізації Європи.</p>
<p>Жодна країна ЄС не перебуває поза зоною досяжності авторитарних держав — навіть ті, що намагалися підтримувати з росією прагматичніші відносини. Попри те що росія залишатиметься головним ініціатором загрози в осяжній перспективі, інші держави — зокрема Китай та Іран — вочевидь беруть з неї приклад. Тому атаки можуть очікувати на всі країни Євросоюзу, а не лише ті, що є традиційними цілями Кремля. Відповідь на ці загрози вимагає комплексного підходу — скоординованого, загальноєвропейського.</p>
<hr />
<p><em><i><a href="https://www.isdglobal.org/publication/europes-other-battlefields-foreign-hybrid-threats-in-the-eu/" target="_blank" rel="noopener">Джерело</a>: Institute for Strategic Dialogue (ISD), 2026</i></em></p>
<p><em><i>Автори оригіналу: Krysia Sikora, Louis Savoia, Bret Schafer</i></em></p>
<p><em><i>Переклад і редакція: cybercalm.org</i></em></p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/inshi-fronty-yevropy-inozemni-gibrydni-zagrozy-v-yes/">Інші фронти Європи: іноземні гібридні загрози в ЄС</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/03/06140700/znimok-ekrana-2026-03-06-o-14.06.20.webp" />	</item>
		<item>
		<title>Індустрія фейків за копійки: звіт НАТО розкриває, як ШІ та крипта допомагають ботофермам</title>
		<link>https://cybercalm.org/industriya-fejkiv-za-kopijky-zvit-nato/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Thu, 05 Mar 2026 13:00:11 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[боротьба з фейками]]></category>
		<category><![CDATA[боти]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[Соцмережі]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163504</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/05120014/research-report-cover1020-636-px-9-0f6e3.png" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/industriya-fejkiv-za-kopijky-zvit-nato/">Індустрія фейків за копійки: звіт НАТО розкриває, як ШІ та крипта допомагають ботофермам</a></p>
<p>Попри запровадження жорстких європейських законів (DSA) та постійні заяви технологічних гігантів про посилення безпеки, ринок маніпуляцій у соціальних мережах не просто живий — він еволюціонує. Центр передового досвіду зі стратегічних комунікацій НАТО (NATO StratCom COE) щороку проводить масштабний експеримент: дослідники самі купують фейкові підписники, лайки, коментарі та перегляди на основних соціальних платформах — щоб перевірити, [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/industriya-fejkiv-za-kopijky-zvit-nato/">Індустрія фейків за копійки: звіт НАТО розкриває, як ШІ та крипта допомагають ботофермам</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/05120014/research-report-cover1020-636-px-9-0f6e3.png" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/industriya-fejkiv-za-kopijky-zvit-nato/">Індустрія фейків за копійки: звіт НАТО розкриває, як ШІ та крипта допомагають ботофермам</a></p>
<p>Попри запровадження жорстких європейських законів (DSA) та постійні заяви технологічних гігантів про посилення безпеки, ринок маніпуляцій у соціальних мережах не просто живий — він еволюціонує.<span id="more-163504"></span></p>
<p>Центр передового досвіду зі стратегічних комунікацій НАТО (NATO StratCom COE) щороку проводить масштабний експеримент: дослідники самі купують фейкові підписники, лайки, коментарі та перегляди на основних соціальних платформах — щоб перевірити, наскільки добре ці платформи здатні виявляти та видаляти неавтентичну активність.</p>
<p>У 2026 році вийшов уже <a href="https://stratcomcoe.org/publications/social-media-manipulation-for-sale-2025-experiment-on-platform-capabilities-to-detect-and-counter-inauthentic-social-media-engagement/338" target="_blank" rel="noopener">шостий звіт</a> цієї серії. Результати тривожні: <a href="https://cybercalm.org/topic/manipulations/">маніпуляції</a> лишаються дешевими та доступними, боти стають розумнішими, а платформи — попри певний прогрес — досі не справляються із проблемою системно.</p>
<h2>Що і як досліджували</h2>
<p>Між вереснем і листопадом 2025 року дослідники зареєстрували <strong>28 підроблених акаунтів</strong> на семи платформах: Facebook, Instagram, X (колишній Twitter), TikTok, YouTube, VKontakte та Bluesky. На цих акаунтах вони публікували 126 постів і купували для них «накрутку» у десяти комерційних провайдерів маніпуляцій з різних куточків світу.</p>
<p>Загальна сума витрат — <strong>€252</strong>. За ці гроші дослідникам доставили:</p>
<ul>
<li>17 553 фейкові коментарі</li>
<li>37 814 лайків</li>
<li>16 025 репостів</li>
<li>27 653 перегляди</li>
</ul>
<p>Сукупно в цих взаємодіях взяли участь <strong>понад 30 000 унікальних підроблених акаунтів</strong>.</p>
<p>Також вперше в рамках цього дослідження було перевірено <strong>рекламні інструменти</strong> платформ: за €130 через куплені фейкові рекламні акаунти вдалося отримати 206 234 перегляди та 200 лайків, а ще за €121 — 17 442 фейкові коментарі під рекламними постами.</p>
<h2>Хто найкраще видаляє ботів: рейтинг соцмереж</h2>
<p>Рівень видалення підроблених акаунтів досяг рекордного показника: в середньому <strong>50,4%</strong> ідентифікованих фейкових акаунтів було видалено впродовж п&#8217;яти тижнів після купівлі. Для порівняння: у 2021 році видаляли лише 20%, у 2024-му — 13%.</p>
<p>Та результати між платформами різняться кардинально:</p>
<table>
<thead>
<tr>
<th>Платформа</th>
<th>Видалено акаунтів</th>
<th>Залишилось фейкової активності</th>
</tr>
</thead>
<tbody>
<tr>
<td>VKontakte</td>
<td>96%</td>
<td>70,35%</td>
</tr>
<tr>
<td>X</td>
<td>82%</td>
<td>43,41%</td>
</tr>
<tr>
<td>YouTube</td>
<td>55%</td>
<td>56,20%</td>
</tr>
<tr>
<td>Bluesky</td>
<td>55%</td>
<td>100%</td>
</tr>
<tr>
<td>Facebook</td>
<td>39%</td>
<td>79,40%</td>
</tr>
<tr>
<td>Instagram</td>
<td>22%</td>
<td>84,03%</td>
</tr>
<tr>
<td>TikTok</td>
<td>4%</td>
<td>68,13%</td>
</tr>
</tbody>
</table>
<p>Попри те, що VKontakte видалив майже всі акаунти, фейкові лайки та коментарі на постах нікуди не зникли — вони лишилися активними. X та YouTube показали найкращий результат у видаленні самої фейкової активності: на X після чотирьох тижнів залишилося лише 43% куплених взаємодій, на YouTube — 56%.</p>
<h2>Скільки коштує обманути алгоритми?</h2>
<p>Набір базових фейкових взаємодій — 100 лайків, 100 коментарів, 1000 переглядів, 100 підписників — коштує від менш ніж €1 до кількох євро залежно від платформи. Bluesky виявився найдешевшим варіантом; X у 2025 році став найдорожчим, але при цьому 156 000 фейкових переглядів там можна купити всього за €10.</p>
<p>Рекламна маніпуляція дорожча й складніша, але теж реальна: дослідники без проблем придбали готові рекламні акаунти для Meta, TikTok та YouTube. На Instagram після 72 годин кількість доставлених фейкових коментарів під рекламою перевищила замовлену <strong>утричі</strong> (340% від очікуваного).</p>
<h2>Штучний інтелект створює ботів нового покоління</h2>
<p>Це, мабуть, найтривожніший висновок звіту. Якщо раніше боти діяли прямолінійно — масово спамили однотипними коментарями й діяли у замкнених мережах між собою — то сучасні підроблені акаунти поводяться принципово інакше.</p>
<p>За даними компанії Cyabra, яка аналізувала поведінку ботів для цього звіту, нова генерація фейкових акаунтів:</p>
<ul>
<li><strong>Вбудовується в реальні дискусії</strong>, коментуючи пости журналістів, інфлюенсерів та публічних осіб — замість того, щоб просто публікувати контент на власних сторінках</li>
<li><strong>Генерує контекстно-доречні коментарі</strong> кількома мовами, які відповідають тону та темі оригінального поста</li>
<li><strong>Підтримує низьку активність</strong> протягом тривалого часу, щоб не привертати увагу систем виявлення</li>
<li><strong>Взаємодіє з реальними користувачами</strong>, а не лише між собою</li>
</ul>
<p>Як приклад у звіті наводиться аналіз онлайн-дискусії навколо інциденту з російським дроном у польському повітряному просторі у вересні 2025 року: серед 3 622 проаналізованих акаунтів <strong>22% виявилися неавтентичними</strong> — і всі вони активно просували наративи, що знімали відповідальність з росії.</p>
<h2>Пропаганда змінює вектор: від локальної політики до армії КНР</h2>
<p>Більшість комерційних ботів, як і раніше, просувають криптовалютні схеми та рекламний спам. Але з кожним роком частка політичного контенту зростає.</p>
<p>У 2025 році дослідники зафіксували <strong>різке збільшення прокитайського контенту</strong>. На Facebook, X, YouTube та TikTok боти з досліджуваної вибірки масово поширювали матеріали, що прославляли військову міць Китаю: відео ракетних пусків, військово-морських операцій, церемоній введення в дію нових кораблів. На X боти репостили публікації з тезою про перевагу китайської армії над американською. На TikTok — контент, що одночасно прославляв армії Китаю та росії.</p>
<p>У VKontakte боти, як і раніше, служать підсилювачем проросійських наративів — зокрема фантазій про «визволення» Аляски та реваншистського контенту з посиланням на «СВО 2.0».</p>
<p>Instagram виявився єдиною платформою, де дослідники не виявили жодного бота, що поширював би політичний чи військовий контент.</p>
<h2>Крипта — фінансовий щит ботоферм</h2>
<p>Усі 10 провайдерів маніпуляцій, з якими працювали дослідники, приймають оплату виключно у криптовалюті — Bitcoin, MATIC або USDT. Фінансова розвідка Латвії, яка брала участь у дослідженні, провела аналіз транзакцій.</p>
<p>Висновки невтішні: з 10 транзакцій лише <strong>4 вдалося простежити від початку до кінця</strong>. Решта 6 проходили через гаманці платіжних посередників (Cryptomus, Heleket), де кошти різних клієнтів змішувалися — і відстежити конкретний грошовий потік стає неможливо без прямої співпраці з цими сервісами або судових запитів.</p>
<p>При цьому обсяги коштів, що обертаються в цій індустрії, вражають. Один провайдер з росії (у звіті — RU1) отримав за 26 місяців близько <strong>265 261 доларів</strong>. Інший, з Великої Британії (UK2), — <strong>123 714 доларів</strong> за 28 місяців.</p>
<p>Крім того, звіт зазначає, що обслуговування гаманця RU1 через Binance потенційно порушує санкційні обмеження ЄС щодо росії (Регламент ЄС №833/2014, стаття 5b(2)).</p>
<h2>ШІ на службі маніпуляторів: автоматизація без меж</h2>
<p>Окремий розділ звіту присвячений перевірці того, наскільки легко сьогодні автоматизувати виробництво та розповсюдження дезінформаційного контенту.</p>
<p>Відповідь: <strong>дуже легко і дуже дешево</strong>.</p>
<p>Дослідники зібрали повністю автоматизований конвеєр: промпти зберігаються у Google Таблицях, ChatGPT генерує текст, Freepik API — зображення та відео, а комерційний оркестратор публікує все це через підроблені акаунти на всіх платформах одночасно. Жодного ручного втручання після початкового налаштування.</p>
<p>За €10 такий конвеєр може виробити <strong>тисячі зображень</strong> або <strong>сотні відео</strong> за допомогою різних ШІ-інструментів (Classic Fast, Flux, Seedream, Gemini 2.5 Flash, Kling тощо).</p>
<h2>Що з цим робити: рекомендації звіту</h2>
<p>Автори звіту пропонують кілька ключових підходів до протидії:</p>
<p><strong>1. Поведінкова детекція замість текстового аналізу.</strong> Виявляти ботів за патернами поведінки — синхронністю дій, структурою зв&#8217;язків між акаунтами, часовими закономірностями — а не лише за вмістом постів.</p>
<p><strong>2. Безперервний моніторинг замість реакції на кампанії.</strong> Відстежувати, як наративи розвиваються з часом і де вони проникають у реальні дискусії.</p>
<p><strong>3. Аналіз цілих розмов, а не окремих постів.</strong> Боти нового покоління ховаються в коментарях під постами реальних людей — їх не видно, якщо аналізувати лише ізольовані публікації.</p>
<p><strong>4. «Простежте за грошима».</strong> Великі фінансові потоки в бік провайдерів маніпуляцій є індикатором стратегічних операцій впливу. Фінансова розвідка має стати частиною аналізу інформаційних загроз.</p>
<p><strong>5. Санкції проти провайдерів маніпуляцій.</strong> Компанії, що пропонують послуги накрутки, мають каратися на рівні регуляторів і платформ.</p>
<h2>Що це означає для звичайних користувачів</h2>
<p>Коли ви бачите публікацію з тисячами лайків — це ще не означає, що її підтримують тисячі реальних людей. Коли під постом журналіста чи відомого блогера з&#8217;являються «стурбовані громадяни» з влучними коментарями — деякі з них можуть бути ШІ-ботами, що навмисно скеровують дискусію в потрібний напрямок.</p>
<p><strong>Ключові ознаки, на які варто звертати увагу:</strong></p>
<ul>
<li>Акаунти без реальної історії або зі штучно виглядаючим контентом</li>
<li>Однотипні або надто «відполіровані» коментарі під гострими темами</li>
<li>Різке збільшення активності під певним контентом за короткий час</li>
<li>Акаунти, що коментують переважно контент публічних осіб, а не ведуть власної діяльності</li>
</ul>
<p>Цифрова грамотність — уміння критично оцінювати те, що бачите в соцмережах — залишається найефективнішим захистом від маніпуляцій, які індустрія вже виробляє у промислових масштабах.</p>
<hr />
<p><em>Повний звіт «Social Media Manipulation for Sale: 2025 Experiment on Platform Capabilities to Detect and Counter Inauthentic Social Media Engagement» підготовлений Центром передового досвіду зі стратегічних комунікацій НАТО (NATO StratCom COE) і <a href="https://stratcomcoe.org/pdfjs/?file=/publications/download/Social-Media-Manipulation-FINAL-FILE.pdf?zoom=page-fit" target="_blank" rel="noopener">опублікований</a> у січні 2026 року. ISBN: 978-9934-619-74-8.</em></p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/industriya-fejkiv-za-kopijky-zvit-nato/">Індустрія фейків за копійки: звіт НАТО розкриває, як ШІ та крипта допомагають ботофермам</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/03/05120014/research-report-cover1020-636-px-9-0f6e3.png" />	</item>
		<item>
		<title>Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій</title>
		<link>https://cybercalm.org/yak-rozpiznaty-ruku-kremlya/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Wed, 04 Mar 2026 13:00:44 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[аналітика]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Кібервійна]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[НАТО]]></category>
		<category><![CDATA[російська пропаганда]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163487</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/04104457/znimok-ekrana-2026-03-04-o-10.44.12.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/yak-rozpiznaty-ruku-kremlya/">Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій</a></p>
<p>Спільна доповідь НАТО та Центру стратегічних комунікацій України розкриває, як науково довести причетність росії до маніпуляцій в інформаційному просторі</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/yak-rozpiznaty-ruku-kremlya/">Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/04104457/znimok-ekrana-2026-03-04-o-10.44.12.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/yak-rozpiznaty-ruku-kremlya/">Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій</a></p>
<p>Дезінформація, фейки, скоординовані кампанії у Telegram — все це давно стало частиною нашої реальності. Але як довести, що за черговим «вірусним» скандалом стоїть саме держава-агресор, а не просто анонімний блогер? Саме цьому присвячена спільна доповідь НАТО StratCom COE та українського Центру стратегічних комунікацій, опублікована у січні 2026 року.<span id="more-163487"></span></p>
<h2>Що таке «атрибуція» і чому вона важлива</h2>
<p><strong>Атрибуція</strong> — це встановлення того, хто саме стоїть за певним контентом або кампанією. У мистецтві так визначають автора картини. У кібербезпеці — автора атаки. В інформаційних операціях — організатора дезінформаційної кампанії.</p>
<p>Чому це важливо? Тому що без доведеної причетності неможливо:</p>
<ul>
<li>вводити санкції проти конкретних медіа чи структур;</li>
<li>захищати рішення про блокування у судах (а росіяни дедалі частіше оскаржують такі рішення юридичним шляхом);</li>
<li>формувати скоординовану відповідь держав, платформ та громадянського суспільства.</li>
</ul>
<p>Із запровадженням в ЄС Закону про цифрові послуги (DSA) та рамки FIMI стандарти доказової бази значно зросли. Тепер атрибуція має витримувати не лише медійну, а й правову перевірку.</p>
<h2>Три кити атрибуції: технічні, поведінкові та контекстуальні докази</h2>
<p>Автори доповіді пропонують Рамкову модель атрибуції інформаційних операцій (IIAF), яка спирається на три категорії доказів.</p>
<h3>Технічні докази: «цифровий слід»</h3>
<p>Це найбільш об&#8217;єктивна категорія. Технічний аналіз вивчає:</p>
<p><strong>Доменну інфраструктуру.</strong> Через сервіс WHOIS можна дізнатися, хто і коли реєстрував домен, який хостинг-провайдер використовується, які IP-адреси. Наприклад, домен <code>fondfbr.ru</code> (пов&#8217;язаний з «Фондом боротьби з репресіями» Пригожина) зареєстрований через REG.RU — реєстратор, який популярний серед проросійських акторів саме тому, що уникає західних механізмів блокування. Важлива деталь: власник домену позначений як «приватна особа», що нетипово для нібито некомерційної організації.</p>
<p><strong>Платформену активність.</strong> Інструмент TGStat дозволяє аналізувати Telegram-канали: кількість підписників, частоту публікацій, показник залученості (ERR). Канал <code>@yurasumy</code> («Світ сьогодні з Юрієм Подолякою») має понад 3 мільйони підписників і ERR 55% — це аномально високий показник. Для каналів такого розміру подібна залученість майже неможлива органічно: вона вказує або на штучне накручування переглядів, або на скоординовану мережу підсилення.</p>
<p><strong>Мережеве картографування.</strong> Аналіз графів пересилань і згадок показує, які канали регулярно поширюють контент одне одного. <code>@yurasumy</code> має тісні зв&#8217;язки з <code>Резидент</code>, <code>Олег Царьов</code>, <code>Осташко! Важливе</code> — всі проросійські. Якщо кілька каналів публікують однаковий пост із різницею в 1–3 хвилини, це майже напевно свідчить про автоматизоване або заздалегідь скоординоване розповсюдження.</p>
<p><strong>Фінансові сигнали.</strong> Найпереконливіші докази — але і найважчодоступніші. Аналіз блокчейн-транзакцій, рекламних ідентифікаторів Google та Meta, записів платіжних систем може виявити спільних операторів за різними ресурсами. Але така інформація здебільшого недоступна у відкритих джерелах.</p>
<h3>Поведінкові докази: як вони діють</h3>
<p>Поведінковий аналіз — це вивчення тактик, технік і процедур (ТТП): не що публікується, а як організована кампанія.</p>
<p><strong>Крос-постинг і «відмивання джерел».</strong> Класичний приклад: 25 квітня 2023 року Telegram-канали, пов&#8217;язані з Кремлем, почали поширювати фейк про бійку між грузинськими та українськими солдатами. Матеріал з&#8217;явився щонайменше на 17 ресурсах, включно з ТАСС, РІА Новости, Lenta.ru. Але ключова деталь: ТАСС опублікував новину <em>раніше</em>, ніж її поставив у своєму Telegram первинний «першоджерело» — пропагандист Андрій Марочко. Це пряме свідчення центрального управління: «першоджерело» було штучним. Коли кілька каналів публікують матеріал з різницею в хвилини — це ознака Скоординованої неавтентичної поведінки (Coordinated Inauthentic Behaviour, CIB), тобто організованих дій із прихованим координаційним центром.</p>
<p><strong>Клонування брендів.</strong> Окрема поширена тактика — створення сайтів і каналів, що імітують відомі медіа: українські регіональні видання, BBC, Укрінформ. Мета — підвищити довіру до фейку за рахунок чужої репутації. У розглянутих кейсах кілька каналів навмисно копіювали стилістику та назви реальних українських медіаресурсів.</p>
<p><strong>Фреймворк DISARM.</strong> Це систематизований інструмент з близько 391 конкретним поведінковим показником для класифікації ТТП. У доповіді він застосовується до кампанії з «анексією Польщею Західної України». Використані методи:</p>
<ul>
<li>Підроблені зображення (фейкові рекламні борди у Варшавському метро з польським генералом і закликом «захистити споконвічні польські землі»)</li>
<li>Маніпулятивне монтування відео (заява президента Дуди про «відкриті кордони» вирвана з контексту і подана як претензії на українські землі)</li>
<li>Імітація авторитетних джерел (відео з логотипом BBC, яке насправді поширювало фейк)</li>
<li>Локалізований контент на кількох мовах: російська, французька, італійська, турецька, чеська</li>
</ul>
<h3>Контекстуальні докази: «навіщо» і «коли»</h3>
<p>Контекстуальний аналіз вивчає наративи, їх зміст, аудиторію та час появи.</p>
<p><strong>Відмивання наративів.</strong> Радянська техніка, модернізована цифровими технологіями. Три стадії:</p>
<ol>
<li><strong>Розміщення</strong> — фейк сіється у нібито приватному акаунті (наприклад, у Instagram колишнього стажера Cartier, яка «бачила», як Олена Зеленська витратила $1,1 млн на прикраси).</li>
<li><strong>Нашарування</strong> — публікацію підхоплюють «схожі на реальні» українські та російські канали.</li>
<li><strong>Інтеграція</strong> — матеріал потрапляє в проросійські ЗМІ як «доказ корупції».</li>
</ol>
<p>Журналісти видання Open згодом встановили, що «стажерка Cartier» — студентка з Санкт-Петербурга без жодного стосунку до компанії.</p>
<p><strong>Часовий аналіз.</strong> Не менш важливо <em>коли</em> з&#8217;являється контент. Аналіз понад 130 тисяч повідомлень про корупцію в Україні (липень–грудень 2023 року) показав: сплески активності чітко збіглися з візитом Зеленського до США у грудні 2023-го. Антимобілізаційні хештеги <code>#ТЦК</code>, <code>#stopTRC</code> активізувалися саме під час закінчення конституційного терміну повноважень президента.</p>
<p><strong>«Пожежний шланг» пропаганди.</strong> росія не намагається бути послідовною — вона перевантажує інформаційний простір суперечливими версіями. Sputnik англійською представляє Україну як корумповану державу, а іспанською — просуває антиамериканський контент і теорії змови щодо вакцин. Мета не переконати, а дезорієнтувати.</p>
<blockquote><p>Читайте також: <a href="https://cybercalm.org/kognityvna-vijna/">Когнітивна війна: головна загроза XXI століття</a></p></blockquote>
<h2>Як оцінити рівень відповідальності держави</h2>
<p>Автори адаптують модель «спектру державної відповідальності» для інформаційних операцій. Вона включає 8 рівнів:</p>
<table>
<thead>
<tr>
<th>Рівень</th>
<th>Характеристика</th>
</tr>
</thead>
<tbody>
<tr>
<td><strong>Держава ігнорує</strong></td>
<td>Знає, але не реагує — бо операція не суперечить її інтересам</td>
</tr>
<tr>
<td><strong>Держава заохочує</strong></td>
<td>Офіційні особи повторюють або схвалюють наративи</td>
</tr>
<tr>
<td><strong>Держава формує</strong></td>
<td>Неформальна координація між чиновниками і акторами операції</td>
</tr>
<tr>
<td><strong>Держава координує</strong></td>
<td>Надає технічну або тактичну підтримку, часто таємно</td>
</tr>
<tr>
<td><strong>Держава наказує</strong></td>
<td>Використовує проксі-структури за прямим дорученням</td>
</tr>
<tr>
<td><strong>Держава виконує</strong></td>
<td>Операція ведеться безпосередньо державними ресурсами</td>
</tr>
</tbody>
</table>
<p>Кожен рівень вимагає різного обсягу доказів — і тягне різні відповіді: від дипломатичного протесту до санкцій та правових заходів.</p>
<h2>Рівні впевненості: чесність в оцінках</h2>
<p>Будь-яка атрибуція — це ймовірність, а не абсолютна істина. Доповідь рекомендує використовувати стандартизовані шкали:</p>
<ul>
<li><strong>Низька впевненість</strong> (20–39%): є окремі сигнали, але їх недостатньо</li>
<li><strong>Помірна впевненість</strong> (40–59%): кілька незалежних індикаторів збігаються</li>
<li><strong>Висока впевненість</strong> (60–79%): сильна конвергенція доказів із різних категорій</li>
<li><strong>Дуже висока впевненість</strong> (80–100%): множинні незалежні докази, без альтернативних пояснень</li>
</ul>
<p>У кейсі з корупційними наративами автори дійшли висновку <strong>з високою впевненістю (&gt;80%)</strong>: кампанія є <strong>сформованою  та скоординованою</strong> з боку російської федерації. При цьому відкрито зазначено, що бракує прямих доказів фінансування чи офіційних наказів — і це підвищує довіру до висновку, а не знижує її.</p>
<h2>Практичний кейс: як розкрили обхід санкцій RT і Sputnik</h2>
<p>Після заборони ЄС у 2022 році RT і Sputnik не зникли — вони просто перейшли на альтернативні домени. Дослідники Institute for Strategic Dialogue викрили це через:</p>
<ol>
<li><strong>WHOIS-дані</strong>: нові домени (наприклад, <code>actualidad-rt.com</code>) зареєстровані одразу після введення санкцій через російські реєстратори</li>
<li><strong>DNS-записи</strong>: ті ж nameserver&#8217;и, що й у заблокованих ресурсів (<code>ns1.rttv.ru</code>)</li>
<li><strong>Google Analytics ID</strong>: однаковий ідентифікатор на «нових» і старих ресурсах — пряме свідчення єдиного оператора</li>
<li><strong>Трафік</strong>: понад 85% відвідувачів обхідних сайтів — з країн ЄС</li>
</ol>
<p>Щоб зменшити хибні спрацювання, кожен домен мав відповідати щонайменше двом технічним критеріям. Результат — виявлена мережа сайтів, розгорнутих паралельно після санкцій.</p>
<h2>Що це означає для звичайного користувача</h2>
<p>Дослідження підтверджує кілька важливих речей:</p>
<p><strong>Фейки не з&#8217;являються самі по собі.</strong> За ними стоять технічна інфраструктура, координація та ресурси. Коли десятки каналів публікують одне й те саме з різницею в хвилини — це не збіг.</p>
<p><strong>«Незалежне джерело» може бути підставним.</strong> Перш ніж довіряти матеріалу, зверніть увагу: хто перший опублікував? Чи є у джерела реальна історія публікацій? Чи не з&#8217;явилося воно ніби «з нічого»?</p>
<p><strong>Тематика корупції — улюблена мішень.</strong> Якщо ви бачите вірусне обвинувачення на адресу українських чиновників, особливо під час важливих подій (голосування в Раді, візити до союзників, мобілізаційні рішення) — перевіряйте особливо ретельно.</p>
<p><strong>TikTok — нове поле бою.</strong> Антимобілізаційні кампанії в Україні цілеспрямовано використовували TikTok, бо ця платформа охоплює аудиторію 18–55 років і спирається не на аргументи, а на емоційний вплив. Окрему загрозу становить використання генеративного ШІ: дослідники фіксують дедалі більше кампаній, де відео- та аудіоконтент для TikTok створюється автоматично — включно з діпфейками реальних осіб. Якою б складною не була така операція, вона завжди залишає технічні та поведінкові сліди — і саме їх навчають виявляти описані в доповіді методи.</p>
<h2>Що рекомендують автори доповіді</h2>
<p>Для дослідників, журналістів і державних органів:</p>
<ul>
<li><strong>Прозорість і стандартизація</strong>: кожне твердження атрибуції має супроводжуватися рівнем впевненості і поясненням доказової бази</li>
<li><strong>Доступ до даних платформ</strong>: без відкриття API великих платформ якість розслідувань падає (обмеження Meta і Twitter/X у 2024–2025 роках суттєво ускладнили роботу)</li>
<li><strong>Уніфікована мова</strong>: терміни «держава заохочує», «держава координує», «держава виконує» мають стати стандартом для однозначного розуміння між урядами та платформами</li>
<li><strong>Превентивний аналіз</strong>: відстежувати чутливі теми в режимі реального часу, щоб фіксувати аномальні сплески <em>до</em> того, як кампанія досягне масштабу</li>
</ul>
<h2>Висновок</h2>
<p>Атрибуція інформаційних операцій — це не магія і не суб&#8217;єктивна думка. Це системна робота з технічними даними, поведінковими патернами та контекстом. Жоден окремий індикатор не є вирішальним, але сукупність незалежних доказів з різних категорій дозволяє з високою впевненістю встановити: за конкретною кампанією стоїть держава.</p>
<p>Росія не припинила інформаційну агресію — вона адаптується. Але і інструменти виявлення стають точнішими. Знати про них — перший крок до стійкості.</p>
<hr />
<p><em>Матеріал підготовлено на основі доповіді «<a href="https://stratcomcoe.org/publications/attributing-russian-information-influence-operations-testing-the-information-influence-attribution-framework-with-real-world-case-studies/340" target="_blank" rel="noopener">Attributing Russian Information Influence Operations</a>» (NATO StratCom COE &amp; Центр стратегічних комунікацій України, січень 2026 р.)</em></p>
<p><em>Якщо ви виявили підозрілий контент або скоординовану кампанію — повідомляйте до <a style="cursor: pointer !important; user-select: none !important;" href="https://cpd.gov.ua/" target="_blank" rel="noopener">Центру протидії дезінформації</a>.</em></p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/yak-rozpiznaty-ruku-kremlya/">Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/03/04104457/znimok-ekrana-2026-03-04-o-10.44.12.webp" />	</item>
		<item>
		<title>Когнітивна війна: головна загроза XXI століття</title>
		<link>https://cybercalm.org/kognityvna-vijna/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Tue, 03 Mar 2026 13:00:09 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Кібервійна]]></category>
		<category><![CDATA[Когнітивна війна]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[НАТО]]></category>
		<category><![CDATA[пропаганда]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163456</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/02181325/znimok-ekrana-2026-03-02-o-18.11.29.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/kognityvna-vijna/">Когнітивна війна: головна загроза XXI століття</a></p>
<p>Поле бою більше не обмежується сушею, морем, повітрям чи кіберпростором. Найзапекліші бої розгортаються безпосередньо у людському мозку — і ця війна вже йде. Організація НАТО з науки і технологій опублікувала масштабний звіт, який пояснює, як виглядає битва за людську свідомість і що кожен із нас може зробити для захисту. Уявіть зброю, яка не вибухає і [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/kognityvna-vijna/">Когнітивна війна: головна загроза XXI століття</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/02181325/znimok-ekrana-2026-03-02-o-18.11.29.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/kognityvna-vijna/">Когнітивна війна: головна загроза XXI століття</a></p>
<p>Поле бою більше не обмежується сушею, морем, повітрям чи кіберпростором. Найзапекліші бої розгортаються безпосередньо у людському мозку — і ця війна вже йде. Організація НАТО з науки і технологій опублікувала масштабний звіт, який пояснює, як виглядає битва за людську свідомість і що кожен із нас може зробити для захисту.<span id="more-163456"></span></p>
<p>Уявіть зброю, яка не вибухає і не залишає слідів. Вона не руйнує будинки — вона руйнує довіру. Не вбиває людей — а змушує їх самих робити те, що вигідно ворогу. Саме таку зброю описує <a href="https://www.sto.nato.int/document/cognitive-warfare/" target="_blank" rel="noopener">новий звіт Головного науковця НАТО</a>, присвячений когнітивній війні.</p>
<p>Документ підготовлений Організацією НАТО з науки і технологій (STO) і адресований найвищому керівництву Альянсу. Але головне в ньому — не військові секрети. Головне — те, що відбувається прямо зараз з кожним із нас.</p>
<h2>Більше, ніж просто пропаганда</h2>
<p>Когнітивну війну часто плутають із традиційними психологічними операціями (PsyOps) або інформаційними кампаніями (InfoOps). Звіт НАТО чітко розмежовує ці поняття.</p>
<p>Якщо класична пропаганда намагається нав&#8217;язати певну точку зору, то когнітивна війна має ширшу і темнішу мету — маніпуляція самими пізнавальними процесами для порушення, підриву або зміни того, як людина приймає рішення. НАТО визначає її як боротьбу за когнітивну перевагу.</p>
<p>Від звичних інфо-кампаній вона відрізняється за кількома ключовими ознаками. Вона не обов&#8217;язково має конкретну цільову аудиторію — мішенню стає все суспільство одночасно. Вона не є суто військовою проблемою. Вона часто спрямована на створення хаосу і розколу нижче порогу збройного конфлікту, методично підриваючи довіру до інститутів, науки і одне до одного.</p>
<p>Ще у V столітті до нашої ери Сунь-Цзи писав: «Весь секрет полягає в тому, щоб збити ворога з пантелику, аби він не зміг розгадати наш справжній намір». Сьогодні цей принцип реалізується через алгоритми соцмереж і deepfake-відео.</p>
<h2>Україна як доказ</h2>
<p>Звіт НАТО прямо вказує, що повномасштабне вторгнення росії 24 лютого 2022 року стало вододілом у розумінні когнітивної війни. Ще до початку активних бойових дій росія роками використовувала суперечливі наративи та операції під фальшивим прапором, щоб дестабілізувати ситуацію й впливати на рішення Заходу.</p>
<p>Але головний висновок для військових стратегів такий: сучасна міждержавна війна — це одночасно жорстока війна на виснаження з величезними людськими втратами і війна за людський розум через доступ до цифрових технологій. Когнітивний вимір став повноцінним театром бойових дій. І суспільство в ньому — не пасивна жертва, а активний учасник.</p>
<h2>Технологія як зброя масового ураження розуму</h2>
<p>Чому когнітивна війна стала настільки небезпечною саме зараз? Відповідь — у технологіях.</p>
<p>Гіперконективність перетворила кожний смартфон на потенційний вектор атаки. Ворог використовує цифрові інструменти на кількох рівнях одночасно.</p>
<p><strong>Збір даних (OSINT/SOCMINT).</strong> Аналіз <a href="https://cybercalm.org/yak-zmenshyty-tsyfrovyj-slid-ta-zahystyty-osobysti-dani-porady/">цифрового сліду</a> мільйонів людей дозволяє виявляти їхні страхи, упередження та емоційні тригери.</p>
<p><strong>Мікротаргетинг.</strong> Персоналізовані інформаційні «бомби», створені на основі цих даних, діють точно на підсвідомість конкретної людини.</p>
<p><strong>Генерація контенту у промислових масштабах.</strong> ШІ дозволяє виробляти фейкові тексти, відео та аудіо настільки швидко і якісно, що межа між правдою і брехнею стає непомітною.</p>
<p>Мішенню є не лише солдат чи генерал. Мішенню є кожен із нас. Підрив віри у верховенство права, демократичні інститути та одне в одного — ось кінцева мета агресора.</p>
<h2>Три рівні атаки: як це відбувається</h2>
<p>Науковці НАТО систематизували когнітивні атаки за рівнями впливу.</p>
<p><strong>Індивідуальний.</strong> Зміна установок, переконань і поведінки конкретної людини. Кожен із нас щодня потрапляє під вплив алгоритмів, що формують наш інформаційний простір і непомітно підштовхують до певних висновків.</p>
<p><strong>Груповий.</strong> Підрив довіри між людьми, створення поляризації, розпалювання конфліктів між різними суспільними групами. Коли у вашій стрічці раптом побільшало контенту, що ділить суспільство на «своїх» і «чужих» — це не завжди випадковість.</p>
<p><strong>Суспільний.</strong> Атака на демократичні цінності, верховенство права, суспільний договір між громадянами і державою. Мета — зруйнувати саму основу, на якій тримається інституційна довіра.</p>
<h2>«Модель будинку»: як НАТО будує захист</h2>
<p>Щоб протистояти цим загрозам, STO ініціювала понад 20 дослідницьких програм, об&#8217;єднавши більше 200 експертів з 26 країн-союзників. Фахівці розробили «Модель будинку» — системний фреймворк із семи науково-технологічних напрямів.</p>
<p>Чотири «перекладини» — це наскрізні напрями, що підсилюють усю конструкцію: ситуаційна обізнаність та сенс-мейкінг, розуміння когнітивних ефектів атак, аналіз методів і тактик противника, та технологічні підсилювачі — ШІ, великі дані, нейробіологія.</p>
<p>Три «стовпи» — це фундаментальні наукові галузі: <strong>когнітивна нейронаука</strong> (як мозок приймає рішення), <strong>поведінкова психологія</strong> (довіра, емоції, комунікація) та <strong>соціально-культурна наука</strong> (які суспільні фактори роблять націю стійкою або вразливою).</p>
<p>Уся ця конструкція стоїть на правовій та етичній основі НАТО — Альянс підходить до когнітивної війни виключно з оборонних позицій.</p>
<h2>Цикл OODA: де ховається вразливість</h2>
<p>У звіті також описується механізм, через який когнітивні атаки впливають на прийняття рішень. Йдеться про цикл OODA — Спостерігай, Орієнтуйся, Вирішуй, Дій — класичну модель військового стратега Джона Бойда.</p>
<p>Кожен із нас постійно проходить цей цикл: отримуємо інформацію, осмислюємо її через фільтр попереднього досвіду та культурних установок, приймаємо рішення і діємо. Когнітивна атака цілеспрямовано «ламає» цей цикл — підкидаючи фейкові дані на вході, спотворюючи фільтри сприйняття або перевантажуючи людину суперечливою інформацією так, що вона взагалі втрачає здатність діяти.</p>
<h2>Три кити оборони Альянсу</h2>
<p>У стратегічному плані відповідь НАТО будується на трьох цілях.</p>
<p><strong>Деградація можливостей противника</strong> — зменшити здатність ворога впливати на поведінку громадян країн Альянсу, виявляти і нейтралізувати когнітивні операції до того, як вони досягнуть масштабу.</p>
<p><strong>Покращення людського і технологічного пізнання</strong> — використання ШІ та інших технологій для підвищення здатності людей аналізувати інформацію, розпізнавати маніпуляції і приймати зважені рішення.</p>
<p><strong>Стійкість (resilience)</strong> — здатність суспільства витримувати когнітивні удари, зберігати функціональність і швидко відновлюватися після атак.</p>
<h2>Що це означає для кожного з нас</h2>
<p>Звіт НАТО однозначно підкреслює: когнітивна війна — це не лише військова проблема. Це проблема кожного громадянина. Деякі експерти вже стверджують, що ми живемо в епоху безперервної прихованої війни, яка ведеться нижче порогу збройного конфлікту, але з катастрофічними наслідками для суспільної тканини.</p>
<p>Кілька практичних принципів когнітивної самооборони.</p>
<p><strong>Медіаграмотність — це базова гігієна.</strong> Вміння розпізнавати маніпулятивний контент і перевіряти джерела стало таким само необхідним, як миття рук.</p>
<p><strong>Емоція — улюблений інструмент атаки.</strong> Контент, що <a href="https://cybercalm.org/rage-baiting-v-ukrayini/">викликає гнів</a>, страх або обурення, поширюється найшвидше — і саме на це розраховують. Зробіть паузу, перш ніж репостити.</p>
<p><strong>Довіра — стратегічний ресурс.</strong> Коли ви бачите контент, що посилює розкол між групами, — запитайте себе: кому це вигідно?</p>
<p><strong>Інституційна недовіра — не випадковий ефект, а ціль.</strong> Підрив довіри до держави, науки, медіа та одне до одного — це не наслідок, а завдання когнітивної операції.</p>
<p><strong>Критичне мислення — особистий захисний екран.</strong> У світі, де ваш мозок є полем битви, здатність мислити самостійно стає питанням національної безпеки.</p>
<h2>Висновок: війна, в якій кожен є солдатом</h2>
<p>Когнітивна війна вже йде. Вона не оголошується і не має чітких кордонів. Вона ведеться у вашій стрічці новин, у групових чатах, у коментарях під матеріалами.</p>
<p>НАТО вкладає значні ресурси в те, щоб зрозуміти цю загрозу і протистояти їй на рівні Альянсу. Але найефективніший захист починається не у військових штабах — а з критичного мислення кожного з нас.</p>
<p>Відтепер кібербезпека — це не лише про захист серверів і паролів. Це про захист вашого права на власні думки.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/kognityvna-vijna/">Когнітивна війна: головна загроза XXI століття</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/03/02181325/znimok-ekrana-2026-03-02-o-18.11.29.webp" />	</item>
		<item>
		<title>Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією</title>
		<link>https://cybercalm.org/chomu-telegram-kanaly-nebezpechni-yak-dzherelo-novyn/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Tue, 24 Feb 2026 09:00:18 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[RSS]]></category>
		<category><![CDATA[Telegram]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[ЗМІ]]></category>
		<category><![CDATA[кібергігієна]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[Месенджери]]></category>
		<category><![CDATA[новини]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163255</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23170153/dark-telegram.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/chomu-telegram-kanaly-nebezpechni-yak-dzherelo-novyn/">Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією</a></p>
<p>З початком повномасштабного вторгнення Telegram став головним джерелом інформації для мільйонів українців. Швидкість появи повідомлень про ракетні удари чи події на фронті створила ілюзію тотального контролю над ситуацією. Проте з часом ця «швидкість» перетворилася на зброю, спрямовану проти нас самих. Сьогодні Telegram-канали — це здебільшого не про новини, а про бізнес, маніпуляції та вороже ІПСО. [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/chomu-telegram-kanaly-nebezpechni-yak-dzherelo-novyn/">Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23170153/dark-telegram.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/chomu-telegram-kanaly-nebezpechni-yak-dzherelo-novyn/">Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією</a></p>
<p>З початком повномасштабного вторгнення Telegram став головним джерелом інформації для мільйонів українців. Швидкість появи повідомлень про ракетні удари чи події на фронті створила ілюзію тотального контролю над ситуацією. Проте з часом ця «швидкість» перетворилася на зброю, спрямовану проти нас самих.<span id="more-163255"></span></p>
<p>Сьогодні Telegram-канали — це здебільшого не про новини, а про бізнес, маніпуляції та вороже ІПСО. Чому звичка гортати стрічку ТГ-каналів стала небезпечною — і як інформаційна гігієна може захистити і ваш спокій, і вашу безпеку?</p>
<h2>Анонімність без відповідальності</h2>
<p>Головна структурна вада Telegram-каналів як джерела новин — відсутність редакційної відповідальності. Більшість популярних новинних каналів в Україні є анонімними: ми не знаємо, хто їхній власник, хто пише тексти і які цілі він переслідує. Ця анонімність породжує абсолютну безвідповідальність.</p>
<p>Будь-хто може створити канал із назвою на кшталт «Оперативні новини України» чи «Зведення з фронту», набрати аудиторію через накрутки або рекламу — і публікувати що завгодно. Справжні ЗМІ мають ліцензії, несуть юридичну відповідальність за публікації, підписані конкретними авторами. Telegram-канал — анонімний голос без обличчя, без адреси і без можливості звернутися з претензією.</p>
<h2>Токсична кухня Telegram: як нами маніпулюють</h2>
<p><strong>Вкиди та фейки заради охоплень.</strong> Алгоритм заробітку в Telegram простий: більше підписників і переглядів — дорожча реклама. Щоб утримувати увагу, адміністратори часто нехтують фактчекінгом. Гучний, емоційний, хайпуючий заголовок завжди збере більше реакцій, ніж суха правда. Якщо новина виявиться фейком, канал просто видалить пост або тихо напише спростування — але лайки та репости він уже отримав.</p>
<p><strong>Проплачені пости (джинса) та «інсайди».</strong> Анонімність дозволяє публікувати що завгодно за гроші — від «чорного піару» проти бізнес-конкурентів до політичних маніпуляцій. Окремий жанр — так звані «інсайди з кабінетів влади», які неможливо перевірити і які нерідко пишуться безпосередньо в російських спецслужбах для дестабілізації ситуації в Україні. Рекламний ринок у Telegram-каналах оцінюється в десятки мільйонів гривень на рік, при цьому законодавство про рекламу тут фактично не виконується.</p>
<p><strong>Російські боти в коментарях.</strong> Коментарі під постами у великих українських пабліках — це справжнє поле бою. Російські ботоферми масово використовують їх для нагнітання паніки та розпалювання ненависті між українцями — між військовими та цивільними, між тими, хто виїхав, і тими, хто лишився. Людина, яка регулярно читає такі коментарі, підсвідомо починає вірити, що «все пропало». СБУ та CERT-UA неодноразово фіксували й блокували мережі Telegram-каналів, пов&#8217;язаних із ФСБ і ГРУ, які маскувалися під «незалежні» джерела новин із аудиторією від кількох тисяч до сотень тисяч підписників.</p>
<p><strong>Накрутка реакцій і «спіраль мовчання».</strong> Бачили новину про успіхи ЗСУ, під якою стоять тисячі «дизлайків» і «клоунів»? Або навпаки — панічний пост із тисячами вподобайок? Це інструмент психологічного тиску. Боти накручують певні реакції, щоб створити у читача хибне враження «думки більшості». Це явище дістало назву «спіраль мовчання»: людина бачить, що її справжні емоції нібито не збігаються з реакцією суспільства, починає сумніватися в собі — і відчуває ще більшу тривогу. Технічно накрутка 10 000 переглядів коштує кілька доларів на спеціалізованих біржах, тому «популярність» каналу не свідчить ні про достовірність, ні про реальний інтерес аудиторії.</p>
<h2>Приклади дезінформації через Telegram-канали</h2>
<p>Історія українського сегменту Telegram повна прикладів того, як інформаційні маніпуляції грали на руку ворогу.</p>
<p><strong>Фейкові «наступи з Білорусі».</strong> Регулярні вкиди на початку війни про те, що «завтра о 4 ранку підуть колони на Київ» — публікувалися виключно для того, щоб люди в паніці пересилали пост друзям і підписувалися на канал-джерело.</p>
<p><strong>Маніпуляції з мобілізацією.</strong> Публікація вирваних з контексту або відверто змонтованих відео з ТЦК — без зазначення дати та місця, з агресивними коментарями ботів. Мета — зрив мобілізації та підрив довіри до армії. Паралельно регулярно з&#8217;являлись фейкові «витоки наказів», «секретних списків» і «нових правил», більшість із яких виявлялися сфабрикованими.</p>
<p><strong>«Енергетичний терор».</strong> Взимку 2022–2023 років каналами ширилися фейкові графіки відключень і повідомлення про «повний блекаут на тиждень», підкріплені рекламою генераторів та павербанків. Це спричиняло хаос і підривало довіру до реальних операторів.</p>
<p><strong>Мережі ГРУ під виглядом аналітики.</strong> Канали на кшталт «Легитимный», «Резидент» та їм подібні маскуються під українські аналітичні пабліки, але кіруються ГРУ РФ — це офіційно підтверджено СБУ. Вони системно просувають російські наративи під виглядом «секретних інсайтів».</p>
<p><strong>Фейкові фото руйнувань.</strong> Канали публікували знімки руйнувань з інших країн або зі старих подій, видаючи їх за свіжі удари по українських містах — виключно заради масової тривоги та дезорієнтації.</p>
<h2>Чому Telegram небезпечний для українців вцілому</h2>
<p>Окрім якості новин, є ще одна критична проблема: Telegram — це платформа з глибокими зв&#8217;язками з росією.</p>
<p>За замовчуванням переписка та канали в Telegram <strong>не мають наскрізного шифрування</strong> — end-to-end encryption працює лише в «<a href="https://cybercalm.org/yak-stvoryty-sekretnyj-chat-u-telegram/">секретних чатах</a>» між двома людьми. Попри заяви Павла Дурова про незалежність, сервери, інвестори та технічна команда платформи мають задокументовані зв&#8217;язки з росією, а законодавство рф надає ФСБ широкі механізми доступу до даних користувачів.</p>
<p>Навіть без прямого доступу до змісту переписки ворог може аналізувати <strong>метадані</strong>: хто, де, коли і з ким спілкується, які канали читає, в яких чатах перебуває. Для військовослужбовців, працівників ОПК і державних службовців використання Telegram є прямою загрозою особистій і службовій безпеці. Арешт Дурова у Франції в серпні 2024 року у справі про недостатню модерацію незаконного контенту ще раз привернув міжнародну увагу до проблем із прозорістю платформи.</p>
<h2>Альтернатива є: RSS-рідер — ваш персональний інформаційний бункер</h2>
<p>Якщо Telegram — це галасливий і брудний ринок, де в обличчя кричать сумнівні продавці, то RSS-рідер — це тиха бібліотека, де лежать лише ті книги, які ви самі замовили. Адже RSS — це і є той самий &#8220;<a href="https://cybercalm.org/smert-rss-tse-smert-spravzhnogo-internetu/">справжній інтернет</a>&#8220;.</p>
<p>RSS-рідер — це програма або вебсервіс, що збирає статті з обраних вами сайтів в єдину зручну стрічку. Серед найкращих варіантів — <strong>Feedly</strong>, <strong>Inoreader</strong> і <strong>NewsBlur</strong>. Усі вони мають безкоштовні версії і мобільні додатки для iOS та Android.</p>
<p>Переваги такого підходу очевидні.</p>
<p><strong>Ви — головний редактор:</strong> жодних алгоритмів, що підсовують шок-контент чи рекламу. Ви бачите лише те, що опублікували сайти, на які свідомо підписалися.</p>
<p><strong>Надійні джерела замість анонімів:</strong> авторитетне ЗМІ підписує матеріали авторами, несе юридичну відповідальність і зберігає архів, де завжди можна перевірити, що і коли було написано.</p>
<p><strong>Здоров&#8217;я психіки:</strong> жодних нав&#8217;язливих сповіщень щосекунди, жодних накручених реакцій, жодних токсичних коментарів. Тільки текст, факти й аналітика.</p>
<p><strong>Економія часу:</strong> ви читаєте новини тоді, коли вам зручно — наприклад, вранці й увечері, переглядаючи заголовки дійсно важливих подій, а не інформаційний спам.</p>
<p>Що варто додати до свого RSS-рідера насамперед: серед українських ЗМІ — Суспільне, Українська правда, hromadske.ua, Babel, LB.ua, LIGA.net, Texty.org.ua, NV.ua; як первинні джерела — офіційні сайти Генштабу ЗСУ, ДСНС, Кабінету Міністрів.</p>
<p>Ось, наприклад, так виглядає наша редакційна підбірка технологічних медіа у Feedly:</p>
<p><a href="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08.png"><img decoding="async" class="aligncenter wp-image-163258 size-large" src="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-1024x623.png" alt="znimok ekrana 2026 02 23 o 16.53.08" width="1024" height="623" title="Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією 6" srcset="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-1024x623.png 1024w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-300x183.png 300w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-768x467.png 768w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-1536x935.png 1536w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-2048x1246.png 2048w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-860x523.png 860w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-1320x803.png 1320w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></p>
<p>Почніть з 5–10 джерел — цього цілком достатньо, щоб бути реально поінформованою людиною без інформаційного перевантаження.</p>
<h2>Медіаграмотність як зброя</h2>
<p>Ми маємо вигравати не лише на полі бою, але й в інформаційній війні. Перший крок до перемоги у власному розумі — це усвідомлений вибір на користь якості інформації над її кількістю.</p>
<p>Кілька простих правил допоможуть захиститися від маніпуляцій: перевіряти будь-яку важливу новину в кількох незалежних офіційних джерелах перед тим, як ділитися нею; звертати увагу на наявність підпису автора та дати публікації; ставитися з підвищеним скептицизмом до матеріалів, що викликають сильну емоційну реакцію — страх, обурення, ейфорію. І пам&#8217;ятати: анонімний канал із сотнями тисяч підписників — це не свідчення достовірності, а лише ознака ефективної накрутки або вдалої рекламної кампанії.</p>
<p>Відписка від анонімних Telegram-каналів, що живляться вашою тривогою, — це не відмова від інформації. Це повернення контролю над нею. Чистий інформаційний простір є запорукою психологічної стійкості, а стійкість — однією з умов нашої перемоги.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/chomu-telegram-kanaly-nebezpechni-yak-dzherelo-novyn/">Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23170153/dark-telegram.webp" />	</item>
		<item>
		<title>Модель GPT-5.2 від OpenAI використовує сумнівні джерела — зокрема Grokipedia</title>
		<link>https://cybercalm.org/model-gpt-5-2-vid-openai-vykorystovuye-grokipedia/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Sun, 25 Jan 2026 10:00:19 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Grokipedia]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Штучний Інтелект]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=162627</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/01/25115955/grokipedia-scaled-3524011031.jpg" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/model-gpt-5-2-vid-openai-vykorystovuye-grokipedia/">Модель GPT-5.2 від OpenAI використовує сумнівні джерела — зокрема Grokipedia</a></p>
<p>OpenAI позиціонує GPT-5.2 як «найдосконалішу модель для професійної роботи», однак тестування ставить під сумнів надійність її джерел</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/model-gpt-5-2-vid-openai-vykorystovuye-grokipedia/">Модель GPT-5.2 від OpenAI використовує сумнівні джерела — зокрема Grokipedia</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/01/25115955/grokipedia-scaled-3524011031.jpg" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/model-gpt-5-2-vid-openai-vykorystovuye-grokipedia/">Модель GPT-5.2 від OpenAI використовує сумнівні джерела — зокрема Grokipedia</a></p>
<p>Найновіша модель ChatGPT почала цитувати Grokipedia — онлайн-енциклопедію Ілона Маска — у відповідях на широкий спектр запитів, зокрема про іранські конгломерати та заперечувачів Голокосту. Це викликає серйозні занепокоєння щодо поширення дезінформації через платформу.<span id="more-162627"></span></p>
<h2>Результати тестування</h2>
<p>У тестах, проведених виданням <a href="https://www.theguardian.com/technology/2026/jan/24/latest-chatgpt-model-uses-elon-musks-grokipedia-as-source-tests-reveal" target="_blank" rel="noopener">The Guardian</a>, модель GPT-5.2 процитувала Grokipedia дев&#8217;ять разів у відповідь на понад дюжину різних запитів. Серед них були питання про політичні структури Ірану — зокрема про зарплати парамілітарних сил «Басідж» та власників Фонду Мостазафан, — а також про біографію сера Річарда Еванса, британського історика, який виступав експертом-свідком проти заперечувача Голокосту Девіда Ірвінга під час судового процесу.</p>
<p>Примітно, що ChatGPT не цитував Grokipedia, коли його безпосередньо просили повторити дезінформацію про штурм Капітолію 6 січня, про медійну упередженість проти Дональда Трампа або про епідемію ВІЛ/СНІДу — теми, щодо яких Grokipedia, за численними повідомленнями, поширює неправдиву інформацію. Натомість дані з Grokipedia потрапляли у відповіді моделі при запитах на більш маловідомі теми.</p>
<h2>Що таке Grokipedia</h2>
<p><a href="https://cybercalm.org/chy-varto-doviryaty-grokipedia/">Grokipedia</a>, запущена у жовтні 2025 року, — це ШІ-генерована онлайн-енциклопедія, яка позиціонується як конкурент <a href="https://cybercalm.org/vikipediyi-20-rokiv-istoriya-entsyklopediyi/">Wikipedia</a>. Платформу критикують за просування правих наративів щодо таких тем, як одностатеві шлюби та штурм Капітолію США. На відміну від Wikipedia, Grokipedia не дозволяє прямого редагування людьми — контент створює ШІ-модель, яка також обробляє запити на зміни.</p>
<h2>Проблема стосується не лише OpenAI</h2>
<p>GPT-5.2 — не єдина велика мовна модель, яка цитує Grokipedia. За наявними даними, Claude від Anthropic також посилається на енциклопедію Маска в темах від видобутку нафти до шотландського елю. Компанія Anthropic не відповіла на запит журналістів про коментар.</p>
<h2>Загроза «вирощування» ШІ-моделей на дезінформації</h2>
<p>Те, що інформація з Grokipedia — часом дуже непомітно — проникає у відповіді великих мовних моделей, викликає занепокоєння серед дослідників дезінформації. Навесні 2025 року експерти з безпеки попереджали, що зловмисники, зокрема російські пропагандистські мережі, масово генерують дезінформацію з метою «засіяти» ШІ-моделі брехнею — цей процес називають «LLM grooming» (вирощування мовних моделей).</p>
<p>У червні в Конгресі США висловлювали занепокоєння, що Google Gemini повторював позицію китайського уряду щодо порушень прав людини в Сіньцзяні та політики Китаю щодо COVID-19.</p>
<h2>Думка експертів</h2>
<p>Ніна Янкович, дослідниця дезінформації, яка вивчала проблему «вирощування» ШІ-моделей, зазначила, що цитування Grokipedia моделлю ChatGPT викликає аналогічні занепокоєння. За її словами, статті Grokipedia, які вона з колегами аналізувала, «спираються на джерела, які в кращому випадку є ненадійними, а в гіршому — погано підкріпленими або навмисною дезінформацією».</p>
<p>Крім того, коли великі мовні моделі цитують такі джерела, як Grokipedia або мережа Pravda, це може підвищити їхню достовірність в очах читачів. «Люди можуть подумати: &#8220;О, ChatGPT це цитує, ці моделі це цитують — значить, це пристойне джерело, напевно вони його перевірили&#8221; — і можуть піти туди шукати новини про Україну», — попередила Янкович.</p>
<p>Недостовірну інформацію, яка потрапила до ШІ-чатбота, буває складно видалити. Янкович <a href="https://bsky.app/profile/ninajankowicz.com/post/3lulq7ovmts25" target="_blank" rel="noopener">розповіла</a>, що нещодавно виявила вигадану цитату, приписану їй, у матеріалі великого новинного видання. Після її звернення видання видалило цитату, однак ШІ-моделі ще певний час продовжували її повторювати. «Більшість людей не докладатимуть зусиль, щоб з&#8217;ясувати, де насправді правда», — зазначила дослідниця.</p>
<h2>Реакція компаній</h2>
<p>Речник OpenAI заявив, що веб-пошук моделі «має на меті використовувати широкий спектр загальнодоступних джерел та точок зору». «Ми застосовуємо фільтри безпеки для зменшення ризику відображення посилань, пов&#8217;язаних із серйозними загрозами, а ChatGPT чітко показує, які джерела використано у відповіді, через цитування», — додав він, зазначивши про постійні програми фільтрації недостовірної інформації та кампаній впливу.</p>
<p>Речник xAI, власника Grokipedia, на запит про коментар відповів: «Застарілі ЗМІ брешуть».</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/model-gpt-5-2-vid-openai-vykorystovuye-grokipedia/">Модель GPT-5.2 від OpenAI використовує сумнівні джерела — зокрема Grokipedia</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/01/25115955/grokipedia-scaled-3524011031.jpg" />	</item>
		<item>
		<title>Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска</title>
		<link>https://cybercalm.org/chy-varto-doviryaty-grokipedia/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Mon, 03 Nov 2025 12:00:14 +0000</pubDate>
				<category><![CDATA[Кібербезпека]]></category>
		<category><![CDATA[Grok]]></category>
		<category><![CDATA[Grokipedia]]></category>
		<category><![CDATA[xAI]]></category>
		<category><![CDATA[Ілон Маск]]></category>
		<category><![CDATA[Вікіпедія]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=157142</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2025/11/03094742/grokpedia-scaled.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/chy-varto-doviryaty-grokipedia/">Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска</a></p>
<p>Ілон Маск запустив альтернативу Вікіпедії на основі штучного інтелекту, обіцяючи «правду, всю правду і нічого, крім правди». Однак перші тести показали зворотне: Grokipedia не лише копіює контент з Вікіпедії, а й містить численні фактичні помилки, просуває правацькі наративи та повторює російську пропаганду про війну в Україні. Провідні історики та експерти з перевірки фактів б&#8217;ють на [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/chy-varto-doviryaty-grokipedia/">Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2025/11/03094742/grokpedia-scaled.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/chy-varto-doviryaty-grokipedia/">Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска</a></p>
<p>Ілон Маск запустив альтернативу Вікіпедії на основі штучного інтелекту, обіцяючи «правду, всю правду і нічого, крім правди». Однак перші тести показали зворотне: Grokipedia не лише копіює контент з Вікіпедії, а й містить численні фактичні помилки, просуває правацькі наративи та повторює російську пропаганду про війну в Україні. Провідні історики та експерти з перевірки фактів б&#8217;ють на сполох: коли AI, керований впливовими мільярдерами, стає джерелом «істини», під загрозою опиняється сама суть достовірного знання.<span id="more-157142"></span></p>
<p>Видатний британський історик сер Річард Еванс підготував три експертні висновки для судового процесу щодо наклепу за участю заперечувача Голокосту Девіда Ірвінга, здобув докторський ступінь під керівництвом Теодора Зелдіна, змінив Девіда Канnadайна на посаді професора історії Кембриджського університету (посада, заснована Генріхом VIII) і керував дисертаціями про соціальну політику Бісмарка.</p>
<p>Саме це можна було дізнатися з <a href="https://grokipedia.com" target="_blank" rel="noopener">Grokipedia</a> — енциклопедії на основі штучного інтелекту, яку минулого тижня <a href="https://cybercalm.org/grokipedia-vid-x-znovu-v-merezhi/">запустив</a> ексцентричний мільярдер Ілон Маск. Проблема полягала в тому, що, як виявив професор Еванс, увійшовши в систему для перевірки власної статті, усі ці факти були хибними.</p>
<p>Це стало частиною невдалого старту для чергової спроби людства зібрати всю суму людських знань або, як висловився Маск, створити компендіум «правди, всієї правди і нічого, крім правди» — усе це через магію його моделі штучного інтелекту Grok.</p>
<h2>«Краще за Вікіпедію»?</h2>
<p>Коли мультимільярдер увімкнув Grokipedia, він заявив, що вона «краща за Вікіпедію», або «Wokepedia», як називають її його прихильники, відображаючи думку, що домінуюча онлайн-енциклопедія часто транслює лівацькі наративи. Один допис у X передавав тріумфальний настрій серед фанатів Маска: «Ілон щойно вбив Вікіпедію. І добре».</p>
<p>Однак користувачі виявили, що Grokipedia запозичила великі фрагменти з сайту, який мала замінити, містить численні фактичні помилки та, схоже, просуває улюблені праві наративи Маска. Між дописами в X на підтримку свого творіння Маск цього тижня заявив, що «громадянська війна у Британії неминуча», закликав англійців «об&#8217;єднатися з твердими чоловіками», такими як ультраправий агітатор Томмі Робінсон, і сказав, що лише ультраправа партія AfD може «врятувати Німеччину».</p>
<p>Маск настільки захопився своєю AI-енциклопедією, що заявив про плани одного дня вигравірувати «всеосяжну колекцію всіх знань» на стабільному оксиді та «розмістити копії на орбіті, Місяці та Марсі, щоб зберегти її для майбутнього».</p>
<h2>Що виявили експерти</h2>
<p>Однак Еванс виявив, що використання штучного інтелекту Маском для зважування та перевірки фактів стикається з більш приземленою проблемою. «Коментарі з чатів отримують той самий статус, що й серйозна академічна робота, — <a href="https://www.theguardian.com/technology/2025/nov/03/grokipedia-academics-assess-elon-musk-ai-powered-encyclopedia" target="_blank" rel="noopener">сказав Guardian</a> Еванс, експерт з Третього Рейху, якого запросили протестувати Grokipedia. — AI просто всмоктує все».</p>
<p>Він зазначив, що стаття про Альберта Шпеєра, архітектора Гітлера та воєнного міністра озброєнь, повторює брехню та викривлення, поширені самим Шпеєром, хоча вони були виправлені в біографії 2017 року. Стаття сайту про марксистського історика Еріка Гобсбаума, біографію якого написав Еванс, помилково стверджувала, що той пережив німецьку гіперінфляцію 1923 року, що він був офіцером Королівського корпусу зв&#8217;язку, і не згадувала, що він був одружений двічі.</p>
<h2>Зіткнення культур знань</h2>
<p>Проблема, за словами Девіда Ларссона Гайденблада, заступника директора Лундського центру історії знань у Швеції, полягає в зіткненні культур знань.</p>
<p>«Ми живемо в час, коли зростає віра в те, що алгоритмічна агрегація більш надійна, ніж людське розуміння, — каже Гайденблад. — Менталітет Кремнієвої долини дуже відрізняється від традиційного наукового підходу. Його культура знань дуже ітеративна, де помилки — це особливість, а не баг. Натомість академічний світ — це про побудову довіри з часом і наукову роботу протягом тривалих періодів, коли ілюзія всезнання тріскається. Це справжні процеси здобуття знань».</p>
<h2>Від Юнле до Grok: історія енциклопедій</h2>
<p>Поява Grokipedia продовжує багатовікову традицію енциклопедій — від китайських сувоїв Юнле XV століття до Енциклопедії, рушія поширення суперечливих просвітницьких поглядів у Франції XVIII століття. За ними послідували англоцентрична Encyclopedia Britannica і, з 2001 року, створена спільнотою Вікіпедія. Але Grokipedia — перша, створена переважно штучним інтелектом, і цього тижня виникло питання: хто контролює істину, коли AI, керовані впливовими особами, тримають перо?</p>
<h2>Ризики політичних маніпуляцій</h2>
<p>«Якщо це робить Маск, то я боюся політичних маніпуляцій», — сказав культуролог Пітер Берк, почесний професор коледжу Еммануель у Кембриджі, який у 2000 році написав «Соціальну історію знань» від часів друкарського верстата Йоганнеса Гутенберга XV століття.</p>
<p>«Я впевнений, що деяким читачам це буде очевидно, але проблема може полягати в тому, що інші читачі можуть це пропустити», — каже Берк. Анонімність багатьох енциклопедичних статей часто надає їм «ореол авторитетності, якого вони не заслуговують», додав він.</p>
<p>Ендрю Дадфілд, керівник відділу AI у Full Fact, британській організації з перевірки фактів, сказав: «Ми дійсно маємо подумати, чи є енциклопедія, створена AI — факсиміле реальності, пропущене через фільтр — кращою пропозицією, ніж будь-що з попереднього. Вона не демонструє такої ж прозорості, але вимагає тієї ж довіри. Незрозуміло, наскільки залучена людська рука, наскільки це згенеровано AI і на якому контенті навчався AI. Важко довіряти чомусь, коли не бачиш, як приймаються ці рішення».</p>
<h2>Від підтримки до мільярдної пропозиції</h2>
<p>Маска заохочували запустити Grokipedia, зокрема, технологічний радник Дональда Трампа Девід Сакс, який скаржився, що Вікіпедія «безнадійно упереджена» і підтримується «армією лівацьких активістів».</p>
<p>До 2021 року Маск підтримував Вікіпедію, написавши на її 20-річчя в Twitter: «Так радий, що ви існуєте». Але до жовтня 2023 року його антипатія до платформи привела до того, що він запропонував 1 мільярд доларів, «якщо вони зміняють назву на Dickipedia».</p>
<h2>Плагіат і упередженість</h2>
<p>Проте багато з 885 279 статей, доступних у Grokipedia протягом першого тижня, були майже дослівно скопійовані з Вікіпедії, включно зі статтями про PlayStation 5, Ford Focus і Led Zeppelin. Інші ж суттєво відрізнялися:</p>
<p><strong>Війна в Україні.</strong> <a href="https://grokipedia.com/page/Russian_invasion_of_Ukraine" target="_blank" rel="noopener">Стаття Grokipedia про російське вторгнення в Україну</a> цитувала Кремль як важливе джерело та наводила офіційну російську термінологію про «денацифікацію» України, захист етнічних росіян і нейтралізацію загроз російській безпеці. Натомість Вікіпедія стверджувала, що путін сповідує імперіалістичні погляди і «безпідставно заявляв, що український уряд — неонацисти».</p>
<p><strong>Britain First.</strong> Grokipedia назвала ультраправу організацію Britain First «патріотичною політичною партією», що порадувало її лідера Пола Голдінга, якого 2018 року ув&#8217;язнили за антимусульманські злочини на ґрунті ненависті. Вікіпедія ж називає її «неофашистською» та «групою ненависті».</p>
<p><strong>Штурм Капітолію.</strong> Grokipedia назвала заворушення 6 січня 2021 року в Капітолії США у Вашингтоні «бунтом», а не спробою перевороту, і заявила, що існують «емпіричні підстави» для ідеї про навмисне демографічне стирання білих людей у західних країнах через масову імміграцію. Критики вважають це теорією змови.</p>
<p><strong>Дональд Трамп.</strong> Grokipedia зазначила, що засудження Дональда Трампа за фальсифікацію ділових записів у справі про гроші для Сторми Деніелс відбулося «після судового процесу в юрисдикції з переважною перевагою демократів», і не згадувала про його конфлікти інтересів — наприклад, отримання літака від Катару чи криптовалютний бізнес родини Трампів.</p>
<h2>Відповідь Вікіпедії</h2>
<p>Вікіпедія холодно відреагувала на запуск Grokipedia, заявивши, що все ще намагається зрозуміти, як працює Grokipedia.</p>
<p>«На відміну від новіших проєктів, переваги Вікіпедії очевидні, — сказав представник Фонду Вікімедіа. — Вона має прозору політику, суворий волонтерський нагляд і сильну культуру постійного вдосконалення. Вікіпедія — це енциклопедія, написана для інформування мільярдів читачів без просування певної точки зору».</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/chy-varto-doviryaty-grokipedia/">Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2025/11/03094742/grokpedia-scaled.webp" />	</item>
		<item>
		<title>YouTube може відновити канали, заблоковані за поширення дезінформації про COVID і вибори</title>
		<link>https://cybercalm.org/youtube-mozhe-vidnovyty-zablokovani-kanaly/</link>
		
		<dc:creator><![CDATA[Олена Кожухар]]></dc:creator>
		<pubDate>Wed, 24 Sep 2025 13:00:24 +0000</pubDate>
				<category><![CDATA[Техногіганти]]></category>
		<category><![CDATA[Alphabet]]></category>
		<category><![CDATA[COVID-19]]></category>
		<category><![CDATA[YouTube]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Соцмережі]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=112709</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2020/08/24105653/05ontech-youtube-misinformation-videosixteenbyninejumbo1600.png" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/youtube-mozhe-vidnovyty-zablokovani-kanaly/">YouTube може відновити канали, заблоковані за поширення дезінформації про COVID і вибори</a></p>
<p>Компанія обговорила ці плани в листі до Судового комітету Палати представників.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/youtube-mozhe-vidnovyty-zablokovani-kanaly/">YouTube може відновити канали, заблоковані за поширення дезінформації про COVID і вибори</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/olga_sem/">Олена Кожухар</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2020/08/24105653/05ontech-youtube-misinformation-videosixteenbyninejumbo1600.png" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/youtube-mozhe-vidnovyty-zablokovani-kanaly/">YouTube може відновити канали, заблоковані за поширення дезінформації про COVID і вибори</a></p>
<p>Канали, які YouTube <a href="https://cybercalm.org/youtube-vidaliv-ponad-miljon-video-z-dezinformatsiyeyu-pro-covid-19/">раніше заблокував</a> за поширення неправдивої інформації щодо пандемії COVID-19 або виборів 2020 року, незабаром можуть отримати можливість повернути свої канали — рішення, яке відверто спрямоване на залучення «консервативних голосів».<span id="more-112709"></span></p>
<p>Alphabet, материнська компанія Google і YouTube, надіслала через юридичних представників <a href="https://judiciary.house.gov/sites/evo-subsites/republicans-judiciary.house.gov/files/evo-media-document/2025-09-23-letter-to-hjc.pdf" target="_blank" rel="noopener">лист до Судового комітету</a> Палати представників, у якому стверджує, що <a href="https://judiciary.house.gov/media/in-the-news/google-reinstate-banned-youtube-accounts-censored-political-speech" target="_blank" rel="noopener">адміністрація Байдена тиснула на компанію</a> з вимогою видалити з YouTube дезінформацію, пов&#8217;язану з пандемією COVID-19, яка на той момент не порушувала діючих правил компанії. Тепер Alphabet називає дії адміністрації Байдена «неприйнятними та неправильними».</p>
<p>Компанія також повідомила комітет, що YouTube надасть можливість відновлення для авторів контенту, чиї канали були заблоковані за неодноразові порушення правил спільноти щодо контенту про цілісність виборів, а також контенту, пов&#8217;язаного з COVID-19. Правила, за якими проводилися такі блокування, компанія скасувала у 2023 та 2024 роках відповідно. Деталі того, як саме виглядатиме процедура відновлення, не повідомлялися.</p>
<p>«Пандемія COVID-19 була безпрецедентним часом, коли онлайн-платформи мали приймати рішення про те, як найкраще збалансувати свободу вираження поглядів із відповідальністю», — йдеться в листі. «Високопоставлені чиновники адміністрації Байдена, включно з представниками Білого дому, проводили постійну та наполегливу роботу з Alphabet і тиснули на компанію щодо контенту, створеного користувачами, пов&#8217;язаного з пандемією COVID-19, який не порушував її правил».</p>
<p>Далі Alphabet засуджує будь-які спроби уряду «диктувати, як компанія модерує контент», і заявляє, що завжди «боротиметься проти таких зусиль на підставі Першої поправки».</p>
<p>Серед відомих каналів YouTube, заблокованих за контент, пов&#8217;язаний з COVID-19 або цілісністю виборів, — <a href="https://www.yahoo.com/entertainment/steve-bannon-war-room-channel-015616583.html?guccounter=1&amp;guce_referrer=aHR0cHM6Ly93d3cuZW5nYWRnZXQuY29tL2JpZy10ZWNoL3lvdXR1YmUtbWF5LXJlaW5zdGF0ZS1jaGFubmVscy1iYW5uZWQtZm9yLXNwcmVhZGluZy1jb3ZpZC1hbmQtZWxlY3Rpb24tbWlzaW5mb3JtYXRpb24tMTkwMjU3NjAyLmh0bWw&amp;guce_referrer_sig=AQAAAEXF_Cp-rCS8VXnL4BhrCE6BrCjlpqUfqmSstFraHk0K_moVAF4CXBKikLUd97nE08seDcHXkyoDiyPPfuv4OR6qYxmWd43GWycHxFfNBIddR8yi34Fws3BSQWEckttrU8modYiV8i4-65WNc_Aypl4eHk7l4g5fb87l-_bb2efp" target="_blank" rel="noopener">«War Room» Стіва Беннона</a>, канал співзаступника директора ФБР <a href="https://www.reuters.com/business/media-telecom/youtube-permanently-bans-fox-news-host-dan-bongino-2022-01-26/" target="_blank" rel="noopener">Дена Бонджино</a> та канал організації <a href="https://www.axios.com/2021/09/29/youtube-anti-vax-misinformation-vaccination" target="_blank" rel="noopener">Children&#8217;s Health Defense</a>, яка раніше була пов&#8217;язана з міністром охорони здоров&#8217;я Робертом Кеннеді-молодшим.</p>
<blockquote><p>«YouTube цінує консервативні голоси на своїй платформі та визнає, що ці автори мають значний вплив і відіграють важливу роль у громадянському дискурсі», — написала компанія.</p></blockquote>
<p>У своєму листі Alphabet також висловлює занепокоєння тим, що <a href="https://www.europarl.europa.eu/topics/en/article/20211209STO19124/eu-digital-markets-act-and-digital-services-act-explained" target="_blank" rel="noopener">Закон ЄС про цифрові послуги та Закон про цифрові ринки</a> можуть мати стримуючий вплив на свободу вираження поглядів.</p>
<p>Лист було надіслано у відповідь на судові повістки в рамках <a href="https://judiciary.house.gov/committee-activity/hearings/europes-threat-american-speech-and-innovation" target="_blank" rel="noopener">поточних розслідувань</a> Судового комітету Палати представників щодо імовірної модерації контенту за вказівкою уряду. Комітет нещодавно провів слухання на тему «Загроза Європи американській свободі слова та інноваціям» та інші.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/youtube-mozhe-vidnovyty-zablokovani-kanaly/">YouTube може відновити канали, заблоковані за поширення дезінформації про COVID і вибори</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/olga_sem/">Олена Кожухар</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2020/08/24105653/05ontech-youtube-misinformation-videosixteenbyninejumbo1600.png" />	</item>
	</channel>
</rss>
