<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	xmlns:media="http://search.yahoo.com/mrss/"
>

<channel>
	<title>Маніпуляції в медіа &#8211; CyberCalm</title>
	<atom:link href="https://cybercalm.org/topic/manipulations/feed/" rel="self" type="application/rss+xml" />
	<link>https://cybercalm.org</link>
	<description>Кіберзахист та технології простою мовою</description>
	<lastBuildDate>Fri, 10 Apr 2026 09:30:57 +0000</lastBuildDate>
	<language>uk</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://cybercalm.org/wp-content/uploads/2025/10/favicon-1.svg</url>
	<title>Маніпуляції в медіа &#8211; CyberCalm</title>
	<link>https://cybercalm.org</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Росія звинуватила колишнього журналіста Радіо Свобода у сприянні кібератакам на користь України</title>
		<link>https://cybercalm.org/fsb-zhurnalist-radio-free-europe-kiberataky-ukrayina/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Fri, 10 Apr 2026 09:00:48 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[Telegram]]></category>
		<category><![CDATA[журналісти]]></category>
		<category><![CDATA[кібератаки]]></category>
		<category><![CDATA[кібербезпека]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[росія]]></category>
		<category><![CDATA[ФСБ]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=164623</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122714/large_radio_free_europe_6f2de8b5d4.jpg" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/fsb-zhurnalist-radio-free-europe-kiberataky-ukrayina/">Росія звинуватила колишнього журналіста Радіо Свобода у сприянні кібератакам на користь України</a></p>
<p>ФСБ затримала колишнього позаштатного журналіста Radio Free Europe за звинуваченням у державній зраді — слідство стверджує, що він передавав СБУ дані, які використовувались для кібератак проти російських об'єктів.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/fsb-zhurnalist-radio-free-europe-kiberataky-ukrayina/">Росія звинуватила колишнього журналіста Радіо Свобода у сприянні кібератакам на користь України</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122714/large_radio_free_europe_6f2de8b5d4.jpg" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/fsb-zhurnalist-radio-free-europe-kiberataky-ukrayina/">Росія звинуватила колишнього журналіста Радіо Свобода у сприянні кібератакам на користь України</a></p>
<p>Федеральна служба безпеки росії (ФСБ) затримала колишнього позаштатного журналіста Радіо Свобода за звинуваченням у державній зраді. За версією слідства, він передавав інформацію Україні, яка нібито використовувалась для кібератак проти російських об&#8217;єктів, — повідомляє <a href="https://therecord.media/russia-accuses-radio-free-europe-journalist-aiding-ukraine-cyberattack" target="_blank" rel="noopener">The Record</a>.<span id="more-164623"></span></p>
<h2>Що відомо про затримання</h2>
<p>Згідно із заявою ФСБ для державних ЗМІ, підозрюваний приєднався до Telegram-каналу, який контролює Служба безпеки України (СБУ), і передав туди інформацію про місцеве друковане видання, що висвітлює війну росії проти України, а також дані про об&#8217;єкт критичної інфраструктури в регіоні. Влада стверджує, що ця інформація була використана для організації кібератак.</p>
<p>Після обшуку вдома підозрюваного правоохоронці вилучили комп&#8217;ютерну техніку та засоби зв&#8217;язку, які ФСБ назвала доказами діяльності, «спрямованої проти безпеки росії». Підозрюваного взяли під варту.</p>
<p><a href="https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122450/znimok-ekrana-2026-04-10-o-12.23.50.png"><img fetchpriority="high" decoding="async" class="aligncenter wp-image-164626 size-large" src="https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122450/znimok-ekrana-2026-04-10-o-12.23.50-1024x620.png" alt="znimok ekrana 2026 04 10 o 12.23.50" width="1024" height="620" title="Росія звинуватила колишнього журналіста Радіо Свобода у сприянні кібератакам на користь України 1" srcset="https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122450/znimok-ekrana-2026-04-10-o-12.23.50-1024x620.png 1024w, https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122450/znimok-ekrana-2026-04-10-o-12.23.50-300x182.png 300w, https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122450/znimok-ekrana-2026-04-10-o-12.23.50-768x465.png 768w, https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122450/znimok-ekrana-2026-04-10-o-12.23.50-1536x930.png 1536w, https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122450/znimok-ekrana-2026-04-10-o-12.23.50-2048x1241.png 2048w, https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122450/znimok-ekrana-2026-04-10-o-12.23.50-860x521.png 860w, https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122450/znimok-ekrana-2026-04-10-o-12.23.50-1320x800.png 1320w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></p>
<p>ФСБ не назвала прізвища затриманого. Утім, незалежне російське видання 7&#215;7 повідомило, що справа, найімовірніше, стосується 65-річного Олександра Андрєєва — журналіста із Забайкальського краю, який співпрацював із кількома місцевими медіа та був дописувачем Радіо Свобода на початку 2010-х років.</p>
<p>Російські силові структури стверджують, що підозрюваний співпрацював із так званими «антиросійськими правозахисними організаціями» і після початку війни з Україною «зайняв чітко проукраїнську позицію».</p>
<p>Радіо Свобода публічно не коментувала затримання. Варто зазначити, що у 2020 році Міністерство юстиції росії визнало видання «іноземним агентом», а у 2025 році прокуратура оголосила його «небажаною організацією», фактично заборонивши діяльність у країні. <strong>Радіо Свобода</strong> (Radio Free Europe/Radio Liberty) — американський медіапроєкт із державним фінансуванням, заснований свого часу з орієнтацією на аудиторію радянських країн-сателітів.</p>
<h2>Обшук у редакції «Новой газеты»</h2>
<p>Того ж дня, в четвер, російські силові структури провели обшук у московській редакції «Новой газеты». Газета підтвердила це у власній заяві, однак влада не розкрила підстав для проведення обшуку.</p>
<p>Джерело у правоохоронних органах, на яке посилається державне агентство РІА Новості, повідомило, що операція пов&#8217;язана зі слідством щодо незаконного використання персональних даних. Інше джерело розповіло агентству ТАРС, що слідчі перевіряють можливі зв&#8217;язки «Новой газеты» з «Новой газетой Европа» — виданням, визнаним в росії «небажаним», — а також з Антивоєнним комітетом росії, якому Москва присвоїла статус терористичної організації.</p>
<h2>Telegram під прицілом ФСБ</h2>
<p>Справа журналіста <strong>Радіо Свобода</strong> — лише остання у серії кримінальних проваджень, пов&#8217;язаних із діяльністю у месенджері Telegram.</p>
<p>На початку цього місяця російські силові структури в окупованому Севастополі затримали місцевого жителя за підозрою у поширенні через платформу закликів до тероризму та екстремізму.</p>
<p>З лютого російська влада відкрила щонайменше три кримінальні справи, пов&#8217;язані з функцією віртуальної валюти Telegram — Telegram Stars. За версією слідства, ця функція використовувалась для фінансової підтримки організацій, заборонених у росії, зокрема Легіону «Свобода росії» — підрозділу, що воює на боці України.</p>
<p>В іншій справі минулого листопада в Москві був заарештований 21-річний підприємець у сфері технологій та фахівець з кібербезпеки. Його звинуватили у державній зраді після того, як він розкритикував у своєму Telegram-каналі державне антикіберзлочинне законодавство та підтримуваний Кремлем месенджер Max.</p>
<p>Попри те що російська влада дедалі активніше намагається обмежити Telegram, месенджер залишається широко використовуваним у країні. Засновник Telegram Павло Дуров заявив минулого тижня, що попри спроби Кремля заблокувати або обмежити сервіс, близько 65 мільйонів росіян щодня користуються додатком — часто через VPN.</p>
<p>«Уся нація мобілізована, аби обійти ці абсурдні обмеження», — написав Дуров у своїй заяві. «Зі свого боку ми продовжуватимемо адаптуватися — робитимемо трафік Telegram складнішим для виявлення та блокування».</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/fsb-zhurnalist-radio-free-europe-kiberataky-ukrayina/">Росія звинуватила колишнього журналіста Радіо Свобода у сприянні кібератакам на користь України</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/04/10122714/large_radio_free_europe_6f2de8b5d4.jpg" />	</item>
		<item>
		<title>Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році</title>
		<link>https://cybercalm.org/informatsijna-zbroya-rosiyi-ta-kytayu-540-fimi-2025/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Sat, 21 Mar 2026 11:00:59 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Китай]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[російська пропаганда]]></category>
		<category><![CDATA[росія]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163816</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/21113037/manipulation.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/informatsijna-zbroya-rosiyi-ta-kytayu-540-fimi-2025/">Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році</a></p>
<p>Служба зовнішніх дій Європейського Союзу (EEAS) опублікувала четвертий щорічний звіт про загрози іноземних інформаційних маніпуляцій та втручань (FIMI). Документ охоплює весь 2025 рік і фіксує безпрецедентне зростання масштабів і складності операцій впливу — насамперед з боку росії та Китаю. Штучний інтелект, сфабриковані ЗМІ та скоординовані мережі фейкових акаунтів стали стандартним інструментарієм гібридної війни в інформаційному [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/informatsijna-zbroya-rosiyi-ta-kytayu-540-fimi-2025/">Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/21113037/manipulation.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/informatsijna-zbroya-rosiyi-ta-kytayu-540-fimi-2025/">Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році</a></p>
<p>Служба зовнішніх дій Європейського Союзу (EEAS) опублікувала <a href="https://euvsdisinfo.eu/eeas-4th-fimi-threat-report-march-2026/" target="_blank" rel="noopener">четвертий щорічний звіт</a> про загрози іноземних інформаційних маніпуляцій та втручань (FIMI). Документ охоплює весь 2025 рік і фіксує безпрецедентне зростання масштабів і складності операцій впливу — насамперед з боку росії та Китаю. Штучний інтелект, сфабриковані ЗМІ та скоординовані мережі фейкових акаунтів стали стандартним інструментарієм гібридної війни в інформаційному просторі.<span id="more-163816"></span></p>
<h2><strong><b>540 інцидентів, 10 500 каналів, 43 000 одиниць контенту</b></strong></h2>
<p>Протягом 2025 року аналітики EEAS виявили та задокументували 540 FIMI-інцидентів. У них було задіяно близько 10 500 унікальних каналів — від сфабрикованих новинних сайтів до акаунтів у соціальних мережах і блогів. Загалом зафіксовано близько 43 000 одиниць контенту (тексти, аудіо, відео) на 19 різних платформах.</p>
<p>Із задокументованих інцидентів 29% атрибутовано росії, 6% — Китаю. Однак 65% випадків залишаються неатрибутованими, хоча демонструють ознаки координації з інфраструктурами, повʼязаними з Москвою чи Пекіном. Обидві держави активно використовують приховані мережі, щоб зберегти «правдоподібне заперечення» своєї причетності і ускладнити розслідування.</p>
<p>Лідером за обсягами контенту залишається платформа X — на неї припадає 88% зафіксованих публікацій. Telegram домінує серед аудиторій Східної Європи, зокрема України, тоді як Facebook широко використовується для операцій, спрямованих на конкретні африканські країни.</p>
<h2><strong><b>ШІ перетворився на стандартний інструмент дезінформації</b></strong></h2>
<p>Одним із ключових висновків звіту стало різке зростання використання штучного інтелекту у FIMI-операціях. Якщо 2024 року ШІ застосовувався у 41 задокументованому інциденті, то 2025-го — вже у 147, тобто зростання становить близько 259%. Загалом ШІ-інструменти задіювалися у кожному четвертому виявленому інциденті.</p>
<p>Генеративні моделі використовуються для масового виробництва текстового контенту на кількох мовах одночасно із застосуванням уніфікованих шаблонів. Синтетичне аудіо перейшло від експериментального формату до стандартного прийому у виробництві відео — зокрема з <a href="https://cybercalm.org/yak-zahystytysya-vid-shahrajstva-z-klonuvannyam-golosu-shtuchnym-intelektom/">клонуванням голосів</a> реальних осіб. ШІ-відео, що видають себе за справжніх людей, стають дедалі переконливішими: їх активно використовували під час молдовських виборів.</p>
<p>Показово, що деякі поширені ШІ-інструменти самі перетворюються на обʼєкт маніпуляцій. Зокрема, підозрюється, що проросійська мережа Portal Kombat («Правда») цілеспрямовано «засмічує» простір низькоякісним багатомовним контентом, щоб вплинути на навчальні дані великих мовних моделей і впровадити фейки до їхніх баз знань. Незважаючи на масштаб, більшість ШІ-генерованого контенту 2025 року залишалася низькоякісною — зловмисники надавали перевагу кількості над якістю, через що органічне залучення аудиторії лишалося низьким.</p>
<h2><strong><b>Україна — головна мішень: три стратегічні наративи Кремля</b></strong></h2>
<p>Четвертий рік поспіль Україна залишається основною мішенню російського інформаційного впливу. Аналітики EEAS виокремили три ключові цілі Кремля:</p>
<ul>
<li><strong>зниження міжнародної підтримки України</strong>. Євросоюз та його керівництво зображуються такими, що «нагрівають руки» на війні та прагнуть її затягнути. Мережа Storm-1516 поширювала постановочні відео з відповідними наративами, тоді як Doppelgänger публікував GIF-анімації та карикатури, що зображали фінансову допомогу Україні «марнуванням коштів».</li>
<li><strong>подання України як агресора</strong>. Офіційні канали Кремля, Фонд боротьби з несправедливістю (R-FBI) та підконтрольні ЗМІ регулярно просували наратив про те, що Україна разом із західними партнерами нібито здійснює провокаційні «операції під хибним прапором» — зокрема щодо атаки дрона на захисний саркофаг Чорнобиля або залізничних диверсій у Польщі.</li>
<li><strong>звинувачення українських біженців у злочинах</strong>. Під час президентських виборів у Польщі та парламентських виборів у Німеччині мережі Operation Overload і Storm-1516 поширювали сфабриковані документи про нібито втручання українців у виборчі процеси та приписували біженцям терористичну діяльність.</li>
</ul>
<p>Українська аудиторія цілеспрямовано отримує контент, покликаний формувати «втому від війни» та підривати довіру до підтримки з боку ЄС. Паралельно африканська аудиторія — переважно франко- і англомовна — отримує матеріали, що зображають Україну співучасницею терористів у Сахелі, а росію — стабілізуючою силою.</p>
<p><a href="https://cdn.cybercalm.org/wp-content/uploads/2026/03/21113135/Znimok-ekrana-2026-03-21-o-11.15.32-e1774087377905.png"><img decoding="async" class="aligncenter wp-image-164028 size-large" src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/21113135/Znimok-ekrana-2026-03-21-o-11.15.32-e1774087377905.png" alt="Znimok ekrana 2026 03 21 o 11.15.32 e1774087377905" width="1024" height="708" title="Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році 3"></a></p>
<h2><strong><b>Вибори як мішень: триетапний сценарій Кремля</b></strong></h2>
<p>У 2025 році росія атакувала виборчі процеси у Німеччині, Польщі, Румунії, Молдові, Чехії та Кот-дʼІвуарі. Звіт фіксує повторювану триетапну схему:</p>
<ol>
<li><strong>Перший етап — за кілька місяців до виборів</strong> — полягає у дискредитації проєвропейських кандидатів через звинувачення у корупції, зловживанні владою, проблемах зі здоровʼям або «підпорядкуванні Брюсселю». Ця тактика застосовувалась щодо Майї Санду і Дорина Речана у Молдові, а також Олафа Шольца, Роберта Габека і Фрідріха Мерца у Німеччині.</li>
<li><strong>Другий етап — під час виборчої кампанії</strong> — передбачає розпалювання внутрішніх розбіжностей: у Німеччині це була тема міграції, у Польщі — антибіженські настрої, у Молдові — звинувачення у цензурі, страх перед «неминучою війною з росією» та економічні претензії до уряду.</li>
<li><strong>Третій етап — безпосередньо перед голосуванням та у день виборів</strong> — спрямований на підрив довіри до виборчого процесу й заохочення до абстенціонізму. У Німеччині та Польщі поширювався контент про нібито заплановані теракти у день виборів.</li>
</ol>
<h2><strong><b>Вірменія — наступна: «молдовський сценарій» переїжджає на Кавказ</b></strong></h2>
<p>Аналітики EEAS прогнозують, що Вірменія залишатиметься одним із головних обʼєктів атак щонайменше до парламентських виборів у червні 2026 року. Єреван ухвалив закон про початок процесу вступу до ЄС, підписав мирну угоду з Азербайджаном без участі Москви і заморозив участь у Організації договору про колективну безпеку (ОДКБ). Росія реагує розгортанням FIMI-інфраструктури, яка раніше працювала проти Молдови.</p>
<p>Зіставлення кампаній проти Санду та прем&#8217;єр-міністра Вірменії Нікола Пашиняна виявляє разючу схожість. Обох лідерів звинувачують у «моральній розпусті» (зокрема, поширювалися безпідставні звинувачення в експлуатації неповнолітніх), корупції та «служінні іноземним інтересам». Окремий наратив — ризик втрати суверенітету: для Молдови це «поглинання Румунією», для Вірменії — «турецько-азербайджанська загроза». Контент нерідко розповсюджується не вірменською чи румунською, а англійською та іншими мовами Західної Європи, що свідчить про ціль ширшу за локальний електорат.</p>
<p>Активність мережі Storm-1516 щодо Вірменії зафіксована ще з квітня 2025 року — більш ніж за рік до дати виборів. Після завершення молдовських виборів обидва основні ІМН (Storm-1516 та Operation Overload) переорієнтували зусилля на вірменський напрямок.</p>
<h2><strong><b>Основні мережі дезінформації: від Doppelgänger до Spamouflage</b></strong></h2>
<p>Звіт детально описує активність провідних інформаційно-маніпуляційних наборів (ІМН). <strong>Doppelgänger</strong> — операція під управлінням санкціонованих ЄС організацій Social Design Agency та Struktura — спеціалізується на імітації легітимних медіа (Der Spiegel, Le Point, Die Welt) і 2025 року розширила аудиторію на івритомовні спільноти. <strong>Storm-1516</strong> (також відомий як CopyCop або False Façade) є єдиним ІМН, здатним генерувати органічне залучення та проникати в справжні публічні дискусії: його контент набирає від 5 000 до 4 мільйонів переглядів.</p>
<p><strong>Portal Kombat («Правда»)</strong>, що видає себе за агрегатор новин, щодня поширює близько 10 000 статей через 101 сайт із основним доменом news.pravda.com. Мережа цілеспрямовано розробляє наративи для етнічних і регіональних меншин — зокрема для жителів Країни Басків, Республіки Сербської та Балкан. <strong>Operation Overload (Матрьошка)</strong> у 2025 році суттєво наростила обсяги, виробляючи до 20 відео на день — загалом понад 700 за рік. Половина її продукції була спрямована проти Вірменії та Молдови.</p>
<p>На китайському напрямку <strong>Spamouflage</strong> активно застосовував ШІ для вдосконалення тактики імітації: мережа маніпулювала відео за допомогою ШІ-інструментів, щоб «підкладати» висловлювання реальним дисидентам. Мережа <strong>Paperwall</strong> здійснила найбільше за всю свою історію розширення — додала 108 нових доменів, охопивши 40 нових країн контентом 15 мовами. Частина цього контенту перекладається з російськомовних державних ЗМІ.</p>
<h2><strong><b>«Плейбук стримування»: як ЄС планує підняти ціну дезінформації</b></strong></h2>
<p>Ключовою новацією четвертого звіту став «<strong>Плейбук стримування FIMI</strong>» — структурований механізм для переходу від реактивного реагування до проактивного тиску на організаторів інформаційних операцій. Концепція спирається на принцип «ланцюга знищення» (kill chain): якщо атаку розкласти на окремі фази — від фінансування і побудови інфраструктури до виробництва та поширення контенту, — на кожному етапі можна застосовувати цілеспрямовані контрзаходи.</p>
<p>Плейбук передбачає чотири групи інструментів. <strong>Санкції спрямовані проти осіб і організацій, причетних до FIMI</strong>, — заморожуючи активи і обмежуючи доступ до послуг. У межах правоохоронного напрямку <strong>кримінальне законодавство та судові рішення</strong> дозволяють вилучати сервери, закривати домени і порушувати кримінальні провадження. <strong>Цифрове регулювання</strong> — зокрема Акт про цифрові послуги (DSA) — зобовʼязує платформи видаляти акаунти та контент, що порушують правила. Нарешті, <strong>побудова стійкості суспільства</strong>: медіаграмотність, стратегічні комунікації та розвиток спроможностей громадянського суспільства поступово знижують ефективність маніпуляцій.</p>
<p>У 2025 році ЄС застосував санкції проти близько 50 фізичних та юридичних осіб у рамках режиму дестабілізуючої діяльності росії — серед них Social Design Agency, Tigerweb і Джон Марк Дуган. У ході операції SIMCARTEL правоохоронці заарештували сімох кіберзлочинців і ліквідували мережу з 49 мільйонів фейкових акаунтів у соціальних мережах та месенджерах.</p>
<h2><strong><b>Прогнози на 2026 рік: більше грошей, більше атак</b></strong></h2>
<p>Бюджет росії на державні ЗМІ у 2026 році зросте до 146,3 млрд рублів (близько 1,56 млрд євро) — на 7% більше, ніж у 2025-му. Аналітики прогнозують посилення активності в інформаційному просторі Балтійського регіону та Арктики. Третій саміт росія — Африка стане майданчиком для нарративів про «багатополярний світ» і деградацію Заходу. Вибори у країнах ЄС — Словенії, Угорщині, Болгарії, Кіпрі, Естонії, Швеції, Латвії та Данії — можуть зіткнутися з аналогічними схемами втручання.</p>
<p>Звіт також фіксує подальше закручування гайок всередині самої росії: більш ніж 1 000 осіб і організацій потрапили під дію законодавства про «іноземних агентів» та «екстремізм», а опозиція до війни дедалі частіше переслідується як «виправдання тероризму». Нещодавно введено штрафи навіть за пошук «екстремістського» контенту в інтернеті.</p>
<h2><strong><b>Замість висновку: FIMI — це проблема безпеки, а не комунікацій</b></strong></h2>
<p>Автори звіту наголошують: FIMI слід розглядати не як комунікаційну проблему, а як питання безпеки зі структурованим ланцюжком постачання. Суто реактивного підходу недостатньо. Запропонований «Плейбук стримування» спрямований на те, щоб зробити інформаційні операції фінансово невигідними, операційно складними та репутаційно ризикованими для їхніх організаторів.</p>
<p>Реалізація цієї стратегії вимагає тісної координації між державами — членами ЄС, правоохоронними органами, платформами та громадянським суспільством. Поки маніпуляції в інформаційному просторі залишаються малоризикованим і дешевим інструментом, вони будуть незмінно присутні в арсеналі гібридної війни.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/informatsijna-zbroya-rosiyi-ta-kytayu-540-fimi-2025/">Інформаційна зброя росії та Китаю: EEAS зафіксувала 540 FIMI-інцидентів у 2025 році</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/03/21113037/manipulation.webp" />	</item>
		<item>
		<title>Індустрія фейків за копійки: звіт НАТО розкриває, як ШІ та крипта допомагають ботофермам</title>
		<link>https://cybercalm.org/industriya-fejkiv-za-kopijky-zvit-nato/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Thu, 05 Mar 2026 13:00:11 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[боротьба з фейками]]></category>
		<category><![CDATA[боти]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[Соцмережі]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163504</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/05120014/research-report-cover1020-636-px-9-0f6e3.png" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/industriya-fejkiv-za-kopijky-zvit-nato/">Індустрія фейків за копійки: звіт НАТО розкриває, як ШІ та крипта допомагають ботофермам</a></p>
<p>Попри запровадження жорстких європейських законів (DSA) та постійні заяви технологічних гігантів про посилення безпеки, ринок маніпуляцій у соціальних мережах не просто живий — він еволюціонує. Центр передового досвіду зі стратегічних комунікацій НАТО (NATO StratCom COE) щороку проводить масштабний експеримент: дослідники самі купують фейкові підписники, лайки, коментарі та перегляди на основних соціальних платформах — щоб перевірити, [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/industriya-fejkiv-za-kopijky-zvit-nato/">Індустрія фейків за копійки: звіт НАТО розкриває, як ШІ та крипта допомагають ботофермам</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/05120014/research-report-cover1020-636-px-9-0f6e3.png" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/industriya-fejkiv-za-kopijky-zvit-nato/">Індустрія фейків за копійки: звіт НАТО розкриває, як ШІ та крипта допомагають ботофермам</a></p>
<p>Попри запровадження жорстких європейських законів (DSA) та постійні заяви технологічних гігантів про посилення безпеки, ринок маніпуляцій у соціальних мережах не просто живий — він еволюціонує.<span id="more-163504"></span></p>
<p>Центр передового досвіду зі стратегічних комунікацій НАТО (NATO StratCom COE) щороку проводить масштабний експеримент: дослідники самі купують фейкові підписники, лайки, коментарі та перегляди на основних соціальних платформах — щоб перевірити, наскільки добре ці платформи здатні виявляти та видаляти неавтентичну активність.</p>
<p>У 2026 році вийшов уже <a href="https://stratcomcoe.org/publications/social-media-manipulation-for-sale-2025-experiment-on-platform-capabilities-to-detect-and-counter-inauthentic-social-media-engagement/338" target="_blank" rel="noopener">шостий звіт</a> цієї серії. Результати тривожні: <a href="https://cybercalm.org/topic/manipulations/">маніпуляції</a> лишаються дешевими та доступними, боти стають розумнішими, а платформи — попри певний прогрес — досі не справляються із проблемою системно.</p>
<h2>Що і як досліджували</h2>
<p>Між вереснем і листопадом 2025 року дослідники зареєстрували <strong>28 підроблених акаунтів</strong> на семи платформах: Facebook, Instagram, X (колишній Twitter), TikTok, YouTube, VKontakte та Bluesky. На цих акаунтах вони публікували 126 постів і купували для них «накрутку» у десяти комерційних провайдерів маніпуляцій з різних куточків світу.</p>
<p>Загальна сума витрат — <strong>€252</strong>. За ці гроші дослідникам доставили:</p>
<ul>
<li>17 553 фейкові коментарі</li>
<li>37 814 лайків</li>
<li>16 025 репостів</li>
<li>27 653 перегляди</li>
</ul>
<p>Сукупно в цих взаємодіях взяли участь <strong>понад 30 000 унікальних підроблених акаунтів</strong>.</p>
<p>Також вперше в рамках цього дослідження було перевірено <strong>рекламні інструменти</strong> платформ: за €130 через куплені фейкові рекламні акаунти вдалося отримати 206 234 перегляди та 200 лайків, а ще за €121 — 17 442 фейкові коментарі під рекламними постами.</p>
<h2>Хто найкраще видаляє ботів: рейтинг соцмереж</h2>
<p>Рівень видалення підроблених акаунтів досяг рекордного показника: в середньому <strong>50,4%</strong> ідентифікованих фейкових акаунтів було видалено впродовж п&#8217;яти тижнів після купівлі. Для порівняння: у 2021 році видаляли лише 20%, у 2024-му — 13%.</p>
<p>Та результати між платформами різняться кардинально:</p>
<table>
<thead>
<tr>
<th>Платформа</th>
<th>Видалено акаунтів</th>
<th>Залишилось фейкової активності</th>
</tr>
</thead>
<tbody>
<tr>
<td>VKontakte</td>
<td>96%</td>
<td>70,35%</td>
</tr>
<tr>
<td>X</td>
<td>82%</td>
<td>43,41%</td>
</tr>
<tr>
<td>YouTube</td>
<td>55%</td>
<td>56,20%</td>
</tr>
<tr>
<td>Bluesky</td>
<td>55%</td>
<td>100%</td>
</tr>
<tr>
<td>Facebook</td>
<td>39%</td>
<td>79,40%</td>
</tr>
<tr>
<td>Instagram</td>
<td>22%</td>
<td>84,03%</td>
</tr>
<tr>
<td>TikTok</td>
<td>4%</td>
<td>68,13%</td>
</tr>
</tbody>
</table>
<p>Попри те, що VKontakte видалив майже всі акаунти, фейкові лайки та коментарі на постах нікуди не зникли — вони лишилися активними. X та YouTube показали найкращий результат у видаленні самої фейкової активності: на X після чотирьох тижнів залишилося лише 43% куплених взаємодій, на YouTube — 56%.</p>
<h2>Скільки коштує обманути алгоритми?</h2>
<p>Набір базових фейкових взаємодій — 100 лайків, 100 коментарів, 1000 переглядів, 100 підписників — коштує від менш ніж €1 до кількох євро залежно від платформи. Bluesky виявився найдешевшим варіантом; X у 2025 році став найдорожчим, але при цьому 156 000 фейкових переглядів там можна купити всього за €10.</p>
<p>Рекламна маніпуляція дорожча й складніша, але теж реальна: дослідники без проблем придбали готові рекламні акаунти для Meta, TikTok та YouTube. На Instagram після 72 годин кількість доставлених фейкових коментарів під рекламою перевищила замовлену <strong>утричі</strong> (340% від очікуваного).</p>
<h2>Штучний інтелект створює ботів нового покоління</h2>
<p>Це, мабуть, найтривожніший висновок звіту. Якщо раніше боти діяли прямолінійно — масово спамили однотипними коментарями й діяли у замкнених мережах між собою — то сучасні підроблені акаунти поводяться принципово інакше.</p>
<p>За даними компанії Cyabra, яка аналізувала поведінку ботів для цього звіту, нова генерація фейкових акаунтів:</p>
<ul>
<li><strong>Вбудовується в реальні дискусії</strong>, коментуючи пости журналістів, інфлюенсерів та публічних осіб — замість того, щоб просто публікувати контент на власних сторінках</li>
<li><strong>Генерує контекстно-доречні коментарі</strong> кількома мовами, які відповідають тону та темі оригінального поста</li>
<li><strong>Підтримує низьку активність</strong> протягом тривалого часу, щоб не привертати увагу систем виявлення</li>
<li><strong>Взаємодіє з реальними користувачами</strong>, а не лише між собою</li>
</ul>
<p>Як приклад у звіті наводиться аналіз онлайн-дискусії навколо інциденту з російським дроном у польському повітряному просторі у вересні 2025 року: серед 3 622 проаналізованих акаунтів <strong>22% виявилися неавтентичними</strong> — і всі вони активно просували наративи, що знімали відповідальність з росії.</p>
<h2>Пропаганда змінює вектор: від локальної політики до армії КНР</h2>
<p>Більшість комерційних ботів, як і раніше, просувають криптовалютні схеми та рекламний спам. Але з кожним роком частка політичного контенту зростає.</p>
<p>У 2025 році дослідники зафіксували <strong>різке збільшення прокитайського контенту</strong>. На Facebook, X, YouTube та TikTok боти з досліджуваної вибірки масово поширювали матеріали, що прославляли військову міць Китаю: відео ракетних пусків, військово-морських операцій, церемоній введення в дію нових кораблів. На X боти репостили публікації з тезою про перевагу китайської армії над американською. На TikTok — контент, що одночасно прославляв армії Китаю та росії.</p>
<p>У VKontakte боти, як і раніше, служать підсилювачем проросійських наративів — зокрема фантазій про «визволення» Аляски та реваншистського контенту з посиланням на «СВО 2.0».</p>
<p>Instagram виявився єдиною платформою, де дослідники не виявили жодного бота, що поширював би політичний чи військовий контент.</p>
<h2>Крипта — фінансовий щит ботоферм</h2>
<p>Усі 10 провайдерів маніпуляцій, з якими працювали дослідники, приймають оплату виключно у криптовалюті — Bitcoin, MATIC або USDT. Фінансова розвідка Латвії, яка брала участь у дослідженні, провела аналіз транзакцій.</p>
<p>Висновки невтішні: з 10 транзакцій лише <strong>4 вдалося простежити від початку до кінця</strong>. Решта 6 проходили через гаманці платіжних посередників (Cryptomus, Heleket), де кошти різних клієнтів змішувалися — і відстежити конкретний грошовий потік стає неможливо без прямої співпраці з цими сервісами або судових запитів.</p>
<p>При цьому обсяги коштів, що обертаються в цій індустрії, вражають. Один провайдер з росії (у звіті — RU1) отримав за 26 місяців близько <strong>265 261 доларів</strong>. Інший, з Великої Британії (UK2), — <strong>123 714 доларів</strong> за 28 місяців.</p>
<p>Крім того, звіт зазначає, що обслуговування гаманця RU1 через Binance потенційно порушує санкційні обмеження ЄС щодо росії (Регламент ЄС №833/2014, стаття 5b(2)).</p>
<h2>ШІ на службі маніпуляторів: автоматизація без меж</h2>
<p>Окремий розділ звіту присвячений перевірці того, наскільки легко сьогодні автоматизувати виробництво та розповсюдження дезінформаційного контенту.</p>
<p>Відповідь: <strong>дуже легко і дуже дешево</strong>.</p>
<p>Дослідники зібрали повністю автоматизований конвеєр: промпти зберігаються у Google Таблицях, ChatGPT генерує текст, Freepik API — зображення та відео, а комерційний оркестратор публікує все це через підроблені акаунти на всіх платформах одночасно. Жодного ручного втручання після початкового налаштування.</p>
<p>За €10 такий конвеєр може виробити <strong>тисячі зображень</strong> або <strong>сотні відео</strong> за допомогою різних ШІ-інструментів (Classic Fast, Flux, Seedream, Gemini 2.5 Flash, Kling тощо).</p>
<h2>Що з цим робити: рекомендації звіту</h2>
<p>Автори звіту пропонують кілька ключових підходів до протидії:</p>
<p><strong>1. Поведінкова детекція замість текстового аналізу.</strong> Виявляти ботів за патернами поведінки — синхронністю дій, структурою зв&#8217;язків між акаунтами, часовими закономірностями — а не лише за вмістом постів.</p>
<p><strong>2. Безперервний моніторинг замість реакції на кампанії.</strong> Відстежувати, як наративи розвиваються з часом і де вони проникають у реальні дискусії.</p>
<p><strong>3. Аналіз цілих розмов, а не окремих постів.</strong> Боти нового покоління ховаються в коментарях під постами реальних людей — їх не видно, якщо аналізувати лише ізольовані публікації.</p>
<p><strong>4. «Простежте за грошима».</strong> Великі фінансові потоки в бік провайдерів маніпуляцій є індикатором стратегічних операцій впливу. Фінансова розвідка має стати частиною аналізу інформаційних загроз.</p>
<p><strong>5. Санкції проти провайдерів маніпуляцій.</strong> Компанії, що пропонують послуги накрутки, мають каратися на рівні регуляторів і платформ.</p>
<h2>Що це означає для звичайних користувачів</h2>
<p>Коли ви бачите публікацію з тисячами лайків — це ще не означає, що її підтримують тисячі реальних людей. Коли під постом журналіста чи відомого блогера з&#8217;являються «стурбовані громадяни» з влучними коментарями — деякі з них можуть бути ШІ-ботами, що навмисно скеровують дискусію в потрібний напрямок.</p>
<p><strong>Ключові ознаки, на які варто звертати увагу:</strong></p>
<ul>
<li>Акаунти без реальної історії або зі штучно виглядаючим контентом</li>
<li>Однотипні або надто «відполіровані» коментарі під гострими темами</li>
<li>Різке збільшення активності під певним контентом за короткий час</li>
<li>Акаунти, що коментують переважно контент публічних осіб, а не ведуть власної діяльності</li>
</ul>
<p>Цифрова грамотність — уміння критично оцінювати те, що бачите в соцмережах — залишається найефективнішим захистом від маніпуляцій, які індустрія вже виробляє у промислових масштабах.</p>
<hr />
<p><em>Повний звіт «Social Media Manipulation for Sale: 2025 Experiment on Platform Capabilities to Detect and Counter Inauthentic Social Media Engagement» підготовлений Центром передового досвіду зі стратегічних комунікацій НАТО (NATO StratCom COE) і <a href="https://stratcomcoe.org/pdfjs/?file=/publications/download/Social-Media-Manipulation-FINAL-FILE.pdf?zoom=page-fit" target="_blank" rel="noopener">опублікований</a> у січні 2026 року. ISBN: 978-9934-619-74-8.</em></p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/industriya-fejkiv-za-kopijky-zvit-nato/">Індустрія фейків за копійки: звіт НАТО розкриває, як ШІ та крипта допомагають ботофермам</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/03/05120014/research-report-cover1020-636-px-9-0f6e3.png" />	</item>
		<item>
		<title>Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій</title>
		<link>https://cybercalm.org/yak-rozpiznaty-ruku-kremlya/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Wed, 04 Mar 2026 13:00:44 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[аналітика]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Кібервійна]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[НАТО]]></category>
		<category><![CDATA[російська пропаганда]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163487</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/04104457/znimok-ekrana-2026-03-04-o-10.44.12.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/yak-rozpiznaty-ruku-kremlya/">Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій</a></p>
<p>Спільна доповідь НАТО та Центру стратегічних комунікацій України розкриває, як науково довести причетність росії до маніпуляцій в інформаційному просторі</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/yak-rozpiznaty-ruku-kremlya/">Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/04104457/znimok-ekrana-2026-03-04-o-10.44.12.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/yak-rozpiznaty-ruku-kremlya/">Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій</a></p>
<p>Дезінформація, фейки, скоординовані кампанії у Telegram — все це давно стало частиною нашої реальності. Але як довести, що за черговим «вірусним» скандалом стоїть саме держава-агресор, а не просто анонімний блогер? Саме цьому присвячена спільна доповідь НАТО StratCom COE та українського Центру стратегічних комунікацій, опублікована у січні 2026 року.<span id="more-163487"></span></p>
<h2>Що таке «атрибуція» і чому вона важлива</h2>
<p><strong>Атрибуція</strong> — це встановлення того, хто саме стоїть за певним контентом або кампанією. У мистецтві так визначають автора картини. У кібербезпеці — автора атаки. В інформаційних операціях — організатора дезінформаційної кампанії.</p>
<p>Чому це важливо? Тому що без доведеної причетності неможливо:</p>
<ul>
<li>вводити санкції проти конкретних медіа чи структур;</li>
<li>захищати рішення про блокування у судах (а росіяни дедалі частіше оскаржують такі рішення юридичним шляхом);</li>
<li>формувати скоординовану відповідь держав, платформ та громадянського суспільства.</li>
</ul>
<p>Із запровадженням в ЄС Закону про цифрові послуги (DSA) та рамки FIMI стандарти доказової бази значно зросли. Тепер атрибуція має витримувати не лише медійну, а й правову перевірку.</p>
<h2>Три кити атрибуції: технічні, поведінкові та контекстуальні докази</h2>
<p>Автори доповіді пропонують Рамкову модель атрибуції інформаційних операцій (IIAF), яка спирається на три категорії доказів.</p>
<h3>Технічні докази: «цифровий слід»</h3>
<p>Це найбільш об&#8217;єктивна категорія. Технічний аналіз вивчає:</p>
<p><strong>Доменну інфраструктуру.</strong> Через сервіс WHOIS можна дізнатися, хто і коли реєстрував домен, який хостинг-провайдер використовується, які IP-адреси. Наприклад, домен <code>fondfbr.ru</code> (пов&#8217;язаний з «Фондом боротьби з репресіями» Пригожина) зареєстрований через REG.RU — реєстратор, який популярний серед проросійських акторів саме тому, що уникає західних механізмів блокування. Важлива деталь: власник домену позначений як «приватна особа», що нетипово для нібито некомерційної організації.</p>
<p><strong>Платформену активність.</strong> Інструмент TGStat дозволяє аналізувати Telegram-канали: кількість підписників, частоту публікацій, показник залученості (ERR). Канал <code>@yurasumy</code> («Світ сьогодні з Юрієм Подолякою») має понад 3 мільйони підписників і ERR 55% — це аномально високий показник. Для каналів такого розміру подібна залученість майже неможлива органічно: вона вказує або на штучне накручування переглядів, або на скоординовану мережу підсилення.</p>
<p><strong>Мережеве картографування.</strong> Аналіз графів пересилань і згадок показує, які канали регулярно поширюють контент одне одного. <code>@yurasumy</code> має тісні зв&#8217;язки з <code>Резидент</code>, <code>Олег Царьов</code>, <code>Осташко! Важливе</code> — всі проросійські. Якщо кілька каналів публікують однаковий пост із різницею в 1–3 хвилини, це майже напевно свідчить про автоматизоване або заздалегідь скоординоване розповсюдження.</p>
<p><strong>Фінансові сигнали.</strong> Найпереконливіші докази — але і найважчодоступніші. Аналіз блокчейн-транзакцій, рекламних ідентифікаторів Google та Meta, записів платіжних систем може виявити спільних операторів за різними ресурсами. Але така інформація здебільшого недоступна у відкритих джерелах.</p>
<h3>Поведінкові докази: як вони діють</h3>
<p>Поведінковий аналіз — це вивчення тактик, технік і процедур (ТТП): не що публікується, а як організована кампанія.</p>
<p><strong>Крос-постинг і «відмивання джерел».</strong> Класичний приклад: 25 квітня 2023 року Telegram-канали, пов&#8217;язані з Кремлем, почали поширювати фейк про бійку між грузинськими та українськими солдатами. Матеріал з&#8217;явився щонайменше на 17 ресурсах, включно з ТАСС, РІА Новости, Lenta.ru. Але ключова деталь: ТАСС опублікував новину <em>раніше</em>, ніж її поставив у своєму Telegram первинний «першоджерело» — пропагандист Андрій Марочко. Це пряме свідчення центрального управління: «першоджерело» було штучним. Коли кілька каналів публікують матеріал з різницею в хвилини — це ознака Скоординованої неавтентичної поведінки (Coordinated Inauthentic Behaviour, CIB), тобто організованих дій із прихованим координаційним центром.</p>
<p><strong>Клонування брендів.</strong> Окрема поширена тактика — створення сайтів і каналів, що імітують відомі медіа: українські регіональні видання, BBC, Укрінформ. Мета — підвищити довіру до фейку за рахунок чужої репутації. У розглянутих кейсах кілька каналів навмисно копіювали стилістику та назви реальних українських медіаресурсів.</p>
<p><strong>Фреймворк DISARM.</strong> Це систематизований інструмент з близько 391 конкретним поведінковим показником для класифікації ТТП. У доповіді він застосовується до кампанії з «анексією Польщею Західної України». Використані методи:</p>
<ul>
<li>Підроблені зображення (фейкові рекламні борди у Варшавському метро з польським генералом і закликом «захистити споконвічні польські землі»)</li>
<li>Маніпулятивне монтування відео (заява президента Дуди про «відкриті кордони» вирвана з контексту і подана як претензії на українські землі)</li>
<li>Імітація авторитетних джерел (відео з логотипом BBC, яке насправді поширювало фейк)</li>
<li>Локалізований контент на кількох мовах: російська, французька, італійська, турецька, чеська</li>
</ul>
<h3>Контекстуальні докази: «навіщо» і «коли»</h3>
<p>Контекстуальний аналіз вивчає наративи, їх зміст, аудиторію та час появи.</p>
<p><strong>Відмивання наративів.</strong> Радянська техніка, модернізована цифровими технологіями. Три стадії:</p>
<ol>
<li><strong>Розміщення</strong> — фейк сіється у нібито приватному акаунті (наприклад, у Instagram колишнього стажера Cartier, яка «бачила», як Олена Зеленська витратила $1,1 млн на прикраси).</li>
<li><strong>Нашарування</strong> — публікацію підхоплюють «схожі на реальні» українські та російські канали.</li>
<li><strong>Інтеграція</strong> — матеріал потрапляє в проросійські ЗМІ як «доказ корупції».</li>
</ol>
<p>Журналісти видання Open згодом встановили, що «стажерка Cartier» — студентка з Санкт-Петербурга без жодного стосунку до компанії.</p>
<p><strong>Часовий аналіз.</strong> Не менш важливо <em>коли</em> з&#8217;являється контент. Аналіз понад 130 тисяч повідомлень про корупцію в Україні (липень–грудень 2023 року) показав: сплески активності чітко збіглися з візитом Зеленського до США у грудні 2023-го. Антимобілізаційні хештеги <code>#ТЦК</code>, <code>#stopTRC</code> активізувалися саме під час закінчення конституційного терміну повноважень президента.</p>
<p><strong>«Пожежний шланг» пропаганди.</strong> росія не намагається бути послідовною — вона перевантажує інформаційний простір суперечливими версіями. Sputnik англійською представляє Україну як корумповану державу, а іспанською — просуває антиамериканський контент і теорії змови щодо вакцин. Мета не переконати, а дезорієнтувати.</p>
<blockquote><p>Читайте також: <a href="https://cybercalm.org/kognityvna-vijna/">Когнітивна війна: головна загроза XXI століття</a></p></blockquote>
<h2>Як оцінити рівень відповідальності держави</h2>
<p>Автори адаптують модель «спектру державної відповідальності» для інформаційних операцій. Вона включає 8 рівнів:</p>
<table>
<thead>
<tr>
<th>Рівень</th>
<th>Характеристика</th>
</tr>
</thead>
<tbody>
<tr>
<td><strong>Держава ігнорує</strong></td>
<td>Знає, але не реагує — бо операція не суперечить її інтересам</td>
</tr>
<tr>
<td><strong>Держава заохочує</strong></td>
<td>Офіційні особи повторюють або схвалюють наративи</td>
</tr>
<tr>
<td><strong>Держава формує</strong></td>
<td>Неформальна координація між чиновниками і акторами операції</td>
</tr>
<tr>
<td><strong>Держава координує</strong></td>
<td>Надає технічну або тактичну підтримку, часто таємно</td>
</tr>
<tr>
<td><strong>Держава наказує</strong></td>
<td>Використовує проксі-структури за прямим дорученням</td>
</tr>
<tr>
<td><strong>Держава виконує</strong></td>
<td>Операція ведеться безпосередньо державними ресурсами</td>
</tr>
</tbody>
</table>
<p>Кожен рівень вимагає різного обсягу доказів — і тягне різні відповіді: від дипломатичного протесту до санкцій та правових заходів.</p>
<h2>Рівні впевненості: чесність в оцінках</h2>
<p>Будь-яка атрибуція — це ймовірність, а не абсолютна істина. Доповідь рекомендує використовувати стандартизовані шкали:</p>
<ul>
<li><strong>Низька впевненість</strong> (20–39%): є окремі сигнали, але їх недостатньо</li>
<li><strong>Помірна впевненість</strong> (40–59%): кілька незалежних індикаторів збігаються</li>
<li><strong>Висока впевненість</strong> (60–79%): сильна конвергенція доказів із різних категорій</li>
<li><strong>Дуже висока впевненість</strong> (80–100%): множинні незалежні докази, без альтернативних пояснень</li>
</ul>
<p>У кейсі з корупційними наративами автори дійшли висновку <strong>з високою впевненістю (&gt;80%)</strong>: кампанія є <strong>сформованою  та скоординованою</strong> з боку російської федерації. При цьому відкрито зазначено, що бракує прямих доказів фінансування чи офіційних наказів — і це підвищує довіру до висновку, а не знижує її.</p>
<h2>Практичний кейс: як розкрили обхід санкцій RT і Sputnik</h2>
<p>Після заборони ЄС у 2022 році RT і Sputnik не зникли — вони просто перейшли на альтернативні домени. Дослідники Institute for Strategic Dialogue викрили це через:</p>
<ol>
<li><strong>WHOIS-дані</strong>: нові домени (наприклад, <code>actualidad-rt.com</code>) зареєстровані одразу після введення санкцій через російські реєстратори</li>
<li><strong>DNS-записи</strong>: ті ж nameserver&#8217;и, що й у заблокованих ресурсів (<code>ns1.rttv.ru</code>)</li>
<li><strong>Google Analytics ID</strong>: однаковий ідентифікатор на «нових» і старих ресурсах — пряме свідчення єдиного оператора</li>
<li><strong>Трафік</strong>: понад 85% відвідувачів обхідних сайтів — з країн ЄС</li>
</ol>
<p>Щоб зменшити хибні спрацювання, кожен домен мав відповідати щонайменше двом технічним критеріям. Результат — виявлена мережа сайтів, розгорнутих паралельно після санкцій.</p>
<h2>Що це означає для звичайного користувача</h2>
<p>Дослідження підтверджує кілька важливих речей:</p>
<p><strong>Фейки не з&#8217;являються самі по собі.</strong> За ними стоять технічна інфраструктура, координація та ресурси. Коли десятки каналів публікують одне й те саме з різницею в хвилини — це не збіг.</p>
<p><strong>«Незалежне джерело» може бути підставним.</strong> Перш ніж довіряти матеріалу, зверніть увагу: хто перший опублікував? Чи є у джерела реальна історія публікацій? Чи не з&#8217;явилося воно ніби «з нічого»?</p>
<p><strong>Тематика корупції — улюблена мішень.</strong> Якщо ви бачите вірусне обвинувачення на адресу українських чиновників, особливо під час важливих подій (голосування в Раді, візити до союзників, мобілізаційні рішення) — перевіряйте особливо ретельно.</p>
<p><strong>TikTok — нове поле бою.</strong> Антимобілізаційні кампанії в Україні цілеспрямовано використовували TikTok, бо ця платформа охоплює аудиторію 18–55 років і спирається не на аргументи, а на емоційний вплив. Окрему загрозу становить використання генеративного ШІ: дослідники фіксують дедалі більше кампаній, де відео- та аудіоконтент для TikTok створюється автоматично — включно з діпфейками реальних осіб. Якою б складною не була така операція, вона завжди залишає технічні та поведінкові сліди — і саме їх навчають виявляти описані в доповіді методи.</p>
<h2>Що рекомендують автори доповіді</h2>
<p>Для дослідників, журналістів і державних органів:</p>
<ul>
<li><strong>Прозорість і стандартизація</strong>: кожне твердження атрибуції має супроводжуватися рівнем впевненості і поясненням доказової бази</li>
<li><strong>Доступ до даних платформ</strong>: без відкриття API великих платформ якість розслідувань падає (обмеження Meta і Twitter/X у 2024–2025 роках суттєво ускладнили роботу)</li>
<li><strong>Уніфікована мова</strong>: терміни «держава заохочує», «держава координує», «держава виконує» мають стати стандартом для однозначного розуміння між урядами та платформами</li>
<li><strong>Превентивний аналіз</strong>: відстежувати чутливі теми в режимі реального часу, щоб фіксувати аномальні сплески <em>до</em> того, як кампанія досягне масштабу</li>
</ul>
<h2>Висновок</h2>
<p>Атрибуція інформаційних операцій — це не магія і не суб&#8217;єктивна думка. Це системна робота з технічними даними, поведінковими патернами та контекстом. Жоден окремий індикатор не є вирішальним, але сукупність незалежних доказів з різних категорій дозволяє з високою впевненістю встановити: за конкретною кампанією стоїть держава.</p>
<p>Росія не припинила інформаційну агресію — вона адаптується. Але і інструменти виявлення стають точнішими. Знати про них — перший крок до стійкості.</p>
<hr />
<p><em>Матеріал підготовлено на основі доповіді «<a href="https://stratcomcoe.org/publications/attributing-russian-information-influence-operations-testing-the-information-influence-attribution-framework-with-real-world-case-studies/340" target="_blank" rel="noopener">Attributing Russian Information Influence Operations</a>» (NATO StratCom COE &amp; Центр стратегічних комунікацій України, січень 2026 р.)</em></p>
<p><em>Якщо ви виявили підозрілий контент або скоординовану кампанію — повідомляйте до <a style="cursor: pointer !important; user-select: none !important;" href="https://cpd.gov.ua/" target="_blank" rel="noopener">Центру протидії дезінформації</a>.</em></p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/yak-rozpiznaty-ruku-kremlya/">Як розпізнати «руку Кремля»: методи виявлення та атрибуції російських інформаційних операцій</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/03/04104457/znimok-ekrana-2026-03-04-o-10.44.12.webp" />	</item>
		<item>
		<title>Когнітивна війна: головна загроза XXI століття</title>
		<link>https://cybercalm.org/kognityvna-vijna/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Tue, 03 Mar 2026 13:00:09 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Кібервійна]]></category>
		<category><![CDATA[Когнітивна війна]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[НАТО]]></category>
		<category><![CDATA[пропаганда]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163456</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/02181325/znimok-ekrana-2026-03-02-o-18.11.29.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/kognityvna-vijna/">Когнітивна війна: головна загроза XXI століття</a></p>
<p>Поле бою більше не обмежується сушею, морем, повітрям чи кіберпростором. Найзапекліші бої розгортаються безпосередньо у людському мозку — і ця війна вже йде. Організація НАТО з науки і технологій опублікувала масштабний звіт, який пояснює, як виглядає битва за людську свідомість і що кожен із нас може зробити для захисту. Уявіть зброю, яка не вибухає і [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/kognityvna-vijna/">Когнітивна війна: головна загроза XXI століття</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/03/02181325/znimok-ekrana-2026-03-02-o-18.11.29.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/kognityvna-vijna/">Когнітивна війна: головна загроза XXI століття</a></p>
<p>Поле бою більше не обмежується сушею, морем, повітрям чи кіберпростором. Найзапекліші бої розгортаються безпосередньо у людському мозку — і ця війна вже йде. Організація НАТО з науки і технологій опублікувала масштабний звіт, який пояснює, як виглядає битва за людську свідомість і що кожен із нас може зробити для захисту.<span id="more-163456"></span></p>
<p>Уявіть зброю, яка не вибухає і не залишає слідів. Вона не руйнує будинки — вона руйнує довіру. Не вбиває людей — а змушує їх самих робити те, що вигідно ворогу. Саме таку зброю описує <a href="https://www.sto.nato.int/document/cognitive-warfare/" target="_blank" rel="noopener">новий звіт Головного науковця НАТО</a>, присвячений когнітивній війні.</p>
<p>Документ підготовлений Організацією НАТО з науки і технологій (STO) і адресований найвищому керівництву Альянсу. Але головне в ньому — не військові секрети. Головне — те, що відбувається прямо зараз з кожним із нас.</p>
<h2>Більше, ніж просто пропаганда</h2>
<p>Когнітивну війну часто плутають із традиційними психологічними операціями (PsyOps) або інформаційними кампаніями (InfoOps). Звіт НАТО чітко розмежовує ці поняття.</p>
<p>Якщо класична пропаганда намагається нав&#8217;язати певну точку зору, то когнітивна війна має ширшу і темнішу мету — маніпуляція самими пізнавальними процесами для порушення, підриву або зміни того, як людина приймає рішення. НАТО визначає її як боротьбу за когнітивну перевагу.</p>
<p>Від звичних інфо-кампаній вона відрізняється за кількома ключовими ознаками. Вона не обов&#8217;язково має конкретну цільову аудиторію — мішенню стає все суспільство одночасно. Вона не є суто військовою проблемою. Вона часто спрямована на створення хаосу і розколу нижче порогу збройного конфлікту, методично підриваючи довіру до інститутів, науки і одне до одного.</p>
<p>Ще у V столітті до нашої ери Сунь-Цзи писав: «Весь секрет полягає в тому, щоб збити ворога з пантелику, аби він не зміг розгадати наш справжній намір». Сьогодні цей принцип реалізується через алгоритми соцмереж і deepfake-відео.</p>
<h2>Україна як доказ</h2>
<p>Звіт НАТО прямо вказує, що повномасштабне вторгнення росії 24 лютого 2022 року стало вододілом у розумінні когнітивної війни. Ще до початку активних бойових дій росія роками використовувала суперечливі наративи та операції під фальшивим прапором, щоб дестабілізувати ситуацію й впливати на рішення Заходу.</p>
<p>Але головний висновок для військових стратегів такий: сучасна міждержавна війна — це одночасно жорстока війна на виснаження з величезними людськими втратами і війна за людський розум через доступ до цифрових технологій. Когнітивний вимір став повноцінним театром бойових дій. І суспільство в ньому — не пасивна жертва, а активний учасник.</p>
<h2>Технологія як зброя масового ураження розуму</h2>
<p>Чому когнітивна війна стала настільки небезпечною саме зараз? Відповідь — у технологіях.</p>
<p>Гіперконективність перетворила кожний смартфон на потенційний вектор атаки. Ворог використовує цифрові інструменти на кількох рівнях одночасно.</p>
<p><strong>Збір даних (OSINT/SOCMINT).</strong> Аналіз <a href="https://cybercalm.org/yak-zmenshyty-tsyfrovyj-slid-ta-zahystyty-osobysti-dani-porady/">цифрового сліду</a> мільйонів людей дозволяє виявляти їхні страхи, упередження та емоційні тригери.</p>
<p><strong>Мікротаргетинг.</strong> Персоналізовані інформаційні «бомби», створені на основі цих даних, діють точно на підсвідомість конкретної людини.</p>
<p><strong>Генерація контенту у промислових масштабах.</strong> ШІ дозволяє виробляти фейкові тексти, відео та аудіо настільки швидко і якісно, що межа між правдою і брехнею стає непомітною.</p>
<p>Мішенню є не лише солдат чи генерал. Мішенню є кожен із нас. Підрив віри у верховенство права, демократичні інститути та одне в одного — ось кінцева мета агресора.</p>
<h2>Три рівні атаки: як це відбувається</h2>
<p>Науковці НАТО систематизували когнітивні атаки за рівнями впливу.</p>
<p><strong>Індивідуальний.</strong> Зміна установок, переконань і поведінки конкретної людини. Кожен із нас щодня потрапляє під вплив алгоритмів, що формують наш інформаційний простір і непомітно підштовхують до певних висновків.</p>
<p><strong>Груповий.</strong> Підрив довіри між людьми, створення поляризації, розпалювання конфліктів між різними суспільними групами. Коли у вашій стрічці раптом побільшало контенту, що ділить суспільство на «своїх» і «чужих» — це не завжди випадковість.</p>
<p><strong>Суспільний.</strong> Атака на демократичні цінності, верховенство права, суспільний договір між громадянами і державою. Мета — зруйнувати саму основу, на якій тримається інституційна довіра.</p>
<h2>«Модель будинку»: як НАТО будує захист</h2>
<p>Щоб протистояти цим загрозам, STO ініціювала понад 20 дослідницьких програм, об&#8217;єднавши більше 200 експертів з 26 країн-союзників. Фахівці розробили «Модель будинку» — системний фреймворк із семи науково-технологічних напрямів.</p>
<p>Чотири «перекладини» — це наскрізні напрями, що підсилюють усю конструкцію: ситуаційна обізнаність та сенс-мейкінг, розуміння когнітивних ефектів атак, аналіз методів і тактик противника, та технологічні підсилювачі — ШІ, великі дані, нейробіологія.</p>
<p>Три «стовпи» — це фундаментальні наукові галузі: <strong>когнітивна нейронаука</strong> (як мозок приймає рішення), <strong>поведінкова психологія</strong> (довіра, емоції, комунікація) та <strong>соціально-культурна наука</strong> (які суспільні фактори роблять націю стійкою або вразливою).</p>
<p>Уся ця конструкція стоїть на правовій та етичній основі НАТО — Альянс підходить до когнітивної війни виключно з оборонних позицій.</p>
<h2>Цикл OODA: де ховається вразливість</h2>
<p>У звіті також описується механізм, через який когнітивні атаки впливають на прийняття рішень. Йдеться про цикл OODA — Спостерігай, Орієнтуйся, Вирішуй, Дій — класичну модель військового стратега Джона Бойда.</p>
<p>Кожен із нас постійно проходить цей цикл: отримуємо інформацію, осмислюємо її через фільтр попереднього досвіду та культурних установок, приймаємо рішення і діємо. Когнітивна атака цілеспрямовано «ламає» цей цикл — підкидаючи фейкові дані на вході, спотворюючи фільтри сприйняття або перевантажуючи людину суперечливою інформацією так, що вона взагалі втрачає здатність діяти.</p>
<h2>Три кити оборони Альянсу</h2>
<p>У стратегічному плані відповідь НАТО будується на трьох цілях.</p>
<p><strong>Деградація можливостей противника</strong> — зменшити здатність ворога впливати на поведінку громадян країн Альянсу, виявляти і нейтралізувати когнітивні операції до того, як вони досягнуть масштабу.</p>
<p><strong>Покращення людського і технологічного пізнання</strong> — використання ШІ та інших технологій для підвищення здатності людей аналізувати інформацію, розпізнавати маніпуляції і приймати зважені рішення.</p>
<p><strong>Стійкість (resilience)</strong> — здатність суспільства витримувати когнітивні удари, зберігати функціональність і швидко відновлюватися після атак.</p>
<h2>Що це означає для кожного з нас</h2>
<p>Звіт НАТО однозначно підкреслює: когнітивна війна — це не лише військова проблема. Це проблема кожного громадянина. Деякі експерти вже стверджують, що ми живемо в епоху безперервної прихованої війни, яка ведеться нижче порогу збройного конфлікту, але з катастрофічними наслідками для суспільної тканини.</p>
<p>Кілька практичних принципів когнітивної самооборони.</p>
<p><strong>Медіаграмотність — це базова гігієна.</strong> Вміння розпізнавати маніпулятивний контент і перевіряти джерела стало таким само необхідним, як миття рук.</p>
<p><strong>Емоція — улюблений інструмент атаки.</strong> Контент, що <a href="https://cybercalm.org/rage-baiting-v-ukrayini/">викликає гнів</a>, страх або обурення, поширюється найшвидше — і саме на це розраховують. Зробіть паузу, перш ніж репостити.</p>
<p><strong>Довіра — стратегічний ресурс.</strong> Коли ви бачите контент, що посилює розкол між групами, — запитайте себе: кому це вигідно?</p>
<p><strong>Інституційна недовіра — не випадковий ефект, а ціль.</strong> Підрив довіри до держави, науки, медіа та одне до одного — це не наслідок, а завдання когнітивної операції.</p>
<p><strong>Критичне мислення — особистий захисний екран.</strong> У світі, де ваш мозок є полем битви, здатність мислити самостійно стає питанням національної безпеки.</p>
<h2>Висновок: війна, в якій кожен є солдатом</h2>
<p>Когнітивна війна вже йде. Вона не оголошується і не має чітких кордонів. Вона ведеться у вашій стрічці новин, у групових чатах, у коментарях під матеріалами.</p>
<p>НАТО вкладає значні ресурси в те, щоб зрозуміти цю загрозу і протистояти їй на рівні Альянсу. Але найефективніший захист починається не у військових штабах — а з критичного мислення кожного з нас.</p>
<p>Відтепер кібербезпека — це не лише про захист серверів і паролів. Це про захист вашого права на власні думки.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/kognityvna-vijna/">Когнітивна війна: головна загроза XXI століття</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/03/02181325/znimok-ekrana-2026-03-02-o-18.11.29.webp" />	</item>
		<item>
		<title>Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією</title>
		<link>https://cybercalm.org/chomu-telegram-kanaly-nebezpechni-yak-dzherelo-novyn/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Tue, 24 Feb 2026 09:00:18 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[RSS]]></category>
		<category><![CDATA[Telegram]]></category>
		<category><![CDATA[Вибір редакції]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[ЗМІ]]></category>
		<category><![CDATA[кібергігієна]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[Месенджери]]></category>
		<category><![CDATA[новини]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=163255</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23170153/dark-telegram.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/chomu-telegram-kanaly-nebezpechni-yak-dzherelo-novyn/">Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією</a></p>
<p>З початком повномасштабного вторгнення Telegram став головним джерелом інформації для мільйонів українців. Швидкість появи повідомлень про ракетні удари чи події на фронті створила ілюзію тотального контролю над ситуацією. Проте з часом ця «швидкість» перетворилася на зброю, спрямовану проти нас самих. Сьогодні Telegram-канали — це здебільшого не про новини, а про бізнес, маніпуляції та вороже ІПСО. [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/chomu-telegram-kanaly-nebezpechni-yak-dzherelo-novyn/">Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23170153/dark-telegram.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/chomu-telegram-kanaly-nebezpechni-yak-dzherelo-novyn/">Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією</a></p>
<p>З початком повномасштабного вторгнення Telegram став головним джерелом інформації для мільйонів українців. Швидкість появи повідомлень про ракетні удари чи події на фронті створила ілюзію тотального контролю над ситуацією. Проте з часом ця «швидкість» перетворилася на зброю, спрямовану проти нас самих.<span id="more-163255"></span></p>
<p>Сьогодні Telegram-канали — це здебільшого не про новини, а про бізнес, маніпуляції та вороже ІПСО. Чому звичка гортати стрічку ТГ-каналів стала небезпечною — і як інформаційна гігієна може захистити і ваш спокій, і вашу безпеку?</p>
<h2>Анонімність без відповідальності</h2>
<p>Головна структурна вада Telegram-каналів як джерела новин — відсутність редакційної відповідальності. Більшість популярних новинних каналів в Україні є анонімними: ми не знаємо, хто їхній власник, хто пише тексти і які цілі він переслідує. Ця анонімність породжує абсолютну безвідповідальність.</p>
<p>Будь-хто може створити канал із назвою на кшталт «Оперативні новини України» чи «Зведення з фронту», набрати аудиторію через накрутки або рекламу — і публікувати що завгодно. Справжні ЗМІ мають ліцензії, несуть юридичну відповідальність за публікації, підписані конкретними авторами. Telegram-канал — анонімний голос без обличчя, без адреси і без можливості звернутися з претензією.</p>
<h2>Токсична кухня Telegram: як нами маніпулюють</h2>
<p><strong>Вкиди та фейки заради охоплень.</strong> Алгоритм заробітку в Telegram простий: більше підписників і переглядів — дорожча реклама. Щоб утримувати увагу, адміністратори часто нехтують фактчекінгом. Гучний, емоційний, хайпуючий заголовок завжди збере більше реакцій, ніж суха правда. Якщо новина виявиться фейком, канал просто видалить пост або тихо напише спростування — але лайки та репости він уже отримав.</p>
<p><strong>Проплачені пости (джинса) та «інсайди».</strong> Анонімність дозволяє публікувати що завгодно за гроші — від «чорного піару» проти бізнес-конкурентів до політичних маніпуляцій. Окремий жанр — так звані «інсайди з кабінетів влади», які неможливо перевірити і які нерідко пишуться безпосередньо в російських спецслужбах для дестабілізації ситуації в Україні. Рекламний ринок у Telegram-каналах оцінюється в десятки мільйонів гривень на рік, при цьому законодавство про рекламу тут фактично не виконується.</p>
<p><strong>Російські боти в коментарях.</strong> Коментарі під постами у великих українських пабліках — це справжнє поле бою. Російські ботоферми масово використовують їх для нагнітання паніки та розпалювання ненависті між українцями — між військовими та цивільними, між тими, хто виїхав, і тими, хто лишився. Людина, яка регулярно читає такі коментарі, підсвідомо починає вірити, що «все пропало». СБУ та CERT-UA неодноразово фіксували й блокували мережі Telegram-каналів, пов&#8217;язаних із ФСБ і ГРУ, які маскувалися під «незалежні» джерела новин із аудиторією від кількох тисяч до сотень тисяч підписників.</p>
<p><strong>Накрутка реакцій і «спіраль мовчання».</strong> Бачили новину про успіхи ЗСУ, під якою стоять тисячі «дизлайків» і «клоунів»? Або навпаки — панічний пост із тисячами вподобайок? Це інструмент психологічного тиску. Боти накручують певні реакції, щоб створити у читача хибне враження «думки більшості». Це явище дістало назву «спіраль мовчання»: людина бачить, що її справжні емоції нібито не збігаються з реакцією суспільства, починає сумніватися в собі — і відчуває ще більшу тривогу. Технічно накрутка 10 000 переглядів коштує кілька доларів на спеціалізованих біржах, тому «популярність» каналу не свідчить ні про достовірність, ні про реальний інтерес аудиторії.</p>
<h2>Приклади дезінформації через Telegram-канали</h2>
<p>Історія українського сегменту Telegram повна прикладів того, як інформаційні маніпуляції грали на руку ворогу.</p>
<p><strong>Фейкові «наступи з Білорусі».</strong> Регулярні вкиди на початку війни про те, що «завтра о 4 ранку підуть колони на Київ» — публікувалися виключно для того, щоб люди в паніці пересилали пост друзям і підписувалися на канал-джерело.</p>
<p><strong>Маніпуляції з мобілізацією.</strong> Публікація вирваних з контексту або відверто змонтованих відео з ТЦК — без зазначення дати та місця, з агресивними коментарями ботів. Мета — зрив мобілізації та підрив довіри до армії. Паралельно регулярно з&#8217;являлись фейкові «витоки наказів», «секретних списків» і «нових правил», більшість із яких виявлялися сфабрикованими.</p>
<p><strong>«Енергетичний терор».</strong> Взимку 2022–2023 років каналами ширилися фейкові графіки відключень і повідомлення про «повний блекаут на тиждень», підкріплені рекламою генераторів та павербанків. Це спричиняло хаос і підривало довіру до реальних операторів.</p>
<p><strong>Мережі ГРУ під виглядом аналітики.</strong> Канали на кшталт «Легитимный», «Резидент» та їм подібні маскуються під українські аналітичні пабліки, але кіруються ГРУ РФ — це офіційно підтверджено СБУ. Вони системно просувають російські наративи під виглядом «секретних інсайтів».</p>
<p><strong>Фейкові фото руйнувань.</strong> Канали публікували знімки руйнувань з інших країн або зі старих подій, видаючи їх за свіжі удари по українських містах — виключно заради масової тривоги та дезорієнтації.</p>
<h2>Чому Telegram небезпечний для українців вцілому</h2>
<p>Окрім якості новин, є ще одна критична проблема: Telegram — це платформа з глибокими зв&#8217;язками з росією.</p>
<p>За замовчуванням переписка та канали в Telegram <strong>не мають наскрізного шифрування</strong> — end-to-end encryption працює лише в «<a href="https://cybercalm.org/yak-stvoryty-sekretnyj-chat-u-telegram/">секретних чатах</a>» між двома людьми. Попри заяви Павла Дурова про незалежність, сервери, інвестори та технічна команда платформи мають задокументовані зв&#8217;язки з росією, а законодавство рф надає ФСБ широкі механізми доступу до даних користувачів.</p>
<p>Навіть без прямого доступу до змісту переписки ворог може аналізувати <strong>метадані</strong>: хто, де, коли і з ким спілкується, які канали читає, в яких чатах перебуває. Для військовослужбовців, працівників ОПК і державних службовців використання Telegram є прямою загрозою особистій і службовій безпеці. Арешт Дурова у Франції в серпні 2024 року у справі про недостатню модерацію незаконного контенту ще раз привернув міжнародну увагу до проблем із прозорістю платформи.</p>
<h2>Альтернатива є: RSS-рідер — ваш персональний інформаційний бункер</h2>
<p>Якщо Telegram — це галасливий і брудний ринок, де в обличчя кричать сумнівні продавці, то RSS-рідер — це тиха бібліотека, де лежать лише ті книги, які ви самі замовили. Адже RSS — це і є той самий &#8220;<a href="https://cybercalm.org/smert-rss-tse-smert-spravzhnogo-internetu/">справжній інтернет</a>&#8220;.</p>
<p>RSS-рідер — це програма або вебсервіс, що збирає статті з обраних вами сайтів в єдину зручну стрічку. Серед найкращих варіантів — <strong>Feedly</strong>, <strong>Inoreader</strong> і <strong>NewsBlur</strong>. Усі вони мають безкоштовні версії і мобільні додатки для iOS та Android.</p>
<p>Переваги такого підходу очевидні.</p>
<p><strong>Ви — головний редактор:</strong> жодних алгоритмів, що підсовують шок-контент чи рекламу. Ви бачите лише те, що опублікували сайти, на які свідомо підписалися.</p>
<p><strong>Надійні джерела замість анонімів:</strong> авторитетне ЗМІ підписує матеріали авторами, несе юридичну відповідальність і зберігає архів, де завжди можна перевірити, що і коли було написано.</p>
<p><strong>Здоров&#8217;я психіки:</strong> жодних нав&#8217;язливих сповіщень щосекунди, жодних накручених реакцій, жодних токсичних коментарів. Тільки текст, факти й аналітика.</p>
<p><strong>Економія часу:</strong> ви читаєте новини тоді, коли вам зручно — наприклад, вранці й увечері, переглядаючи заголовки дійсно важливих подій, а не інформаційний спам.</p>
<p>Що варто додати до свого RSS-рідера насамперед: серед українських ЗМІ — Суспільне, Українська правда, hromadske.ua, Babel, LB.ua, LIGA.net, Texty.org.ua, NV.ua; як первинні джерела — офіційні сайти Генштабу ЗСУ, ДСНС, Кабінету Міністрів.</p>
<p>Ось, наприклад, так виглядає наша редакційна підбірка технологічних медіа у Feedly:</p>
<p><a href="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08.png"><img decoding="async" class="aligncenter wp-image-163258 size-large" src="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-1024x623.png" alt="znimok ekrana 2026 02 23 o 16.53.08" width="1024" height="623" title="Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією 5" srcset="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-1024x623.png 1024w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-300x183.png 300w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-768x467.png 768w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-1536x935.png 1536w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-2048x1246.png 2048w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-860x523.png 860w, https://cdn.cybercalm.org/wp-content/uploads/2026/02/23165411/znimok-ekrana-2026-02-23-o-16.53.08-1320x803.png 1320w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></p>
<p>Почніть з 5–10 джерел — цього цілком достатньо, щоб бути реально поінформованою людиною без інформаційного перевантаження.</p>
<h2>Медіаграмотність як зброя</h2>
<p>Ми маємо вигравати не лише на полі бою, але й в інформаційній війні. Перший крок до перемоги у власному розумі — це усвідомлений вибір на користь якості інформації над її кількістю.</p>
<p>Кілька простих правил допоможуть захиститися від маніпуляцій: перевіряти будь-яку важливу новину в кількох незалежних офіційних джерелах перед тим, як ділитися нею; звертати увагу на наявність підпису автора та дати публікації; ставитися з підвищеним скептицизмом до матеріалів, що викликають сильну емоційну реакцію — страх, обурення, ейфорію. І пам&#8217;ятати: анонімний канал із сотнями тисяч підписників — це не свідчення достовірності, а лише ознака ефективної накрутки або вдалої рекламної кампанії.</p>
<p>Відписка від анонімних Telegram-каналів, що живляться вашою тривогою, — це не відмова від інформації. Це повернення контролю над нею. Чистий інформаційний простір є запорукою психологічної стійкості, а стійкість — однією з умов нашої перемоги.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/chomu-telegram-kanaly-nebezpechni-yak-dzherelo-novyn/">Чому Telegram-канали небезпечні як джерело новин і як повернути контроль над інформацією</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2026/02/23170153/dark-telegram.webp" />	</item>
		<item>
		<title>Маніпулювання у соцмережах: як, для чого та за скільки впливають на вашу думку?</title>
		<link>https://cybercalm.org/manipulyuvannya-u-sotsmerezhah-yak-dlya-chogo-ta-za-skilky-vplyvayut-na-vashu-dumku/</link>
		
		<dc:creator><![CDATA[Олена Кожухар]]></dc:creator>
		<pubDate>Tue, 13 Jan 2026 13:00:42 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA["фабрика тролів"]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Instagram]]></category>
		<category><![CDATA[Twitter]]></category>
		<category><![CDATA[YouTube]]></category>
		<category><![CDATA[безпека в мережі]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[Соцмережі]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=99834</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2018/12/06122236/instagram-photo-3.jpg" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/manipulyuvannya-u-sotsmerezhah-yak-dlya-chogo-ta-za-skilky-vplyvayut-na-vashu-dumku/">Маніпулювання у соцмережах: як, для чого та за скільки впливають на вашу думку?</a></p>
<p>Соціальні мережі стали невід&#8217;ємною частиною нашого життя, відкривши нові горизонти для спілкування, обміну інформацією та самовираження. Проте, з іншого боку, вони стали потужним інструментом для маніпулювання думкою людей. У цій статті розглянемо, як це працює, чому це роблять і якою є вартість подібних впливів. Як маніпулюють у соціальних мережах? Маніпуляції у соцмережах відбуваються через різні [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/manipulyuvannya-u-sotsmerezhah-yak-dlya-chogo-ta-za-skilky-vplyvayut-na-vashu-dumku/">Маніпулювання у соцмережах: як, для чого та за скільки впливають на вашу думку?</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/olga_sem/">Олена Кожухар</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2018/12/06122236/instagram-photo-3.jpg" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/manipulyuvannya-u-sotsmerezhah-yak-dlya-chogo-ta-za-skilky-vplyvayut-na-vashu-dumku/">Маніпулювання у соцмережах: як, для чого та за скільки впливають на вашу думку?</a></p>
<p>Соціальні мережі стали невід&#8217;ємною частиною нашого життя, відкривши нові горизонти для спілкування, обміну інформацією та самовираження. Проте, з іншого боку, вони стали потужним інструментом для маніпулювання думкою людей. У цій статті розглянемо, як це працює, чому це роблять і якою є вартість подібних впливів.<span id="more-99834"></span></p>
<h2><strong>Як маніпулюють у соціальних мережах?</strong></h2>
<p>Маніпуляції у соцмережах відбуваються через різні прийоми та технології, які впливають на нашу підсвідомість і сприйняття. Ось кілька основних способів:</p>
<h3><strong>1. Алгоритми стрічки новин</strong></h3>
<p>Соцмережі, як-от Facebook, Instagram чи TikTok, використовують алгоритми для показу контенту, який, на їхню думку, вам найбільш цікавий. Проблема в тому, що ці алгоритми можуть обмежувати різноманітність інформації та створювати так звані <em>«інформаційні бульбашки»</em>.</p>
<p><strong>Що це означає?</strong> Ви отримуєте тільки той контент, який відповідає вашим уподобанням, підтверджуючи вашу точку зору і віддаляючи від альтернативних думок.</p>
<h3><strong>2. Фейкові новини та дезінформація</strong></h3>
<p>Соцмережі часто стають платформою для поширення неправдивої інформації. Фейкові новини використовують емоційно насичені заголовки, щоб привернути увагу і викликати обурення, страх чи підтримку певних ідей.</p>
<h3><strong>3. Таргетована реклама</strong></h3>
<p>Дані, які соцмережі збирають про вас (вік, інтереси, місцезнаходження), використовуються для створення персоналізованої реклами. Вона може бути настільки точною, що здається, ніби «читає ваші думки».</p>
<p><strong>Наприклад</strong>: якщо ви цікавитеся здоровим харчуванням, вам можуть показувати рекламу, яка критикує конкурента, що нібито порушує стандарти безпеки.</p>
<h3><strong>4. Боти та тролі</strong></h3>
<p>Боти — це автоматизовані акаунти, які створюють і поширюють певні повідомлення. Їх мета — посилити або підірвати підтримку певних ідей.</p>
<p>Тролі — це реальні люди, які отримують оплату за те, щоб провокувати конфлікти в коментарях чи маніпулювати дискусіями.</p>
<blockquote><p>Читайте також: <a href="https://cybercalm.org/rage-baiting-v-ukrayini/" rel="bookmark">Rage-baiting в Україні: маніпулювання гнівом заради кліків</a></p></blockquote>
<h3><strong>5. Використання мікровпливу</strong></h3>
<p>Інфлюенсери (відомі користувачі соцмереж) часто співпрацюють з компаніями чи політичними силами, просуваючи певні ідеї під виглядом власної думки.</p>
<h2>Для чого накручують &#8220;лайки&#8221;?</h2>
<p>Якщо ви передивляєтеся різні сторінки в Instagram, обліковий запис з сотнями тисяч підписників, лайків та коментарів, швидше за все, зацікавить вас набагато більше, ніж інші непопулярні сторінки. Свідомо чи ні, людині стає цікаво, чим викликаний такий інтерес.</p>
<p>Але насправді все це цілком може бути не зовсім правдою. Лайки, коментарі та підписників легко можна купити онлайн.</p>
<p>Масштаб проблеми виходить далеко за межі сфабрикованої популярності окремих осіб. Маніпуляції можуть мати різні форми і цілі. Наприклад, це може бути спроба втрутитися у вибори якоїсь держави.</p>
<blockquote><p>Читайте також: <a href="https://cybercalm.org/yak-rozpiznaty-fejkovi-novyny-stvoreni-shtuchnym-intelektom/" rel="bookmark">Як розпізнати фейкові новини, створені штучним інтелектом</a></p></blockquote>
<p>У відділі стратегічних комунікацій НАТО (Stratcom) вирішили перевірити, як соціальні мережі справляються зі своїми обіцянками протидіяти маніпулятивним намірам на своїх платформах.</p>
<blockquote><p>&#8220;Індустрія маніпуляцій зростає з кожним роком. Ми не бачимо жодних ознак того, що проведення широко розповсюдженої маніпуляції у соціальних мережах стає значно дорожчим або складнішим&#8221;, – йдеться у звіті.</p></blockquote>
<p>Тож дослідники вивчали здатність соцмереж реагувати на &#8220;фальшиву активність&#8221;. Постачальників послуг з маніпуляцій в звіті називають &#8220;провайдерами маніпулятивних послуг&#8221;. При чому діють вони не підпільно, а цілком відкрито, і знайти їх, як виявили дослідники, в мережі не так складно.</p>
<p>Маніпуляції у соцмережах мають різні цілі, залежно від того, хто за цим стоїть:</p>
<h3>Політичний вплив</h3>
<p>Політичні партії або уряди використовують соцмережі для впливу на громадську думку, змінення ставлення до опонентів або підготовки до виборів.</p>
<p><strong>Приклад</strong>: Відомі скандали з компанією <em>Cambridge Analytica</em>, яка збирала дані користувачів для таргетованих політичних кампаній.</p>
<h3>Економічна вигода</h3>
<p>Бренди використовують маніпулятивні техніки, щоб переконати вас купити їхній продукт.</p>
<p><strong>Наприклад</strong>: реклама може створювати відчуття дефіциту («лише 5 товарів залишилося в наявності») або викликати страх втрати («не пропустіть останній шанс»).</p>
<h3>Ідеологічний вплив</h3>
<p>Соцмережі є зручною платформою для просування ідеологій, які можуть варіюватися від екологічних ініціатив до радикальних політичних рухів.</p>
<h2><strong>Скільки це коштує маніпулювання думкою у соцмережах?</strong></h2>
<p>Маніпулятивна активність робиться через несправжні облікові записи, які, власне, і формують думки користувачів соцмереж.</p>
<p>Команда <a href="https://stratcomcoe.org/" target="_blank" rel="noopener">Stratcom</a> звернулася до &#8220;маніпуляторів&#8221; з росії, Польщі, Німеччини, Франції, Італії. До речі, вдалося виявити, що <strong>найбільші &#8220;провайдери маніпулятивних послуг&#8221; – саме в росії</strong>.</p>
<p>В обмін на 300 євро вдалося отримати 3530 коментарів, 25750 лайків, 20 тисяч переглядів та 5100 підписників на різних платформах. Зрештою, вдалося виявити 18739 облікових записів, які &#8220;трудилися&#8221; для цих маніпуляцій.</p>
<p>Найдорожчі маніпуляції – на платформі YouTube. Там все дорожче, крім коментарів. Найдешевші (в усіх категоріях) – на платформі Instagram, виявили дослідники.</p>
<p>Загалом, маніпуляція думкою через соцмережі — це дорогий бізнес, який варіюється за ціною залежно від масштабу та цілей. Ось деякі приклади розрахунків витрат:</p>
<h3>Реклама</h3>
<p>На президентські вибори у США у 2020 році витратили понад <strong>$1 млрд</strong> на цифрову рекламу. А от середній бізнес може витрачати від <strong>$500 до $10,000</strong> на місяць для таргетованих кампаній.</p>
<h3>Фейкові акаунти та боти</h3>
<p>Над маніпуляціями в Мережі працюють як боти, так і люди. Боти зазвичай дешеві. Кожен коштує пару центів. Але їхню активність соціальні мережі легко виявляють, йдеться у звіті.</p>
<p>Тому є більш &#8220;вдосконалені&#8221; версії – облікові записи, які потребують людського контролю. Ці вже коштують кількасот євро і легко &#8220;виживають&#8221; в інтернет-просторах протягом багатьох років.</p>
<h3>Інфлюенсери</h3>
<p>Інфлюенсер із 10-50 тисяч підписників бере за рекламний пост у середньому <strong>$100–$500</strong>. У відомих блогерів з мільйонами підписників ця сума може сягати <strong>$10,000 і більше</strong>.</p>
<h2><strong>Як захиститися від маніпуляцій?</strong></h2>
<ol>
<li><strong>Перевіряйте джерела</strong>: Дізнавайтеся, звідки походить інформація. Якщо щось виглядає надто емоційно чи сенсаційно, це може бути маніпуляцією.</li>
<li><strong>Будьте обережними з таргетованою рекламою</strong>: Пам’ятайте, що вона створена, щоб впливати на вас.</li>
<li><strong>Використовуйте блокувальники реклами</strong>: Це може допомогти зменшити кількість маніпулятивного контенту.</li>
<li><strong>Слідкуйте за алгоритмами</strong>: Намагайтеся виходити за межі своєї інформаційної бульбашки, підписуючись на різні джерела.</li>
<li><strong>Розпізнавайте ботів</strong>: Зазвичай це акаунти з малою кількістю підписників і шаблонним контентом.</li>
</ol>
<h2><strong>Висновок</strong></h2>
<p>Соціальні мережі — це потужний інструмент, який може бути як корисним, так і небезпечним. Розуміння механізмів маніпуляції дозволить вам уникнути їхнього впливу та зберегти власну незалежність у прийнятті рішень. Залишайтеся пильними, розвивайте критичне мислення і контролюйте те, що ви споживаєте онлайн.</p>
<p>Ваші думки належать вам, не дайте їх контролювати!</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/manipulyuvannya-u-sotsmerezhah-yak-dlya-chogo-ta-za-skilky-vplyvayut-na-vashu-dumku/">Маніпулювання у соцмережах: як, для чого та за скільки впливають на вашу думку?</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/olga_sem/">Олена Кожухар</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2018/12/06122236/instagram-photo-3.jpg" />	</item>
		<item>
		<title>Дипфейк відео стають все реалістичнішими: як розпізнати штучний інтелект</title>
		<link>https://cybercalm.org/dipfeyk-video-yak-rozpiznaty-shtuchnyy-intelekt/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Tue, 18 Nov 2025 09:00:18 +0000</pubDate>
				<category><![CDATA[Гайди та поради]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Sora]]></category>
		<category><![CDATA[відео]]></category>
		<category><![CDATA[дипфейки]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[медіаграмотність]]></category>
		<category><![CDATA[Штучний Інтелект]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=157538</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2023/02/05175440/newsroom-deepfake-feat.jpg" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/dipfeyk-video-yak-rozpiznaty-shtuchnyy-intelekt/">Дипфейк відео стають все реалістичнішими: як розпізнати штучний інтелект</a></p>
<p>Ознаки ШІ-генерованого відео навіть тоді, коли воно виглядає реалістично.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/dipfeyk-video-yak-rozpiznaty-shtuchnyy-intelekt/">Дипфейк відео стають все реалістичнішими: як розпізнати штучний інтелект</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2023/02/05175440/newsroom-deepfake-feat.jpg" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/dipfeyk-video-yak-rozpiznaty-shtuchnyy-intelekt/">Дипфейк відео стають все реалістичнішими: як розпізнати штучний інтелект</a></p>
<p>Технологія дипфейків розвивається настільки швидко, що відрізнити справжнє відео від штучного стає все складніше. Але не все втрачено — існують певні ознаки, які можуть допомогти вам розпізнати AI-генерований контент, навіть коли він виглядає надзвичайно реалістично.<span id="more-157538"></span></p>
<h2>Нова реальність цифрового контенту</h2>
<p>Пам&#8217;ятаєте часи, коли &#8220;підробка&#8221; в інтернеті означала погано відфотошоплене зображення? Ах, які це були прості часи. Тепер ми всі плаваємо в морі відео, згенерованих штучним інтелектом, та дипфейків — від фальшивих відео знаменитостей до неправдивих новин та шахрайських схем. Відрізнити справжнє від штучного стає майже неможливим.</p>
<p>Ситуація ускладнюється. Інструмент для створення відео <a href="https://openai.com/sora/" target="_blank" rel="nofollow noopener">Sora</a> від OpenAI вже розмиває межі між реальністю та штучним контентом. Нещодавно з&#8217;явився <a href="https://openai.com/index/sora-2/" target="_blank" rel="nofollow noopener">Sora 2</a> — вірусний &#8220;додаток соціальних мереж&#8221;, який став найпопулярнішим продуктом в інтернеті. Особливість платформи: це стрічка в стилі TikTok лише за запрошеннями, де весь контент на 100% штучний.</p>
<p>Експерти називають це &#8220;дипфейковим маренням&#8221;, і це точне визначення. Платформа щодня вдосконалюється у створенні фікції, яка виглядає як факт, а ризики величезні.</p>
<h2>Що таке дипфейки і чому вони небезпечні</h2>
<p><a href="https://cybercalm.org/dipfejky-chomu-tse-tak-nebezpechno/">Дипфейки</a> — це відео, аудіо або зображення, створені за допомогою штучного інтелекту, які показують людей, які говорять або роблять речі, яких вони насправді ніколи не говорили чи не робили. Технологія використовує глибоке навчання (deep learning) для аналізу тисяч зображень особи та створення переконливої підробки.</p>
<p>Проблема полягає в тому, що дипфейки можуть використовуватися для поширення дезінформації, шантажу, порнографії без згоди або навіть для впливу на вибори. За даними дослідження компанії Deeptrace, кількість дипфейк відео в інтернеті зросла на 900% лише за один рік.</p>
<h2>Технічні можливості Sora</h2>
<p>З технічної точки зору відео Sora вражають порівняно з конкурентами, такими як Midjourney V1 та <a href="https://cybercalm.org/yak-sprobuvaty-veo-3/">Google Veo 3</a>. Вони мають високу роздільну здатність, синхронізований звук та дивовижну креативність. Найпопулярніша функція Sora, яку називають &#8220;cameo&#8221;, дозволяє використовувати зовнішність інших людей та вставляти їх практично в будь-яку сцену, створену ШІ. Результат — неймовірно реалістичні відео.</p>
<p>Саме тому багато експертів стурбовані Sora. Додаток полегшує створення небезпечних дипфейків, поширення дезінформації та розмиває межу між реальним та штучним. Публічні особи та знаменитості особливо вразливі до таких дипфейків, а профспілки на кшталт SAG-AFTRA закликали OpenAI посилити захисні механізми.</p>
<h2>Як перевірити контент на ШІ</h2>
<p>Ідентифікація контенту, створеного штучним інтелектом, залишається постійним викликом для технологічних компаній, соціальних платформ та звичайних користувачів. Проте ситуація не безнадійна. Існує кілька способів визначити, чи було відео створено за допомогою Sora.</p>
<h3>Водяний знак Sora</h3>
<p>Кожне відео, створене в додатку Sora для iOS, містить водяний знак при завантаженні. Це білий логотип Sora у вигляді хмари, який переміщується по краях відео — подібно до того, як маркуються відео TikTok.</p>
<p>Маркування контенту — один з найважливіших способів, як компанії зі штучного інтелекту можуть візуально допомогти розпізнати ШІ-генерований контент. Наприклад, модель Gemini &#8220;nano banana&#8221; від Google автоматично додає водяні знаки до зображень.</p>
<p>Однак водяні знаки не ідеальні. По-перше, якщо знак статичний (нерухомий), його можна легко обрізати. Навіть для рухомих знаків, як у Sora, існують додатки, спеціально розроблені для їх видалення. Генеральний директор OpenAI Сем Альтман на запитання про це відповів, що суспільство має адаптуватися до світу, де будь-хто може створити фальшиві відео будь-кого. Звісно, до появи Sora не існувало популярного, легкодоступного способу створення таких відео без спеціальних навичок.</p>
<h3>Перевірка метаданих</h3>
<p>Метадані — це набір інформації, яка автоматично прикріплюється до контенту під час його створення. Вони надають додаткові відомості про те, як зображення чи відео було створено: тип камери для фотографії, місцезнаходження, дата та час зйомки відео, назва файлу. Кожне фото та відео має метадані, незалежно від того, чи створено його людиною, чи штучним інтелектом. Багато ШІ-контенту містить облікові дані, які вказують на його штучне походження.</p>
<p>OpenAI є частиною Coalition for Content Provenance and Authenticity (C2PA), тому відео Sora <a href="https://openai.com/index/launching-sora-responsibly/" target="_blank" rel="nofollow noopener">включають</a> метадані C2PA. Користувачі можуть скористатися інструментом перевірки Content Authenticity Initiative для аналізу метаданих відео, зображення чи документа.</p>
<p><strong>Як перевірити метадані фото, відео або документа:</strong></p>
<ol>
<li>Перейдіть за посиланням: <a href="https://verify.contentauthenticity.org/" target="_blank" rel="noopener">https://verify.contentauthenticity.org/</a></li>
<li>Завантажте файл, який потрібно перевірити</li>
<li>Натисніть &#8220;Відкрити&#8221;</li>
<li>Перевірте інформацію на правій панелі — якщо контент створено ШІ, це має бути зазначено в розділі summary</li>
</ol>
<p>Коли відео Sora перевіряється через цей інструмент, воно позначається як &#8220;issued by OpenAI&#8221; з відміткою про створення штучним інтелектом. Усі відео Sora повинні містити такі облікові дані.</p>
<p>Цей інструмент, як і всі детектори ШІ, не ідеальний. Існує багато способів уникнути виявлення для ШІ-відео. Відео, створені іншими платформами (не Sora), можуть не містити необхідних сигналів у метаданих. Наприклад, відео Midjourney не позначаються системою. Навіть якщо відео створено Sora, але потім оброблено через сторонній додаток (наприклад, для видалення водяних знаків) і перезавантажено, ймовірність його виявлення знижується.</p>
<p><a href="https://cdn.cybercalm.org/wp-content/uploads/2025/11/18104140/sora-content-credentials.webp"><img loading="lazy" loading="lazy" decoding="async" class="aligncenter wp-image-157549 size-large" src="https://cdn.cybercalm.org/wp-content/uploads/2025/11/18104140/sora-content-credentials-1024x443.webp" alt="sora content credentials" width="1024" height="443" title="Дипфейк відео стають все реалістичнішими: як розпізнати штучний інтелект 6" srcset="https://cdn.cybercalm.org/wp-content/uploads/2025/11/18104140/sora-content-credentials-1024x443.webp 1024w, https://cdn.cybercalm.org/wp-content/uploads/2025/11/18104140/sora-content-credentials-300x130.webp 300w, https://cdn.cybercalm.org/wp-content/uploads/2025/11/18104140/sora-content-credentials-768x332.webp 768w, https://cdn.cybercalm.org/wp-content/uploads/2025/11/18104140/sora-content-credentials-860x372.webp 860w, https://cdn.cybercalm.org/wp-content/uploads/2025/11/18104140/sora-content-credentials.webp 1200w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></a></p>
<h3>Позначки на соціальних платформах</h3>
<p>У соціальних мережах Meta, таких як Instagram та Facebook, існують внутрішні системи для позначення ШІ-контенту. Ці системи недосконалі, але дозволяють чітко побачити мітку на публікаціях, які було позначено. TikTok та YouTube мають подібні політики маркування ШІ-контенту.</p>
<p>Єдиний по-справжньому надійний спосіб дізнатися, чи є контент штучним — якщо автор розкриває це самостійно. Багато соціальних платформ тепер пропонують налаштування, які дозволяють користувачам позначати свої публікації як створені ШІ. Навіть проста примітка в описі може допомогти всім зрозуміти, як було створено контент.</p>
<p>Оскільки моделі штучного інтелекту, такі як Sora, продовжують розмивати межу між реальністю та ШІ, на всіх нас лежить відповідальність максимально чітко вказувати, коли щось є реальним, а коли штучним.</p>
<h2>Як розпізнати дипфейк</h2>
<p>Хоча дипфейки стають все досконалішими, вони все ще мають певні технічні недоліки, які можна помітити при уважному розгляді:</p>
<h3>Проблеми з очима та морганням</h3>
<p>Одна з найпоширеніших ознак дипфейку — неприродне моргання або його повна відсутність. Штучний інтелект часто має проблеми з відтворенням природного ритму моргання. Також зверніть увагу на:</p>
<ul>
<li>Різний розмір зіниць</li>
<li>Неприродний блиск або відсутність відблисків в очах</li>
<li>Дивний рух очей, який не відповідає напрямку погляду</li>
<li>Розмиті або нечіткі краї навколо очей</li>
</ul>
<h3>Проблеми з синхронізацією губ</h3>
<p>Навіть найкращі дипфейки можуть мати проблеми з точною синхронізацією рухів губ зі звуком. Шукайте:</p>
<ul>
<li>Затримку між звуком і рухом губ</li>
<li>Неприродні рухи рота</li>
<li>Розмиття навколо області рота</li>
<li>Зміну кольору або текстури губ</li>
</ul>
<h3>Проблеми з волоссям та краями обличчя</h3>
<p>AI часто має труднощі з відтворенням складних деталей, таких як волосся. Зверніть увагу на:</p>
<ul>
<li>Розмите або неприродне волосся</li>
<li>Різкі переходи між обличчям і фоном</li>
<li>Неприродні тіні або освітлення на обличчі</li>
<li>Асиметрію обличчя або його частин</li>
</ul>
<h3>Проблеми з кольором та освітленням</h3>
<p>Дипфейки часто мають проблеми з консистентністю кольорів та освітлення:</p>
<ul>
<li>Різні відтінки шкіри на різних частинах обличчя</li>
<li>Неприродне освітлення, яке не відповідає оточенню</li>
<li>Мерехтіння або зміна кольорів між кадрами</li>
<li>Низька роздільна здатність в певних областях відео</li>
</ul>
<h3>Неприродні рухи та жести</h3>
<p>Штучний інтелект може створити реалістичне обличчя, але часто має проблеми з природними рухами тіла:</p>
<ul>
<li>Роботоподібні або повторювані жести</li>
<li>Відсутність природної міміки</li>
<li>Незвичайні рухи голови або тіла</li>
<li>Відсутність дрібних деталей, таких як зморшки при посмішці</li>
</ul>
<h2>Майбутнє боротьби з дипфейками</h2>
<p>Технології виявлення дипфейків розвиваються паралельно з технологіями їх створення. Компанії та дослідники працюють над більш досконалими методами виявлення, включаючи аналіз біометричних даних та використання блокчейн-технологій для верифікації автентичності контенту.</p>
<p>Водночас важливо розуміти, що це постійна гонка озброєнь між створювачами дипфейків та тими, хто їх виявляє. Тому найкращою стратегією залишається поєднання технологічних рішень з критичним мисленням та медіаграмотністю.</p>
<p>У світі, де дипфейки стають все реалістичнішими, вміння їх розпізнавати стає критично важливою навичкою для кожного користувача інтернету. Пам&#8217;ятайте: якщо відео здається підозрілим, краще перевірити його автентичність, ніж поширювати потенційно хибну інформацію.</p>
<h2>Головна рекомендація: залишайтеся пильними</h2>
<p>Не існує одного безпомилкового методу точно визначити з першого погляду, чи є відео справжнім, чи створеним ШІ. Найкраще, що можна зробити для захисту від обману — не вірити автоматично всьому, що бачите онлайн. Довіряйте інстинктам: якщо щось здається нереальним, воно, ймовірно, таким і є.</p>
<p>У ці безпрецедентні часи, наповнені ШІ-контентом сумнівної якості, найкращий захист — уважніше вивчати відео. Не просто швидко переглядайте та не гортайте далі без роздумів. Шукайте спотворений текст, зникаючі об&#8217;єкти та рухи, що порушують фізичні закони. І не засмучуйтеся, якщо іноді вас обдурять — навіть експерти помиляються.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/dipfeyk-video-yak-rozpiznaty-shtuchnyy-intelekt/">Дипфейк відео стають все реалістичнішими: як розпізнати штучний інтелект</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2023/02/05175440/newsroom-deepfake-feat.jpg" />	</item>
		<item>
		<title>Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска</title>
		<link>https://cybercalm.org/chy-varto-doviryaty-grokipedia/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Mon, 03 Nov 2025 12:00:14 +0000</pubDate>
				<category><![CDATA[Кібербезпека]]></category>
		<category><![CDATA[Grok]]></category>
		<category><![CDATA[Grokipedia]]></category>
		<category><![CDATA[xAI]]></category>
		<category><![CDATA[Ілон Маск]]></category>
		<category><![CDATA[Вікіпедія]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=157142</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2025/11/03094742/grokpedia-scaled.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/chy-varto-doviryaty-grokipedia/">Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска</a></p>
<p>Ілон Маск запустив альтернативу Вікіпедії на основі штучного інтелекту, обіцяючи «правду, всю правду і нічого, крім правди». Однак перші тести показали зворотне: Grokipedia не лише копіює контент з Вікіпедії, а й містить численні фактичні помилки, просуває правацькі наративи та повторює російську пропаганду про війну в Україні. Провідні історики та експерти з перевірки фактів б&#8217;ють на [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/chy-varto-doviryaty-grokipedia/">Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2025/11/03094742/grokpedia-scaled.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/chy-varto-doviryaty-grokipedia/">Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска</a></p>
<p>Ілон Маск запустив альтернативу Вікіпедії на основі штучного інтелекту, обіцяючи «правду, всю правду і нічого, крім правди». Однак перші тести показали зворотне: Grokipedia не лише копіює контент з Вікіпедії, а й містить численні фактичні помилки, просуває правацькі наративи та повторює російську пропаганду про війну в Україні. Провідні історики та експерти з перевірки фактів б&#8217;ють на сполох: коли AI, керований впливовими мільярдерами, стає джерелом «істини», під загрозою опиняється сама суть достовірного знання.<span id="more-157142"></span></p>
<p>Видатний британський історик сер Річард Еванс підготував три експертні висновки для судового процесу щодо наклепу за участю заперечувача Голокосту Девіда Ірвінга, здобув докторський ступінь під керівництвом Теодора Зелдіна, змінив Девіда Канnadайна на посаді професора історії Кембриджського університету (посада, заснована Генріхом VIII) і керував дисертаціями про соціальну політику Бісмарка.</p>
<p>Саме це можна було дізнатися з <a href="https://grokipedia.com" target="_blank" rel="noopener">Grokipedia</a> — енциклопедії на основі штучного інтелекту, яку минулого тижня <a href="https://cybercalm.org/grokipedia-vid-x-znovu-v-merezhi/">запустив</a> ексцентричний мільярдер Ілон Маск. Проблема полягала в тому, що, як виявив професор Еванс, увійшовши в систему для перевірки власної статті, усі ці факти були хибними.</p>
<p>Це стало частиною невдалого старту для чергової спроби людства зібрати всю суму людських знань або, як висловився Маск, створити компендіум «правди, всієї правди і нічого, крім правди» — усе це через магію його моделі штучного інтелекту Grok.</p>
<h2>«Краще за Вікіпедію»?</h2>
<p>Коли мультимільярдер увімкнув Grokipedia, він заявив, що вона «краща за Вікіпедію», або «Wokepedia», як називають її його прихильники, відображаючи думку, що домінуюча онлайн-енциклопедія часто транслює лівацькі наративи. Один допис у X передавав тріумфальний настрій серед фанатів Маска: «Ілон щойно вбив Вікіпедію. І добре».</p>
<p>Однак користувачі виявили, що Grokipedia запозичила великі фрагменти з сайту, який мала замінити, містить численні фактичні помилки та, схоже, просуває улюблені праві наративи Маска. Між дописами в X на підтримку свого творіння Маск цього тижня заявив, що «громадянська війна у Британії неминуча», закликав англійців «об&#8217;єднатися з твердими чоловіками», такими як ультраправий агітатор Томмі Робінсон, і сказав, що лише ультраправа партія AfD може «врятувати Німеччину».</p>
<p>Маск настільки захопився своєю AI-енциклопедією, що заявив про плани одного дня вигравірувати «всеосяжну колекцію всіх знань» на стабільному оксиді та «розмістити копії на орбіті, Місяці та Марсі, щоб зберегти її для майбутнього».</p>
<h2>Що виявили експерти</h2>
<p>Однак Еванс виявив, що використання штучного інтелекту Маском для зважування та перевірки фактів стикається з більш приземленою проблемою. «Коментарі з чатів отримують той самий статус, що й серйозна академічна робота, — <a href="https://www.theguardian.com/technology/2025/nov/03/grokipedia-academics-assess-elon-musk-ai-powered-encyclopedia" target="_blank" rel="noopener">сказав Guardian</a> Еванс, експерт з Третього Рейху, якого запросили протестувати Grokipedia. — AI просто всмоктує все».</p>
<p>Він зазначив, що стаття про Альберта Шпеєра, архітектора Гітлера та воєнного міністра озброєнь, повторює брехню та викривлення, поширені самим Шпеєром, хоча вони були виправлені в біографії 2017 року. Стаття сайту про марксистського історика Еріка Гобсбаума, біографію якого написав Еванс, помилково стверджувала, що той пережив німецьку гіперінфляцію 1923 року, що він був офіцером Королівського корпусу зв&#8217;язку, і не згадувала, що він був одружений двічі.</p>
<h2>Зіткнення культур знань</h2>
<p>Проблема, за словами Девіда Ларссона Гайденблада, заступника директора Лундського центру історії знань у Швеції, полягає в зіткненні культур знань.</p>
<p>«Ми живемо в час, коли зростає віра в те, що алгоритмічна агрегація більш надійна, ніж людське розуміння, — каже Гайденблад. — Менталітет Кремнієвої долини дуже відрізняється від традиційного наукового підходу. Його культура знань дуже ітеративна, де помилки — це особливість, а не баг. Натомість академічний світ — це про побудову довіри з часом і наукову роботу протягом тривалих періодів, коли ілюзія всезнання тріскається. Це справжні процеси здобуття знань».</p>
<h2>Від Юнле до Grok: історія енциклопедій</h2>
<p>Поява Grokipedia продовжує багатовікову традицію енциклопедій — від китайських сувоїв Юнле XV століття до Енциклопедії, рушія поширення суперечливих просвітницьких поглядів у Франції XVIII століття. За ними послідували англоцентрична Encyclopedia Britannica і, з 2001 року, створена спільнотою Вікіпедія. Але Grokipedia — перша, створена переважно штучним інтелектом, і цього тижня виникло питання: хто контролює істину, коли AI, керовані впливовими особами, тримають перо?</p>
<h2>Ризики політичних маніпуляцій</h2>
<p>«Якщо це робить Маск, то я боюся політичних маніпуляцій», — сказав культуролог Пітер Берк, почесний професор коледжу Еммануель у Кембриджі, який у 2000 році написав «Соціальну історію знань» від часів друкарського верстата Йоганнеса Гутенберга XV століття.</p>
<p>«Я впевнений, що деяким читачам це буде очевидно, але проблема може полягати в тому, що інші читачі можуть це пропустити», — каже Берк. Анонімність багатьох енциклопедичних статей часто надає їм «ореол авторитетності, якого вони не заслуговують», додав він.</p>
<p>Ендрю Дадфілд, керівник відділу AI у Full Fact, британській організації з перевірки фактів, сказав: «Ми дійсно маємо подумати, чи є енциклопедія, створена AI — факсиміле реальності, пропущене через фільтр — кращою пропозицією, ніж будь-що з попереднього. Вона не демонструє такої ж прозорості, але вимагає тієї ж довіри. Незрозуміло, наскільки залучена людська рука, наскільки це згенеровано AI і на якому контенті навчався AI. Важко довіряти чомусь, коли не бачиш, як приймаються ці рішення».</p>
<h2>Від підтримки до мільярдної пропозиції</h2>
<p>Маска заохочували запустити Grokipedia, зокрема, технологічний радник Дональда Трампа Девід Сакс, який скаржився, що Вікіпедія «безнадійно упереджена» і підтримується «армією лівацьких активістів».</p>
<p>До 2021 року Маск підтримував Вікіпедію, написавши на її 20-річчя в Twitter: «Так радий, що ви існуєте». Але до жовтня 2023 року його антипатія до платформи привела до того, що він запропонував 1 мільярд доларів, «якщо вони зміняють назву на Dickipedia».</p>
<h2>Плагіат і упередженість</h2>
<p>Проте багато з 885 279 статей, доступних у Grokipedia протягом першого тижня, були майже дослівно скопійовані з Вікіпедії, включно зі статтями про PlayStation 5, Ford Focus і Led Zeppelin. Інші ж суттєво відрізнялися:</p>
<p><strong>Війна в Україні.</strong> <a href="https://grokipedia.com/page/Russian_invasion_of_Ukraine" target="_blank" rel="noopener">Стаття Grokipedia про російське вторгнення в Україну</a> цитувала Кремль як важливе джерело та наводила офіційну російську термінологію про «денацифікацію» України, захист етнічних росіян і нейтралізацію загроз російській безпеці. Натомість Вікіпедія стверджувала, що путін сповідує імперіалістичні погляди і «безпідставно заявляв, що український уряд — неонацисти».</p>
<p><strong>Britain First.</strong> Grokipedia назвала ультраправу організацію Britain First «патріотичною політичною партією», що порадувало її лідера Пола Голдінга, якого 2018 року ув&#8217;язнили за антимусульманські злочини на ґрунті ненависті. Вікіпедія ж називає її «неофашистською» та «групою ненависті».</p>
<p><strong>Штурм Капітолію.</strong> Grokipedia назвала заворушення 6 січня 2021 року в Капітолії США у Вашингтоні «бунтом», а не спробою перевороту, і заявила, що існують «емпіричні підстави» для ідеї про навмисне демографічне стирання білих людей у західних країнах через масову імміграцію. Критики вважають це теорією змови.</p>
<p><strong>Дональд Трамп.</strong> Grokipedia зазначила, що засудження Дональда Трампа за фальсифікацію ділових записів у справі про гроші для Сторми Деніелс відбулося «після судового процесу в юрисдикції з переважною перевагою демократів», і не згадувала про його конфлікти інтересів — наприклад, отримання літака від Катару чи криптовалютний бізнес родини Трампів.</p>
<h2>Відповідь Вікіпедії</h2>
<p>Вікіпедія холодно відреагувала на запуск Grokipedia, заявивши, що все ще намагається зрозуміти, як працює Grokipedia.</p>
<p>«На відміну від новіших проєктів, переваги Вікіпедії очевидні, — сказав представник Фонду Вікімедіа. — Вона має прозору політику, суворий волонтерський нагляд і сильну культуру постійного вдосконалення. Вікіпедія — це енциклопедія, написана для інформування мільярдів читачів без просування певної точки зору».</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/chy-varto-doviryaty-grokipedia/">Чи варто довіряти Grokipedia? Науковці оцінили AI-енциклопедію Ілона Маска</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2025/11/03094742/grokpedia-scaled.webp" />	</item>
		<item>
		<title>Мерехтливе світло може допомогти в боротьбі з дезінформацією</title>
		<link>https://cybercalm.org/merehtlyve-svitlo-mozhe-dopomogty-v-borotbi-z-dezinformatsiyeyu/</link>
		
		<dc:creator><![CDATA[Наталя Зарудня]]></dc:creator>
		<pubDate>Thu, 31 Jul 2025 06:00:46 +0000</pubDate>
				<category><![CDATA[Статті]]></category>
		<category><![CDATA[Винаходи та інновації]]></category>
		<category><![CDATA[діпфейк]]></category>
		<category><![CDATA[Дезінформація]]></category>
		<category><![CDATA[дослідження]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=154799</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2025/07/31090017/noise-coded-illumination-for-forensic-and-photometric-video-analysis-acm-transactions-on-graphics-07-31-2025_08_59_am.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/merehtlyve-svitlo-mozhe-dopomogty-v-borotbi-z-dezinformatsiyeyu/">Мерехтливе світло може допомогти в боротьбі з дезінформацією</a></p>
<p>Група комп&#8217;ютерних науковців з Корнельського університету представила те, що, на їхню думку, може стати новим інструментом у боротьбі зі згенерованими штучним інтелектом відео, діпфейками та відредагованими роликами. Техніка водяних знаків під назвою &#8220;кодоване шумом освітлення&#8221; приховує дані верифікації в самому світлі, щоб допомогти слідчим виявляти підроблені відео. Цей підхід, розроблений Пітером Майклом, Зекуном Хао, Сержем [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/merehtlyve-svitlo-mozhe-dopomogty-v-borotbi-z-dezinformatsiyeyu/">Мерехтливе світло може допомогти в боротьбі з дезінформацією</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2025/07/31090017/noise-coded-illumination-for-forensic-and-photometric-video-analysis-acm-transactions-on-graphics-07-31-2025_08_59_am.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/merehtlyve-svitlo-mozhe-dopomogty-v-borotbi-z-dezinformatsiyeyu/">Мерехтливе світло може допомогти в боротьбі з дезінформацією</a></p>
<p>Група комп&#8217;ютерних науковців з Корнельського університету представила те, що, на їхню думку, може стати новим інструментом у боротьбі зі згенерованими штучним інтелектом відео, діпфейками та відредагованими роликами.<span id="more-154799"></span></p>
<p>Техніка водяних знаків під назвою &#8220;<strong>кодоване шумом освітлення</strong>&#8221; приховує дані верифікації в самому світлі, щоб допомогти слідчим виявляти підроблені відео. Цей підхід, розроблений Пітером Майклом, Зекуном Хао, Сержем Белонжі та доцентом Ейбом Девісом, було <a href="https://dl.acm.org/doi/10.1145/3742892" target="_blank" rel="noopener">опубліковано</a> в <em>ACM Transactions on Graphics</em> від 27 червня, а Майкл представить його на конференції <a href="https://s2025.siggraph.org/" target="_blank" rel="noopener">SIGGRAPH</a> 10 серпня.</p>
<p>Система додає ледь помітне мерехтіння до джерел світла в кадрі. Камери записують цей псевдовипадковий візерунок, хоча глядачі не можуть його виявити, і кожна лампа чи екран, що мерехтить, несе свій унікальний код.</p>
<p>Наприклад, уявіть прес-конференцію, знятну в брифінг-залі Білого дому. Студійне освітлення було б запрограмоване мерехтіти з унікальними кодами. Якщо пізніше з&#8217;явиться вірусний ролик з тієї прес-конференції з начебто провокаційною заявою, слідчі можуть пропустити його через декодер і, перевіривши, чи збігаються записані світлові коди, визначити, чи було відео підроблено.</p>
<blockquote><p>&#8220;Кожен водяний знак містить низькоякісну версію з часовою міткою немодифікованого відео при дещо іншому освітленні. Ми називаємо їх кодовими відео&#8221;, — сказав Ейб Девіс, доцент комп&#8217;ютерних наук у Корнеллі. &#8220;Коли хтось маніпулює відео, змінені частини починають суперечити тому, що ми бачимо в цих кодових відео, що дозволяє нам побачити, де були внесені зміни. А якщо хтось намагається створити фейкове відео за допомогою ШІ, отримані кодові відео виглядають просто як випадкові варіації&#8221;.</p></blockquote>
<p>Хоча науковці визнають, що швидкий рух і яскраве сонячне світло можуть перешкоджати ефективності техніки, вони оптимістично налаштовані щодо її корисності в таких умовах, як презентації в конференц-залах, телевізійні інтерв&#8217;ю або лекції в аудиторіях.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/merehtlyve-svitlo-mozhe-dopomogty-v-borotbi-z-dezinformatsiyeyu/">Мерехтливе світло може допомогти в боротьбі з дезінформацією</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/nataliazarudnya/">Наталя Зарудня</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2025/07/31090017/noise-coded-illumination-for-forensic-and-photometric-video-analysis-acm-transactions-on-graphics-07-31-2025_08_59_am.webp" />	</item>
		<item>
		<title>Meta зафіксувала зростання агресивного контенту після зміни політики модерації</title>
		<link>https://cybercalm.org/meta-zrostannya-agresyvnogo-kontentu/</link>
		
		<dc:creator><![CDATA[Побокін Максим]]></dc:creator>
		<pubDate>Mon, 02 Jun 2025 09:00:54 +0000</pubDate>
				<category><![CDATA[Техногіганти]]></category>
		<category><![CDATA[Community Notes]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[мова ненависті]]></category>
		<category><![CDATA[модерація]]></category>
		<category><![CDATA[Соцмережі]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=97551</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2019/10/01172032/facebook.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/meta-zrostannya-agresyvnogo-kontentu/">Meta зафіксувала зростання агресивного контенту після зміни політики модерації</a></p>
<p>Компанія Meta оприлюднила перший квартальний звіт про цілісність платформи після того, як її засновник Марк Цукерберг кардинально змінив підходи до боротьби з мовою ненависті та модерації контенту на початку цього року. Результати виявилися неоднозначними: хоча загальна кількість видаленого контенту зменшилася, на Facebook помітно зріс рівень насильницького контенту та кібербулінгу. Ключові зміни в цифрах Дані показують [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/meta-zrostannya-agresyvnogo-kontentu/">Meta зафіксувала зростання агресивного контенту після зміни політики модерації</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/maksym-pobokin/">Побокін Максим</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2019/10/01172032/facebook.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/meta-zrostannya-agresyvnogo-kontentu/">Meta зафіксувала зростання агресивного контенту після зміни політики модерації</a></p>
<p>Компанія Meta оприлюднила перший квартальний звіт про цілісність платформи після того, як її засновник Марк Цукерберг <a href="https://cybercalm.org/meta-vidmovlyayetsya-vid-storonnih-faktcheker/">кардинально змінив підходи</a> до боротьби з мовою ненависті та модерації контенту на початку цього року. Результати виявилися неоднозначними: хоча загальна кількість видаленого контенту зменшилася, на Facebook помітно зріс рівень насильницького контенту та <a href="https://cybercalm.org/shho-take-kiberbuling-doroslyh-v-interneti-ta-yak-jomu-protydiyaty-porady/">кібербулінгу</a>.<span id="more-97551"></span></p>
<h2>Ключові зміни в цифрах</h2>
<p>Дані показують суперечливі результати нової політики Meta. З одного боку, компанія стверджує, що вдвічі скоротила кількість помилок у модерації контенту. З іншого — спостерігається тривожне зростання проблемного контенту в окремих категоріях.</p>
<p>Найбільш помітні зміни торкнулися насильницького контенту, частка якого зросла з 0,06-0,07% наприкінці 2024 року до 0,09% в першому кварталі 2025-го. Meta пояснює це збільшенням обміну порушуючим контентом та власними спробами &#8220;зменшити помилки в модерації&#8221;.</p>
<p>Також зафіксовано зростання випадків булінгу та переслідувань на Facebook — з 0,06-0,07% до 0,07-0,08%. Компанія пов&#8217;язує це зі стрибком порушень у березні, не уточнюючи деталей.</p>
<h2>Радикальне скорочення видалень</h2>
<p>Нова політика Meta призвела до драматичного зменшення кількості видаленого контенту. Особливо це помітно в категорії мови ненависті — лише 3,4 мільйона публікацій було видалено за цією політикою, що є найнижчим показником з 2018 року.</p>
<p>Боротьба зі спамом також ослабла: кількість видалених спам-публікацій впала з 730 мільйонів наприкінці 2024 року до 366 мільйонів на початку 2025-го. Аналогічно зменшилася кількість заблокованих фейкових акаунтів — з 1,4 мільярда до 1 мільярда.</p>
<h2>Особливий підхід до підлітків</h2>
<p>Meta визнає необхідність збереження активної модерації для неповнолітніх користувачів. &#8220;Ми залишаємося відданими забезпеченню найбезпечнішого досвіду для підлітків на наших платформах&#8221;, — заявляє компанія. Для цієї вікової групи Meta продовжуватиме проактивно приховувати шкідливий контент, включно з булінгом.</p>
<h2>Штучний інтелект замість людської модерації</h2>
<p>Компанія активно впроваджує великі мовні моделі для модерації контенту. За словами Meta, тестування показує, що в окремих сферах ШІ вже перевершує людські можливості модерації. Алгоритми також використовуються для очищення черг на розгляд контенту, коли система впевнена, що матеріал не порушує правила.</p>
<h2>Нова система фактчекінгу</h2>
<p>Замість партнерських програм з фактчекерами Meta запровадила власну систему &#8220;Нотаток спільноти&#8221;, схожу на механізм Twitter/X. Поки що компанія не оприлюднила дані про ефективність цього підходу, але обіцяє надати статистику в найближчі місяці.</p>
<p>Ці зміни відображають фундаментальний поворот у політиці однієї з найвпливовіших соціальних мереж світу, наслідки якого ще тільки починають проявлятися.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/meta-zrostannya-agresyvnogo-kontentu/">Meta зафіксувала зростання агресивного контенту після зміни політики модерації</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/maksym-pobokin/">Побокін Максим</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2019/10/01172032/facebook.webp" />	</item>
		<item>
		<title>Facebook бореться зі спамерським контентом, зменшуючи охоплення та монетизацію</title>
		<link>https://cybercalm.org/facebook-boretsya-zi-spamerskym-kontentom/</link>
		
		<dc:creator><![CDATA[Олена Кожухар]]></dc:creator>
		<pubDate>Fri, 25 Apr 2025 06:00:26 +0000</pubDate>
				<category><![CDATA[Техногіганти]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[видалення контенту]]></category>
		<category><![CDATA[Маніпуляції в медіа]]></category>
		<category><![CDATA[Марк Цукерберг]]></category>
		<category><![CDATA[Соцмережі]]></category>
		<category><![CDATA[спам]]></category>
		<guid isPermaLink="false">https://cybercalm.org/?p=89199</guid>

					<description><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2019/06/24212310/blog5ed1018c1fbd9_facebook.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/facebook-boretsya-zi-spamerskym-kontentom/">Facebook бореться зі спамерським контентом, зменшуючи охоплення та монетизацію</a></p>
<p>Facebook почне зменшувати охоплення акаунтів, які поширюють спам-контент, і зробить їх непридатними для монетизації, повідомила в четвер компанія Meta. Компанія також посилює зусилля з видалення акаунтів Facebook, які координують фейкову взаємодію і видають себе за інших. Цей крок був зроблений після того, як генеральний директор Meta Марк Цукерберг пообіцяв повернутися до «справжнього Facebook». План соціальної [&#8230;]</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/facebook-boretsya-zi-spamerskym-kontentom/">Facebook бореться зі спамерським контентом, зменшуючи охоплення та монетизацію</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/olga_sem/">Олена Кожухар</a></p>
]]></description>
										<content:encoded><![CDATA[<p><a rel="nofollow" href="https://cybercalm.org">CyberCalm</a><br />
<img src="https://cdn.cybercalm.org/wp-content/uploads/2019/06/24212310/blog5ed1018c1fbd9_facebook.webp" style="display: block; margin: 1em auto"><br />
<a rel="nofollow" href="https://cybercalm.org/facebook-boretsya-zi-spamerskym-kontentom/">Facebook бореться зі спамерським контентом, зменшуючи охоплення та монетизацію</a></p>
<p>Facebook почне зменшувати охоплення акаунтів, які поширюють спам-контент, і зробить їх непридатними для монетизації, повідомила в четвер компанія Meta. Компанія також посилює зусилля з видалення акаунтів Facebook, які координують фейкову взаємодію і видають себе за інших.<span id="more-89199"></span></p>
<p>Цей крок був зроблений після того, як генеральний директор Meta Марк Цукерберг <a href="https://techcrunch.com/2025/01/30/mark-zuckerberg-teases-a-2025-return-to-og-facebook/" target="_blank" rel="noopener">пообіцяв</a> повернутися до «справжнього Facebook». План соціальної мережі по боротьбі зі спамом можна розглядати як спробу повернутися до часів слави Facebook, коли стрічки користувачів були наповнені автентичним контентом від реальних людей.</p>
<p>Ця заява з&#8217;явилася на тлі того, що «сміття», створене штучним інтелектом, стає серйозною проблемою на всіх платформах соціальних мереж, зокрема й на Facebook. Хоча в <a href="https://about.fb.com/news/2025/04/cracking-down-spammy-content-facebook/" target="_blank" rel="noopener">анонсі Facebook</a> не згадується про цю проблему, цілком ймовірно, що під заборону потрапить і штучно згенерований контент.</p>
<p>Meta визнає, що деякі акаунти на її платформі намагаються обіграти алгоритм, щоб збільшити кількість переглядів або отримати несправедливі переваги в монетизації, що призводить до того, що стрічки користувачів переповнюються спамом. Щоб виправити цю ситуацію, Meta веде боротьбу з акаунтами, які демонструють певні типи спам-поведінки.</p>
<p>До такого типу поведінки належать акаунти, які публікують контент із довгими підписами та надмірною кількістю хештегів. Сюди також належать акаунти, які публікують контент з підписами, що не мають відношення до змісту, наприклад, зображення собаки з підписом про факти про літаки.</p>
<figure id="attachment_152796" aria-describedby="caption-attachment-152796" style="width: 900px" class="wp-caption aligncenter"><a href="https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211439/facebook-spammy-content.webp"><img loading="lazy" loading="lazy" decoding="async" class="wp-image-152796 size-full" src="https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211439/facebook-spammy-content.webp" alt="v" width="900" height="784" title="Facebook бореться зі спамерським контентом, зменшуючи охоплення та монетизацію 8" srcset="https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211439/facebook-spammy-content.webp 900w, https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211439/facebook-spammy-content-300x261.webp 300w, https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211439/facebook-spammy-content-768x669.webp 768w, https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211439/facebook-spammy-content-860x749.webp 860w" sizes="auto, (max-width: 900px) 100vw, 900px" /></a><figcaption id="caption-attachment-152796" class="wp-caption-text">Спам-контент у Facebook</figcaption></figure>
<p>Meta каже, що хоча наміри, які стоять за такими публікаціями, не завжди є зловмисними, вони призводять до появи спаму, який затьмарює оригінальний контент від авторів.</p>
<p>Facebook також націлиться на спам-мережі, які створюють сотні мереж для обміну однаковим спам-контентом, що робить їх непридатними для монетизації.</p>
<p>Для боротьби з фейковою активністю Facebook зменшить охоплення та видимість коментарів, які він визначає як фейкову активність. Крім того, Facebook почне тестувати функцію коментарів, яка дозволить користувачам сигналізувати про те, які коментарі є нерелевантними або не вписуються в контекст розмови.</p>
<p><a href="https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211445/facebook-comments.webp"><img loading="lazy" loading="lazy" decoding="async" class="aligncenter wp-image-152797 size-full" src="https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211445/facebook-comments.webp" alt="facebook comments" width="900" height="782" title="Facebook бореться зі спамерським контентом, зменшуючи охоплення та монетизацію 9" srcset="https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211445/facebook-comments.webp 900w, https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211445/facebook-comments-300x261.webp 300w, https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211445/facebook-comments-768x667.webp 768w, https://cdn.cybercalm.org/wp-content/uploads/2019/06/24211445/facebook-comments-860x747.webp 860w" sizes="auto, (max-width: 900px) 100vw, 900px" /></a></p>
<p>Крім того, Facebook оголосив, що оновлює свій інструмент управління коментарями, щоб виявляти і автоматично приховувати коментарі від людей, які, можливо, використовують фальшиві особистості. Автори також зможуть повідомляти про самозванців у коментарях.</p>
<p>Сьогоднішнє оголошення з&#8217;явилося через кілька тижнів після того, як Facebook <a href="https://about.fb.com/news/2025/03/bringing-magic-of-friends-back-to-facebook/" target="_blank" rel="noopener">представив оновлену вкладку «Друзі»</a>, на якій відображатимуться лише оновлення від друзів, без будь-якого іншого рекомендованого контенту. Як нова вкладка «Друзі», так і боротьба зі спамом свідчать про те, що Facebook намагається покращити стрічку користувачів і показувати їм контент, який вони дійсно хочуть бачити.</p>
<p>Не дивно, що Facebook прагне повернутися до «OG Facebook», тим більше, що нещодавно оприлюднені <a href="https://techcrunch.com/2025/04/20/uncovered-emails-showed-how-meta-struggled-to-keep-facebook-culturally-relevant/" target="_blank" rel="noopener">електронні листи з 2022 року</a> показали, що Цукерберг був стурбований тим, що соціальна мережа втрачає культурну релевантність.</p>
<p>Ця стаття <a rel="nofollow" href="https://cybercalm.org/facebook-boretsya-zi-spamerskym-kontentom/">Facebook бореться зі спамерським контентом, зменшуючи охоплення та монетизацію</a> раніше була опублікована на сайті <a rel="nofollow" href="https://cybercalm.org">CyberCalm</a>, її автор — <a rel="nofollow" href="https://cybercalm.org/author/olga_sem/">Олена Кожухар</a></p>
]]></content:encoded>
					
		
		
		<media:thumbnail url="https://cdn.cybercalm.org/wp-content/uploads/2019/06/24212310/blog5ed1018c1fbd9_facebook.webp" />	</item>
	</channel>
</rss>
