Попри запровадження жорстких європейських законів (DSA) та постійні заяви технологічних гігантів про посилення безпеки, ринок маніпуляцій у соціальних мережах не просто живий — він еволюціонує.
Центр передового досвіду зі стратегічних комунікацій НАТО (NATO StratCom COE) щороку проводить масштабний експеримент: дослідники самі купують фейкові підписники, лайки, коментарі та перегляди на основних соціальних платформах — щоб перевірити, наскільки добре ці платформи здатні виявляти та видаляти неавтентичну активність.
У 2026 році вийшов уже шостий звіт цієї серії. Результати тривожні: маніпуляції лишаються дешевими та доступними, боти стають розумнішими, а платформи — попри певний прогрес — досі не справляються із проблемою системно.
Що і як досліджували
Між вереснем і листопадом 2025 року дослідники зареєстрували 28 підроблених акаунтів на семи платформах: Facebook, Instagram, X (колишній Twitter), TikTok, YouTube, VKontakte та Bluesky. На цих акаунтах вони публікували 126 постів і купували для них «накрутку» у десяти комерційних провайдерів маніпуляцій з різних куточків світу.
Загальна сума витрат — €252. За ці гроші дослідникам доставили:
17 553 фейкові коментарі
37 814 лайків
16 025 репостів
27 653 перегляди
Сукупно в цих взаємодіях взяли участь понад 30 000 унікальних підроблених акаунтів.
Також вперше в рамках цього дослідження було перевірено рекламні інструменти платформ: за €130 через куплені фейкові рекламні акаунти вдалося отримати 206 234 перегляди та 200 лайків, а ще за €121 — 17 442 фейкові коментарі під рекламними постами.
Хто найкраще видаляє ботів: рейтинг соцмереж
Рівень видалення підроблених акаунтів досяг рекордного показника: в середньому 50,4% ідентифікованих фейкових акаунтів було видалено впродовж п’яти тижнів після купівлі. Для порівняння: у 2021 році видаляли лише 20%, у 2024-му — 13%.
Та результати між платформами різняться кардинально:
Платформа | Видалено акаунтів | Залишилось фейкової активності |
|---|---|---|
VKontakte | 96% | 70,35% |
X | 82% | 43,41% |
YouTube | 55% | 56,20% |
Bluesky | 55% | 100% |
39% | 79,40% | |
22% | 84,03% | |
TikTok | 4% | 68,13% |
Попри те, що VKontakte видалив майже всі акаунти, фейкові лайки та коментарі на постах нікуди не зникли — вони лишилися активними. X та YouTube показали найкращий результат у видаленні самої фейкової активності: на X після чотирьох тижнів залишилося лише 43% куплених взаємодій, на YouTube — 56%.
Скільки коштує обманути алгоритми?
Набір базових фейкових взаємодій — 100 лайків, 100 коментарів, 1000 переглядів, 100 підписників — коштує від менш ніж €1 до кількох євро залежно від платформи. Bluesky виявився найдешевшим варіантом; X у 2025 році став найдорожчим, але при цьому 156 000 фейкових переглядів там можна купити всього за €10.
Рекламна маніпуляція дорожча й складніша, але теж реальна: дослідники без проблем придбали готові рекламні акаунти для Meta, TikTok та YouTube. На Instagram після 72 годин кількість доставлених фейкових коментарів під рекламою перевищила замовлену утричі (340% від очікуваного).
Штучний інтелект створює ботів нового покоління
Це, мабуть, найтривожніший висновок звіту. Якщо раніше боти діяли прямолінійно — масово спамили однотипними коментарями й діяли у замкнених мережах між собою — то сучасні підроблені акаунти поводяться принципово інакше.
За даними компанії Cyabra, яка аналізувала поведінку ботів для цього звіту, нова генерація фейкових акаунтів:
Вбудовується в реальні дискусії, коментуючи пости журналістів, інфлюенсерів та публічних осіб — замість того, щоб просто публікувати контент на власних сторінках
Генерує контекстно-доречні коментарі кількома мовами, які відповідають тону та темі оригінального поста
Підтримує низьку активність протягом тривалого часу, щоб не привертати увагу систем виявлення
Взаємодіє з реальними користувачами, а не лише між собою
Як приклад у звіті наводиться аналіз онлайн-дискусії навколо інциденту з російським дроном у польському повітряному просторі у вересні 2025 року: серед 3 622 проаналізованих акаунтів 22% виявилися неавтентичними — і всі вони активно просували наративи, що знімали відповідальність з росії.
Пропаганда змінює вектор: від локальної політики до армії КНР
Більшість комерційних ботів, як і раніше, просувають криптовалютні схеми та рекламний спам. Але з кожним роком частка політичного контенту зростає.
У 2025 році дослідники зафіксували різке збільшення прокитайського контенту. На Facebook, X, YouTube та TikTok боти з досліджуваної вибірки масово поширювали матеріали, що прославляли військову міць Китаю: відео ракетних пусків, військово-морських операцій, церемоній введення в дію нових кораблів. На X боти репостили публікації з тезою про перевагу китайської армії над американською. На TikTok — контент, що одночасно прославляв армії Китаю та росії.
У VKontakte боти, як і раніше, служать підсилювачем проросійських наративів — зокрема фантазій про «визволення» Аляски та реваншистського контенту з посиланням на «СВО 2.0».
Instagram виявився єдиною платформою, де дослідники не виявили жодного бота, що поширював би політичний чи військовий контент.
Крипта — фінансовий щит ботоферм
Усі 10 провайдерів маніпуляцій, з якими працювали дослідники, приймають оплату виключно у криптовалюті — Bitcoin, MATIC або USDT. Фінансова розвідка Латвії, яка брала участь у дослідженні, провела аналіз транзакцій.
Висновки невтішні: з 10 транзакцій лише 4 вдалося простежити від початку до кінця. Решта 6 проходили через гаманці платіжних посередників (Cryptomus, Heleket), де кошти різних клієнтів змішувалися — і відстежити конкретний грошовий потік стає неможливо без прямої співпраці з цими сервісами або судових запитів.
При цьому обсяги коштів, що обертаються в цій індустрії, вражають. Один провайдер з росії (у звіті — RU1) отримав за 26 місяців близько 265 261 доларів. Інший, з Великої Британії (UK2), — 123 714 доларів за 28 місяців.
Крім того, звіт зазначає, що обслуговування гаманця RU1 через Binance потенційно порушує санкційні обмеження ЄС щодо росії (Регламент ЄС №833/2014, стаття 5b(2)).
ШІ на службі маніпуляторів: автоматизація без меж
Окремий розділ звіту присвячений перевірці того, наскільки легко сьогодні автоматизувати виробництво та розповсюдження дезінформаційного контенту.
Відповідь: дуже легко і дуже дешево.
Дослідники зібрали повністю автоматизований конвеєр: промпти зберігаються у Google Таблицях, ChatGPT генерує текст, Freepik API — зображення та відео, а комерційний оркестратор публікує все це через підроблені акаунти на всіх платформах одночасно. Жодного ручного втручання після початкового налаштування.
За €10 такий конвеєр може виробити тисячі зображень або сотні відео за допомогою різних ШІ-інструментів (Classic Fast, Flux, Seedream, Gemini 2.5 Flash, Kling тощо).
Що з цим робити: рекомендації звіту
Автори звіту пропонують кілька ключових підходів до протидії:
1. Поведінкова детекція замість текстового аналізу. Виявляти ботів за патернами поведінки — синхронністю дій, структурою зв’язків між акаунтами, часовими закономірностями — а не лише за вмістом постів.
2. Безперервний моніторинг замість реакції на кампанії. Відстежувати, як наративи розвиваються з часом і де вони проникають у реальні дискусії.
3. Аналіз цілих розмов, а не окремих постів. Боти нового покоління ховаються в коментарях під постами реальних людей — їх не видно, якщо аналізувати лише ізольовані публікації.
4. «Простежте за грошима». Великі фінансові потоки в бік провайдерів маніпуляцій є індикатором стратегічних операцій впливу. Фінансова розвідка має стати частиною аналізу інформаційних загроз.
5. Санкції проти провайдерів маніпуляцій. Компанії, що пропонують послуги накрутки, мають каратися на рівні регуляторів і платформ.
Що це означає для звичайних користувачів
Коли ви бачите публікацію з тисячами лайків — це ще не означає, що її підтримують тисячі реальних людей. Коли під постом журналіста чи відомого блогера з’являються «стурбовані громадяни» з влучними коментарями — деякі з них можуть бути ШІ-ботами, що навмисно скеровують дискусію в потрібний напрямок.
Ключові ознаки, на які варто звертати увагу:
Акаунти без реальної історії або зі штучно виглядаючим контентом
Однотипні або надто «відполіровані» коментарі під гострими темами
Різке збільшення активності під певним контентом за короткий час
Акаунти, що коментують переважно контент публічних осіб, а не ведуть власної діяльності
Цифрова грамотність — уміння критично оцінювати те, що бачите в соцмережах — залишається найефективнішим захистом від маніпуляцій, які індустрія вже виробляє у промислових масштабах.