Друкарня від WE.UA

Індустрія фейків за копійки: звіт НАТО розкриває, як ШІ та крипта допомагають ботофермам

Попри запровадження жорстких європейських законів (DSA) та постійні заяви технологічних гігантів про посилення безпеки, ринок маніпуляцій у соціальних мережах не просто живий — він еволюціонує.

Центр передового досвіду зі стратегічних комунікацій НАТО (NATO StratCom COE) щороку проводить масштабний експеримент: дослідники самі купують фейкові підписники, лайки, коментарі та перегляди на основних соціальних платформах — щоб перевірити, наскільки добре ці платформи здатні виявляти та видаляти неавтентичну активність.

У 2026 році вийшов уже шостий звіт цієї серії. Результати тривожні: маніпуляції лишаються дешевими та доступними, боти стають розумнішими, а платформи — попри певний прогрес — досі не справляються із проблемою системно.

Що і як досліджували

Між вереснем і листопадом 2025 року дослідники зареєстрували 28 підроблених акаунтів на семи платформах: Facebook, Instagram, X (колишній Twitter), TikTok, YouTube, VKontakte та Bluesky. На цих акаунтах вони публікували 126 постів і купували для них «накрутку» у десяти комерційних провайдерів маніпуляцій з різних куточків світу.

Загальна сума витрат — €252. За ці гроші дослідникам доставили:

  • 17 553 фейкові коментарі

  • 37 814 лайків

  • 16 025 репостів

  • 27 653 перегляди

Сукупно в цих взаємодіях взяли участь понад 30 000 унікальних підроблених акаунтів.

Також вперше в рамках цього дослідження було перевірено рекламні інструменти платформ: за €130 через куплені фейкові рекламні акаунти вдалося отримати 206 234 перегляди та 200 лайків, а ще за €121 — 17 442 фейкові коментарі під рекламними постами.

Хто найкраще видаляє ботів: рейтинг соцмереж

Рівень видалення підроблених акаунтів досяг рекордного показника: в середньому 50,4% ідентифікованих фейкових акаунтів було видалено впродовж п’яти тижнів після купівлі. Для порівняння: у 2021 році видаляли лише 20%, у 2024-му — 13%.

Та результати між платформами різняться кардинально:

Платформа

Видалено акаунтів

Залишилось фейкової активності

VKontakte

96%

70,35%

X

82%

43,41%

YouTube

55%

56,20%

Bluesky

55%

100%

Facebook

39%

79,40%

Instagram

22%

84,03%

TikTok

4%

68,13%

Попри те, що VKontakte видалив майже всі акаунти, фейкові лайки та коментарі на постах нікуди не зникли — вони лишилися активними. X та YouTube показали найкращий результат у видаленні самої фейкової активності: на X після чотирьох тижнів залишилося лише 43% куплених взаємодій, на YouTube — 56%.

Скільки коштує обманути алгоритми?

Набір базових фейкових взаємодій — 100 лайків, 100 коментарів, 1000 переглядів, 100 підписників — коштує від менш ніж €1 до кількох євро залежно від платформи. Bluesky виявився найдешевшим варіантом; X у 2025 році став найдорожчим, але при цьому 156 000 фейкових переглядів там можна купити всього за €10.

Рекламна маніпуляція дорожча й складніша, але теж реальна: дослідники без проблем придбали готові рекламні акаунти для Meta, TikTok та YouTube. На Instagram після 72 годин кількість доставлених фейкових коментарів під рекламою перевищила замовлену утричі (340% від очікуваного).

Штучний інтелект створює ботів нового покоління

Це, мабуть, найтривожніший висновок звіту. Якщо раніше боти діяли прямолінійно — масово спамили однотипними коментарями й діяли у замкнених мережах між собою — то сучасні підроблені акаунти поводяться принципово інакше.

За даними компанії Cyabra, яка аналізувала поведінку ботів для цього звіту, нова генерація фейкових акаунтів:

  • Вбудовується в реальні дискусії, коментуючи пости журналістів, інфлюенсерів та публічних осіб — замість того, щоб просто публікувати контент на власних сторінках

  • Генерує контекстно-доречні коментарі кількома мовами, які відповідають тону та темі оригінального поста

  • Підтримує низьку активність протягом тривалого часу, щоб не привертати увагу систем виявлення

  • Взаємодіє з реальними користувачами, а не лише між собою

Як приклад у звіті наводиться аналіз онлайн-дискусії навколо інциденту з російським дроном у польському повітряному просторі у вересні 2025 року: серед 3 622 проаналізованих акаунтів 22% виявилися неавтентичними — і всі вони активно просували наративи, що знімали відповідальність з росії.

Пропаганда змінює вектор: від локальної політики до армії КНР

Більшість комерційних ботів, як і раніше, просувають криптовалютні схеми та рекламний спам. Але з кожним роком частка політичного контенту зростає.

У 2025 році дослідники зафіксували різке збільшення прокитайського контенту. На Facebook, X, YouTube та TikTok боти з досліджуваної вибірки масово поширювали матеріали, що прославляли військову міць Китаю: відео ракетних пусків, військово-морських операцій, церемоній введення в дію нових кораблів. На X боти репостили публікації з тезою про перевагу китайської армії над американською. На TikTok — контент, що одночасно прославляв армії Китаю та росії.

У VKontakte боти, як і раніше, служать підсилювачем проросійських наративів — зокрема фантазій про «визволення» Аляски та реваншистського контенту з посиланням на «СВО 2.0».

Instagram виявився єдиною платформою, де дослідники не виявили жодного бота, що поширював би політичний чи військовий контент.

Крипта — фінансовий щит ботоферм

Усі 10 провайдерів маніпуляцій, з якими працювали дослідники, приймають оплату виключно у криптовалюті — Bitcoin, MATIC або USDT. Фінансова розвідка Латвії, яка брала участь у дослідженні, провела аналіз транзакцій.

Висновки невтішні: з 10 транзакцій лише 4 вдалося простежити від початку до кінця. Решта 6 проходили через гаманці платіжних посередників (Cryptomus, Heleket), де кошти різних клієнтів змішувалися — і відстежити конкретний грошовий потік стає неможливо без прямої співпраці з цими сервісами або судових запитів.

При цьому обсяги коштів, що обертаються в цій індустрії, вражають. Один провайдер з росії (у звіті — RU1) отримав за 26 місяців близько 265 261 доларів. Інший, з Великої Британії (UK2), — 123 714 доларів за 28 місяців.

Крім того, звіт зазначає, що обслуговування гаманця RU1 через Binance потенційно порушує санкційні обмеження ЄС щодо росії (Регламент ЄС №833/2014, стаття 5b(2)).

ШІ на службі маніпуляторів: автоматизація без меж

Окремий розділ звіту присвячений перевірці того, наскільки легко сьогодні автоматизувати виробництво та розповсюдження дезінформаційного контенту.

Відповідь: дуже легко і дуже дешево.

Дослідники зібрали повністю автоматизований конвеєр: промпти зберігаються у Google Таблицях, ChatGPT генерує текст, Freepik API — зображення та відео, а комерційний оркестратор публікує все це через підроблені акаунти на всіх платформах одночасно. Жодного ручного втручання після початкового налаштування.

За €10 такий конвеєр може виробити тисячі зображень або сотні відео за допомогою різних ШІ-інструментів (Classic Fast, Flux, Seedream, Gemini 2.5 Flash, Kling тощо).

Що з цим робити: рекомендації звіту

Автори звіту пропонують кілька ключових підходів до протидії:

1. Поведінкова детекція замість текстового аналізу. Виявляти ботів за патернами поведінки — синхронністю дій, структурою зв’язків між акаунтами, часовими закономірностями — а не лише за вмістом постів.

2. Безперервний моніторинг замість реакції на кампанії. Відстежувати, як наративи розвиваються з часом і де вони проникають у реальні дискусії.

3. Аналіз цілих розмов, а не окремих постів. Боти нового покоління ховаються в коментарях під постами реальних людей — їх не видно, якщо аналізувати лише ізольовані публікації.

4. «Простежте за грошима». Великі фінансові потоки в бік провайдерів маніпуляцій є індикатором стратегічних операцій впливу. Фінансова розвідка має стати частиною аналізу інформаційних загроз.

5. Санкції проти провайдерів маніпуляцій. Компанії, що пропонують послуги накрутки, мають каратися на рівні регуляторів і платформ.

Що це означає для звичайних користувачів

Коли ви бачите публікацію з тисячами лайків — це ще не означає, що її підтримують тисячі реальних людей. Коли під постом журналіста чи відомого блогера з’являються «стурбовані громадяни» з влучними коментарями — деякі з них можуть бути ШІ-ботами, що навмисно скеровують дискусію в потрібний напрямок.

Ключові ознаки, на які варто звертати увагу:

  • Акаунти без реальної історії або зі штучно виглядаючим контентом

  • Однотипні або надто «відполіровані» коментарі під гострими темами

  • Різке збільшення активності під певним контентом за короткий час

  • Акаунти, що коментують переважно контент публічних осіб, а не ведуть власної діяльності

Цифрова грамотність — уміння критично оцінювати те, що бачите в соцмережах — залишається найефективнішим захистом від маніпуляцій, які індустрія вже виробляє у промислових масштабах.

Статті про вітчизняний бізнес та цікавих людей:

Поділись своїми ідеями в новій публікації.
Ми чекаємо саме на твій довгочит!
Cybercalm
Cybercalm@cybercalm we.ua/cybercalm

Кібербезпека простою мовою

74Довгочити
954Прочитання
17Підписники
На Друкарні з 15 листопада

Більше від автора

Це також може зацікавити:

Коментарі (0)

Підтримайте автора першим.
Напишіть коментар!

Це також може зацікавити: