Новини світу фінансів

Які трансформації відбулися в стратегіях інформаційних війн: ключові тенденції 2025 року.

LLM-груммінг, штучні інтелектуальні фейки, масована пропаганда у Telegram, підроблені відео на TikTok та дублікати популярних західних медіа.

"Детектор медіа" аналізує підсумки 2025 року. У статті "Америка більше не ворог: як пропаганда перетворює Європу на ціль замість США" розглядається, як змінилася риторика російських пропагандистів за цей період. Ми дослідили еволюцію висловлювань Дональда Трампа стосовно війни Росії проти України протягом року. Ознайомитися з основними тенденціями російської пропаганди 2025 року можна за посиланням.

Цей матеріал присвячений основним трансформаціям у стратегіях інформаційної війни.

Рік 2025 став ключовим моментом, оскільки дезінформація еволюціонувала в майже повністю автоматизовану галузь. Якщо раніше ворожі дії нагадували локалізовані акти саботажу, то тепер це стало автономним процесом, у якому штучний інтелект (ШІ) у руках недобросовісних осіб виконує роль сценариста, режисера і розповсюджувача неправди.

Ми опинилися у світі, де вже боротьба йде не просто за те, у що ми віримо, а те, як ми сприймаємо дійсність. Розглянемо п'ять ключових тенденцій 2025 року, що стали точкою неповернення.

LLM-grooming: отруєння "мізків" генеративних мовних моделей

У 2025 році ми стали очевидцями виникнення однієї з найпідступніших технологій маніпуляцій — LLM grooming (обробка мовних моделей). Якщо раніше основною метою дезінформації була людина, то тепер противник намагається впливати на генеративні мовні моделі (такі як ChatGPT, Gemini, Copilot тощо), на які покладається ця сама людина.

Мережі на кшталт Pravda Network, викрита VIGINUM, більше не намагаються створювати унікальні фейки. Вони діють за іншим принципом:

До речі, у цей спосіб Росія знайшла спосіб обходити санкції ЄС не через пряме мовлення, а через "згодовування" забороненого контенту штучному інтелекту. Згідно зі звітами DFRLab і GLOBSEC, підсанкційні ресурси (як-от RT, Sputnik та інші) містяться у джерельній базі цієї мережі.

Це формує самопідтримувану систему дезінформації, в якій штучний інтелект виступає як економічно вигідний та надшвидкий каталізатор ворожих наративів.

Альтернативна згенерована реальність у TikTok

Якщо у 2022 році дипфейк із Зеленським виглядав недбало, то у 2025 році технології візуальної дезінформації значно вдосконалилися. Ми бачимо явний перехід від простих аматорських відео до складних технологічних інструментів, здатних завдавати емоційної шкоди. Коли такі матеріали поєднуються з алгоритмами рекомендацій у соціальних мережах, таких як TikTok, їхня небезпека зростає в геометричній прогресії.

Сьогодні противник реалізує дві одночасні стратегії для створення контенту: дипфейки (використання існуючих матеріалів, де на актора-імітатора накладається цифровий "лице" та синтезується голос, як у відео з Зеленським чи Залужним) та відео, згенеровані штучним інтелектом (контент, що створюється "з нуля" на основі текстового запиту).

Стратегія поширення такого контенту, як пояснюють у звіті Центру протидії дезінформації, відбувається, як правило, за такою схемою:

Приклади дипфейків та відео, створених за допомогою штучного інтелекту на платформі TikTok.

Для міжнародної аудиторії, яка може бути не знайома з контекстом, ці відео створюють не лише фальсифікації, а й альтернативну, штучно згенеровану реальність щодо подій в Україні.

Боти нового рівня: цифрова перевага та симуляція людських дій.

Головна загроза 2025 року -- не в лише обсягах активності ботів, а в тому, що вони стали важко впізнаваними. Якщо раніше російські ботоферми працювали за методичкою "copy-paste", то сьогодні вони використовують генеративний ШІ для забезпечення унікальності контенту.

Дослідження OpenMinds виявило, що в ході виборчих кампаній у Молдові штучний інтелект забезпечив 95% оригінальності коментарів. Боти більше не генерують ідентичні фрази — вони налаштовують свої відповіді відповідно до контексту конкретного посту, що робить їх схожими на справжніх зацікавлених користувачів. Сьогодні важливіше мати набір ідей і зміст, який потрібно донести, аніж просто використовувати готові шаблони повідомлень.

Інше дослідження, проведене OpenMinds та Atlantic Council, свідчить про те, що сучасні бот-мережі тепер "відпочивають" вночі та "активізуються" протягом робочого дня, що дозволяє їм імітувати поведінку реальних людей (публікуючи контент у години, які є типовими для справжніх користувачів).

Основною метою ботів залишається створення ілюзії численності, що дозволяє маніпулювати користувачами платформ і переконувати їх у певних ідеях.

Операція Дуплет: викрадення іміджу та загроза демократії

У 2025 році продовжувалася операція під назвою Doppelganger ("Двійник"). Згідно з даними Головного управління розвідки Міністерства оборони України, перед президентськими виборами в Польщі ця операція знову набрала активності.

Суть операції полягає у створенні ідентичних клонів відомих видань, таких як Le Monde, Der Spiegel, The Guardian чи інших, а основна ціль -- умовна легітимізація неправдивого контенту та гра на довірі до бренду. У цьому випадку ворог не створює власну платформу для пропаганди, а паразитує на репутації інших медіа чи інших ресурсів.

Не останню роль тут відіграє ШІ. Як підтвердив ще у 2024 році OpenAI, зловмисники використовували їхні моделі для написання заголовків, редагування статей і створення дописів у соцмережах.

Децентралізація інформаційних кампаній: як місцеві гравці та ресурси долають цифрові бар'єри.

Проте інформаційна війна 2025 року велася не лише винятково з допомогою ШІ, Кремль також зберігає традиційні методи, створюючи систему.

Попри глобальну ізоляцію, Росія продовжує інвестувати в класичне мовлення там, де це можливо. Запуск RT India у грудні 2025 року -- це сигнал про те, що Глобальний Південь залишається пріоритетним майданчиком для прямої, фронтальної пропаганди.

Однак основною зміною є перехід від централізованих джерел до децентралізованого розподілу інформації. Якщо розглянути декілька інфографік мовних платформ мережі Pravda, створених на основі даних Check First та DFRLab, можна виявити дві ключові тенденції, які проявляться у 2025 році.

Джерела даних мережі Pravda Network. Інформація сформована на основі бази даних проєкту Pravda Dashboard, розробленого компаніями Check First і DRF Lab.

По-перше, значення традиційних веб-сайтів різко знижується, тоді як Telegram перетворився на ключовий канал для російських наративів в Європейському Союзі.

По-друге, замість централізованих пропагандистських платформ Росії, таких як RIA Novosti або RT, все більше набирають популярності місцеві російські або проросійські ресурси. Вони, як правило, виконують роль перекладачів-адаптерів: беруть існуючий пропагандистський контент або наративи та представляють їх на польській, німецькій чи французькій мовах.

Ця стратегія використовує головну вразливість демократій -- високу довіру до внутрішніх джерел.

Понад те, небезпека такої децентралізації, згідно з дослідженням ЦЕДЕМ, полягає в тому, що контент, наприклад, RIA Novosti чи Lenta.ru, які не мають іншомовних версій, стає доступним для населення інших країн, що не володіють російською, завдяки місцевим російським/проросійським ресурсам, політикам та "експертам".

До того ж технології зробили переклад дешевим, що дозволило пропаганді стати локальною в кожній точці світу. Завдяки ШІ-перекладу шлях від публікації в Москві до адаптованого допису у Варшаві чи Берліні тепер займає хвилини.

Росія створила складну цифрову інфраструктуру. Навіть за умов блокування офіційних веб-ресурсів, тисячі локальних комунікаційних каналів продовжують поширювати пропаганду прямо на смартфони європейців, використовуючи їхню мову та звертаючись до їхніх внутрішніх побоювань.

Підсумки 2025 року вказують на те, що ворог більше не прагне переконати нас у своїй "істині". Його метою стало занурити нас у величезний потік високотехнологічного шуму, аби ми втратили віру в існування будь-якої правди. Тепер дезінформація з'являється на сторінках, які ми вважаємо своїми "улюбленими медіа", звучить голосами знайомих політиків у TikTok і проникає в наші відповіді ChatGPT та інших генеративних мовних моделей.

Однак технологічні виклики вимагають не лише технічних рішень. Основна лінія захисту залишається на рівні свідомості. Уміння відповідально споживати інформацію стає необхідним навиком для виживання в сучасному цифровому середовищі.

Потрібно зрозуміти: в епоху, коли штучний інтелект здатний генерувати будь-які реалії за бажанням, довіра стає найціннішою валютою. Наше спільне завдання на наступний рік – захистити цю довіру.

Ірина Субота, проектна менеджерка в галузі боротьби з дезінформацією Центру демократії та правопорядку.

Читайте також