ШОК! Фейкові військові, створені ШІ, закликають забрати Львів — Українці в небезпеці! - Gorod PL
Новини Польщі для українців

ШОК! Фейкові військові, створені ШІ, закликають забрати Львів — Українці в небезпеці!

Фейкові військові у відео закликають «повернути Львів»: у Європі зростає хвиля ІІД-дезінформації, створеної штучним інтелектом

У квітні 2025 року у Польщі було виявлено дезінформаційну кампанію з використанням штучного інтелекту: фейкові відео з генералами НАТО, згенеровані за допомогою deepfake-технологій, закликають повернути Львів до Польщі. Експерти вважають, що такі дії є елементом гібридної інформаційної атаки, ймовірно організованої Росією, і спрямовані на посилення напруженості у польсько-українських відносинах.

Новий виток гібридної війни: як виглядають фейкові повідомлення

Фейкові генерали «повертають Львів»

У березні 2025 року в польському та українському сегментах соцмереж почали з’являтися відео, на яких нібито польські та натівські військові закликають до «повернення» Львова Польщі. Як повідомляє інформаційний портал «Наш вибір» з посиланням на організацію Demagog.pl, ці матеріали були створені за допомогою технологій генеративного штучного інтелекту (deepfake), з використанням підроблених зображень обличчя, голосу та манери мовлення.

📢 Хочете бути в курсі всіх новин та можливостей у Польщі?

🔹 Gorod.PL – робота, послуги, оголошення для українців!

Реєструйтеся зараз!

До прикладу, у відео, розповсюдженому 28 березня 2025 року, зображений чоловік у камуфляжі з емблемою НАТО, який представляється польським генералом і заявляє про «історичне право Польщі на повернення Львова». Після аналізу відеоматеріалу фахівці Demagog.pl дійшли висновку, що жодна зі згаданих осіб не існує, а обличчя та голос було змодельовано за допомогою ШІ.

Розповсюдження через соцмережі та месенджери

Підроблені відео активно поширювалися у Facebook, X (Twitter), TikTok, а також через канали Telegram із проросійською або антиукраїнською риторикою. Варто зазначити, що деякі відео були оформлені начебто як новини авторитетних ЗМІ, таких як TVN24 або Polsat News. Проте офіційні представники медіакомпаній підтвердили, що не мають жодного стосунку до відповідних матеріалів.

Цілі інформаційної атаки: розкол і дестабілізація

Маніпуляції історією та емоціями

За словами Радослава Щепанського, експерта аналітичного центру Instytut Nowej Europy, зазначена кампанія має на меті викликати недовіру між українцями та поляками шляхом маніпуляцій на історичному тлі. «Російська пропаганда систематично намагається відтворити наратив про територіальні претензії Польщі до західної України, хоча таких позицій не існує на жодному офіційному рівні», — зазначає Щепанський у коментарі Polityka Insight.

Схожі наративи ще з 2022 року спорадично просуваються російськими ЗМІ, однак у 2024–2025 роках завдяки розвитку генеративного ШІ вони стали значно переконливішими й важче відрізняються від реальності.

🌟 Шукаєте роботу чи послуги в Польщі?

Розмістіть своє оголошення на Gorod.PL і отримайте доступ до тисяч потенційних клієнтів та роботодавців!

Розмістити оголошення

Тло: політична активність ультраправих середовищ

Деякі фейкові матеріали супроводжуються посиланнями на реальні висловлювання представників польських ультраправих партій, зокрема Konfederacja, які, щоправда, також були перекручено використані або вирвані з контексту. Провокаційний медіаконтент, що нібито виражає думки широких верств польського суспільства, насправді покликаний створити ілюзію антагонізму між союзниками по НАТО.

Як виявляють і протидіють дезінформації

Фактчекінгові ініціативи у Польщі та Україні

Організації Demagog.pl (Польща), VoxCheck (Україна), EU DisinfoLab та інші активно працюють над ідентифікацією фейкових повідомлень, що створюються за допомогою ШІ. Наприклад, Demagog.pl провів технічний аналіз відео з фейковими військовими, визначивши, що рендерінг голосу та облич вказує на машинну генерацію, типову для моделей OpenAI або Synthesis.ai.

В Україні, згідно з заявами Центру протидії дезінформації при РНБО, у поточному кварталі 2025 року було викрито щонайменше 12 інцидентів використання deepfake-технологій у військово-політичному контексті.

Позиція офіційних структур

Міністерство національної оборони Польщі заявило, що жоден із фейкових «військових» не має стосунку до польської армії, і розповсюдження таких роликів є «провокацією, спрямованою на підрив міжнародної співпраці». Українське МЗС, у свою чергу, закликало не піддаватися провокаціям і довіряти лише перевіреним джерелам інформації.

ШІ стає інструментом війни: виклики для медіа та суспільства

Ризики масштабування дезінформації

Експерти з цифрової безпеки попереджають: в умовах технологічного розвитку генеративного ШІ створення й поширення переконливих фейкових відео стало простішим та дешевшим. За оцінками Центру дослідження цифрової політики ЄС (CEIDP), в 2025 році щонайменше 28 % відеофейків, які поширювались у Східній Європі, були згенеровані за участю штучного інтелекту.

Необхідність цифрової освіти та регуляції

Польські та українські аналітики підкреслюють потребу у поглибленій цифровій грамотності населення та впровадженні алгоритмічної перевірки відеоконтенту на платформах, таких як YouTube, TikTok та Instagram. Європейська комісія вже у січні 2025 року внесла поправки до Акту про цифрові послуги (Digital Services Act), зобов’язавши платформи маркувати AI-контент та негайно видаляти фейкові інформаційні атаки, особливо під час воєнних криз.

Висновки

Фейкові відео із залученням deepfake-технологій, зображаючі вигаданих польських військових з провокаційними заявами про Львів, є частиною цілеспрямованої інформаційної кампанії, що використовує технології штучного інтелекту з метою дестабілізації регіону. Польща та Україна, хоча й піддаються гібридному тиску, тісно співпрацюють в інформаційному, безпековому та медіапросторі задля викриття й нейтралізації подібних загроз.


Comments

Залишити відповідь

Увійти

Зареєструватися

Скинути пароль

Будь ласка, введіть ваше ім'я користувача або ел. адресу, ви отримаєте лист з посиланням для скидання пароля.

Показати опції
Додати
послугу
Створити
завдання
----------------- або -----------------
Шукати Послуги Дивитись Завдання