Kiedy w nocy z wtorku na środę polską przestrzeń powietrzną naruszyły drony, wkrótce zaatakowana została również cyberprzestrzeń. Już około 3:40 pojawiły się pierwsze komentarze i podejrzenia, z których płynęła odpowiednio spreparowana narracja. Fakty zaczęły mieszać się z półprawdami po to, aby nad ranem fałsz zaczął nabierać drugiego życia w memach i emocjonalnych wpisach podawanych dalej przez nieświadomych użytkowników portali społecznościowych. Incydent w powietrzu stał się areną wojny informacyjnej, gdzie orężem nie są rakiety, lecz algorytmy, emocje i precyzyjne targetowanie treści. Tak wygląda wojna kognitywna.
Niewidzialna wojna
Wojna hybrydowa to nie pojedynczy manewr lub zastosowany trik, to cała paleta środków stosowanych równolegle, poniżej progu otwartego konfliktu zbrojnego. Obejmuje działania ekonomiczne, cyberataki, manipulację informacyjną, operacje wpływu, czy demonstracje militarne takie jak rozgrywające się za naszą wschodnią granicą ćwiczenia „Zapad” (ros. zachód). Wszystkie odpowiednio zsynchronizowane mają za zadanie wywołać dezorientację i ograniczyć pole manewru państwa osłabiając w ten sposób jego oporność. European Centre of Excellence for Countering Hybrid Threats (Hybrid CoE) definiuje zagrożenia hybrydowe jako:
skomplikowane i skoordynowane działania przeciwnika, które wykorzystują podatność systemów demokratycznych, rozciągając się od poziomu lokalnego po międzynarodowy
European Centre of Excellence for Countering Hybrid Threats
Kluczowe jest tutaj skrzętne balansowanie poniżej granicy, której przekroczenie pozwoliłoby jednoznacznie przypisać atak lub uruchomić formalną odpowiedź militarną. To właśnie ta „szara strefa” – pomiędzy pokojem a wojną – jest polem manewru ataków wykorzystujących metody hybrydowe [1].
Niewidzialną wojną, która idzie o krok dalej jest wojna kognitywna. Rozgrywają się w naszych umysłach jej teatrem staje się ludzka uwaga, interpretacja i decyzja. W ujęciu rozwijanym w ramach struktur NATO, szczególnie Allied Command Transformation (ACT), celem jest zdobycie przewagi kognitywnej – zdolności wyprzedzania przeciwnika w rozumieniu sytuacji, wnioskowaniu i podejmowaniu decyzji. Jak dostrzega raport „NATO innovation Hub – Cognitive Warfare”, polem walki w wojnie kognitywnej staje się proces myślenia, a orężem – narzędzia psychologii, neurobiologii i nowych technologii. W praktyce chodzi nie tylko o to, co myślimy, ale „jak” myślimy: jakie ramy poznawcze stosujemy, jakie dominują emocje w interpretacji zdarzeń i jakie narracje prowadzą do konkretnych zachowań. Wojnę kognitywną można zobrazować przywołując słowa Freidrich’a Nietzsche „nie ma faktów, są tylko interpretacje” [2].
Zarówno działania hybrydowe jak i kognitywne obserwujemy w Polsce od kilku dobrych lat. Kryzys na granicy polsko-białoruskiej, który rozpoczął się w 2021 roku jest podręcznikową ilustracją działań hybrydowych: państwo trzecie, wykorzystując wrażliwość humanitarną Zachodu, organizuje i steruje ruchem migrantów, tworząc presję polityczną i społeczną. Celem samym w sobie nie jest zalanie terytorium naszego państwa falą migrantów. Jest nim wywołanie podziałów w społeczeństwie, zaangażowanie sił państwa do opanowania kryzysu lub doprowadzenie do burzy politycznej jaką obserwowaliśmy kilka lat termu w strefie nadgranicznej z udziałem polityków obecnie rządzącego obozu. Podobny charakter mają przypadki sabotażu gospodarczego, takie jak głośne podpalenia hal magazynowych, centrów logistycznych czy pożar polskiego pociągu z paliwem pod Wilnem. Przy czym w tym ostatnim przypadku, do którego doszło przecież kilka dni temu, z jednoznacznym przypisaniem przyczyn powinniśmy się jeszcze wstrzymać. Niemniej jednak we wszystkich tych przypadkach uderzenie nie wymagało rakiet, czołgów i samolotów – wystarczyło wykorzystanie istniejących słabości systemu.
Krok w krok za wszystkimi przytoczonymi wyżej przypadkami szły również działania kognitywne. Działania dezinformacyjne towarzyszące kryzysowi migracyjnemu obfitowały w powiązane z białoruską i rosyjską propagandą narracje, które przedstawiały Polskę jako państwo okrutne wobec migrantów, a zarazem niezdolne do obrony własnych granic. Podobnie w przypadku naruszenia naszej przestrzeni powietrznej przez rosyjskie drony kilka dni temu – zanim pojawiły się oficjalne komunikaty władz, w social mediach rozpowszechniano sprzeczne wersje wydarzeń. Od rzekomej „prowokacji ukraińskiej”, poprzez oskarżenia o spóźnioną reakcję państwa, poprzez ironiczne memy o „rakietach za miliony dolarów strącających drona ze styropianu”. Tu nie chodziło wyłącznie o presję polityczną. Tu chodziło o kształtowanie ram percepcyjnych, w których obywatele własnego państwa postrzegają je jako nieudolne, a sojuszników za niewiarygodnych.
Warto podkreślić, że wojna hybrydowa i kognitywna przenikają się nawzajem. Podpalenie hali czy presja migracyjna to elementy hybrydowe, ale narracje i obrazy, które wokół nich narastają w infosferze, należą już do wymiaru kognitywnego. Oba mechanizmy składają się na całość, którą dziś nazywamy nowoczesnym polem walki. Polem, które często ignorujemy.

Dezinformacja
Dezinformacja to dziś jedno z najpotężniejszych narzędzi oddziaływania w sferze publicznej polegające na manipulacji treścią i odpowiednim wysterowaniu emocji odbiorców. Współczesne państwa autorytarne oraz wyspecjalizowane grupy wykorzystują ją, aby podważyć zaufanie do instytucji, polaryzować społeczeństwo, osłabić spójność sojuszy i sprawić, by opinia publiczna miała wrażenie rozwijającego się chaosu. To właśnie dlatego dezinformacja nie jest jedynie kwestią błędnych informacji. To broń psychologiczna i polityczna, która może destabilizować całe państwa bez jednego wystrzału.
Chociaż w dyskusji publicznej mamy tendencję wrzucania do jednego worka wszelkich fałszywych treści, badacze proponują precyzyjny podział. Klasyczne opracowanie Claire Wardle i Hosseina Derakhshana przygotowane dla Rady Europy rozróżnia trzy zjawiska: misinformation (niezamierzone wprowadzenie w błąd wynikające z pomyłki lub braku wiedzy), disinformation (celowe wprowadzenie w błąd, motywowane zyskiem politycznym, ideologicznym lub finansowym), malinformation (informacje prawdziwe, ale użyte w złej wierze jak np. upublicznienie prywatnych danych lub wyrwanie faktów z kontekstu w celu zaszkodzenia komuś). Wydaje się, że przyjęcie tej taksonomii porządkuje debatę, bo pozwala ocenić nie tylko treść, ale także intencję przekazu [3].
Psychologia poznawcza dodaje jednak pewne istotne zastrzeżenie. Nawet, gdy fałsz zostaje później skorygowany, jego wpływ potrafi się utrzymywać – to zjawisko znane jest jako continued influence effect. Odbiorcy często nadbudowują nowe racjonalizacje nad wcześniejszym błędem, zamiast całkowicie go porzucić. W praktyce oznacza to, że spory w mediach społecznościowych rzadko kończą się „kapitulacją” jednej ze stron. Częściej przypominają swojego rodzaju ruchome piaski, w których rzęźnie dyskusja. Dobry przegląd badań nad tym efektem przedstawili Ulrich K.H. Ecker wraz ze współpracownikami na łamach czasopisma Nature Reviews Psychology, zwracając uwagę, że prosty „fact-check” rzadko wystarcza do odwrócenia raz zakotwiczonego przekonania [4].
Z perspektywy komunikacyjnej szczególnie niebezpieczne są sytuacje, w których różne kategorie fałszywych treści nakładają się na siebie jednocześnie. Jeden użytkownik social mediów może nieświadomie powielać posty zawierające dezinformacje (misinformation), inny celowo dodać do niej kolejne fałszywe treści (disinformation) a jeszcze inny doda do udostępnianego postu swój dopisek zawierający prawdziwe, lecz wyrwane z kontekstu informacje (malinformation). W efekcie powstaje mieszanka niemal wybuchowa, którą niezwykle trudno rozbroić – bo cała ta walka toczy się przecież nie o fakty, lecz o emocje i interpretacje.
W rodzimej przestrzeni informacyjnej mieliśmy wiele przykładów dezinformacji. Podczas kryzysu migracyjnego na granicy z Białorusią pojawiały się niezamierzone błędy w relacjach dziennikarskich (misinformation). Równolegle reżim w Mińsku i Moskwa rozsiewały celowe narracje o „nieludzkiej Polsce” (disinformation). W nie doskonale wpisywały się doniesienia przekazywane przez grupy takie jak „Medycyny na granicy”, czy nawet niektóre produkcje filmowe autorstwa reżyserów chcących na całym kryzysie zbić kapitał (malinformation). Podobny zestaw obserwujemy dziś – przy okazji kryzysu z naruszeniem polskiej przestrzeni powietrznej. Dezinformacja dotyczy zarówno doniesień o rzekomych lokalizacjach miejsc upadku dronów, poprzez celowe narracje o „ukraińskiej prowokacji” (ta zyskuje największe zainteresowanie w social mediach), aż po publikację nagrań z akcji lotniczych, które nigdy nie miały miejsca.
Mechanizmy dezinformacji wykorzystane przy okazji kryzysu z dronami
Kryzys związany z naruszeniem polskiej przestrzeni powietrznej przez rosyjskie drony stanowił pokazowe studium mechanizmów dezinformacyjnych charakterystycznych dla wojny kognitywnej prowadzonej przez Rosję. Wojny, której kluczowym polem starcia stają się nasze umysły. Przyjrzyjmy się zastosowanym mechanizmom.
Pierwszy z nich to tzw. „firehose of falsehood” – strategia „hydrantu”, którą amerykańska gruba badawcza RAND Corporation opisała na przykładzie właśnie rosyjskich operacji informacyjnych. Jej istota polega na wylewaniu szerokiego strumienia (stąd analogia do hydrantu) komunikatów z wielu źródeł, o dużej intensywności i powtarzalności, bez troski o spójność czy logikę. Ona jest tutaj niepotrzebna, bo nie chodzi o to, aby komunikat był wiarygodny. Chodzi o to, by odbiorca został zalany podobnymi informacjami do tego stopnia, że straci chęć weryfikacji. Skutek jest prosty: „nie wiadomo komu wierzyć”, więc rodzi się rezygnacja z poszukiwania prawy [5].
Drugi mechanizm wynika z dynamiki platform społecznościowych. Badanie Sorousha Vasoughiego, Deb Roya i Sinana Arala opublikowane w „Science” pokazało, że fałszywe informacje rozchodzą się na platformie X (dawny Twitter) szybciej, głębiej i dalej niż prawdziwe [6]. Ciekawe w tym jest to, że przyczyną tak dalekiej penetracji fałszywych informacji nie są boty, lecz zwykli użytkownicy, którzy rozpowszechniają „fake newsy” kierując się chęcią podania nowej informacji oraz działając pod wpływem towarzyszących emocji. Dlatego mem o „rakiecie za milion dolarów kontra styropianowy dron” w godzinę obiegła sieć, a rzetelna analiza wojskowa zginęła w niszy ekspertów.
Trzeci mechanizm to „moral contagion”. Emocje rządzą światem! A to sprawia, że treści nacechowane moralnie i emocjonalnie mają naturalną premię zasięgową. Molly Crockett, William Brady i współautorzy wykazali, że każdy dodatkowy moralno-emocjonalny wyraz w tweecie zwiększał jego szanse na udostępnienie, szczególnie w obrębie własnych baniek ideowych [7]. To prosty przepis na polaryzację i idealne paliwo dla operacji informacyjnych, w których liczy się eskalacja emocji, a nie faktów.
Czwarty mechanizm to „information laundering”, czyli „pranie” treści. Komunikaty zawierające „fake newsy” pojawiają się często najpierw w źródłach anonimowych lub o niskiej reputacji. Następnie są powielane przez większe agregatory treści i fora, aby w końcu trafić do mediów o wystarczającym autorytecie, żeby przypisać im pozór wiarygodności. Unijna inicjatywa EUvsDisinfo od lat dokumentuje różnego rodzaju przypadki wykorzystania tego mechanizmu w Europie, pokazując jak z marginesu internetowego rodzi się materiał, który bywa wykorzystywany w debacie publicznej. I tak przekładając to na ostatnie wydarzenia w Polsce, wpisy w mediach społecznościowych na temat dysproporcji pomiędzy wartością rosyjskiego drona a kosztem rakiety wykorzystanej do jego neutralizacji zostały opublikowane po raz pierwszy przez nisko zasięgowych użytkowników. Jednak po chwili argument stał się tak popularny, że pytania o stosunek kosztów do efektów zaczęto zadawać w kanale „Zero” i innych mediach. Dalsze „pranie” tego komunikatu zmusiło Ministerstwo Obrony Narodowej do zajęcia stanowiska w sprawie.
Ostatni mechanizm to „data voids” — luki informacyjne w wyszukiwarkach. Gołębiewski i wsp. opisali, jak manipulanci celowo „zasiewają” rzadko używane terminy i pozycjonują je tak, by w momencie kryzysu przejąć wyniki wyszukiwania. Gdy internauci zaczynają przekopywać Google wpisując hasło związane z nowym wydarzeniem, czeka na nich gotowy ekosystem zmanipulowanych treści. Jest to szczególnie groźne, gdy autorytatywne źródła nie zdołały jeszcze zareagować.

Asymetria kognitywna, czyli dlaczego jedna strona „myśli szybciej”
W operacjach informacyjnych rzadko zwycięża ta strona, która „ma rację” w sensie faktów. Znacznie częściej przewagę zdobywa ta, która szybciej i taniej wywoła określone stany umysłu: niepewność, złość, cynizm czy zrezygnowanie („wszyscy kłamią, więc nie warto ufać nikomu”). To właśnie określamy mianem asymetrii kognitywnej — praktycznej przewagi jednej ze stron w zdolności kształtowania uwagi, interpretacji i decyzji odbiorców.
Z perspektywy NATO mówi się dziś o przewadze kognitywnej (cognitive superiority), rozumianej jako sprawność rozumienia, interpretowania i podejmowania decyzji szybciej i skuteczniej niż przeciwnik. Dokumenty Allied Command Transformation (ACT) podkreślają, że w nowoczesnych konfliktach liczy się nie tylko technologia czy liczba żołnierzy, ale także zdolność do „wyprzedzenia” przeciwnika w procesie poznania i działania [8]. W incydentach „na styku” pokoju i otwartego konfliktu – takich jak wtargnięcia dronów w polską przestrzeń powietrzną – przewagę zyskuje ten, kto szybciej zagospodaruje lukę informacyjną i emocjonalną. Zanim państwowe instytucje sformułują komunikat, społeczeństwo jest już zalane falą interpretacji podsuniętych przez przeciwnika.
To nie ezoteryka, lecz architektura środowiska informacyjnego. Jeśli jednocześnie działa „hydrant fałszu” (zalew sprzecznych narracji), algorytmy premiują emocjonalne treści, a widownia jest zmęczona ciągłymi alertami i ostrzeżeniami – agresor kupuje sobie czas i dyktuje ramę interpretacyjną, zanim fakty zostaną zweryfikowane.
Stąd rosnące znaczenie pre-bunkingu (uprzedzania taktyk manipulacji), a nie tylko gaszenia pożaru po fakcie. Badania polowe przeprowadzone na YouTube przez zespół Jon Roozenbeeka, Sander van der Lindena i wsp. pokazały, że krótkie filmy edukacyjne przygotowujące odbiorców na typowe techniki manipulacyjne (takie jak fałszywe dychotomie, demonizowanie czy granie na strachu) istotnie zwiększają późniejszą zdolność rozpoznawania dezinformacji [9]. To praktyczny dowód, że odporność kognitywną można wzmacniać jeszcze zanim pojawi się kryzys.
Kontekstowe zubożenie polega na wyparowaniu znaczenia z obrazu.
Dezinformacja bardzo często nie polega na jaskrawym kłamstwie, lecz na zubożeniu kontekstu. Oznacza to przedstawienie informacji prawdziwej w takiej ramie, która całkowicie zmienia jej sens. Klasycznym przykładem jest kategoria stosowana przez fact-checkerów – „brak kontekstu”: wiadomość nie jest zmyślona, ale sposób jej podania prowadzi odbiorcę do mylnej konkluzji.
W środowisku cyfrowym sprzyja temu zjawisko określane mianem context collapse — „zawalenia się kontekstu”. Pojęcie to wprowadziła Danah Boyd, opisując sytuację, w której treści tworzone z myślą o wąskiej grupie (np. znajomych, subkulturze czy specjalistach) nagle stają się dostępne dla masowej i zróżnicowanej publiczności. Brakuje wówczas wspólnych reguł interpretacyjnych, przez co znaczenie wypowiedzi zaczyna się wypaczać [10].
Kiedy dodamy do tego szybkie formaty komunikacji – krótkie posty, memy czy klipy wideo – oraz algorytmy premiujące treści emocjonalne i uproszczone, kontekst zsuwa się po równi pochyłej. Zdjęcie wyrwane z relacji reporterskiej, fragment wykresu bez legendy czy mapa bez skali w ułamku sekundy stają się „dowodem” na dowolną tezę. To niekoniecznie wina widza – to właściwość samego medium, które nagradza prostotę i wirusowość.
Badania nad prywatnością i integralnością kontekstową (contextual integrity) autorstwa Helen Nissenbaum, a także prace Alice Marwick i Danah Boyd’a nad kulturą sieciową pokazują, jak łatwo zderzenie norm różnych audytoriów prowadzi do błędnych interpretacji. Przekaz, który w jednym środowisku ma oczywiste znaczenie, w innym odbierany jest zupełnie inaczej — i ta właśnie luka staje się przestrzenią manipulacji [11,12].
W polskim kontekście kontekstowe zubożenie było szczególnie widoczne podczas kryzysu migracyjnego na granicy z Białorusią. Zdjęcia migrantów wykonane z bliska, pozbawione szerszej perspektywy, publikowane w mediach społecznościowych sugerowały dramatyczne sytuacje na całym odcinku granicy. W rzeczywistości przedstawiały one jednostkowe epizody, lecz wyrwane z kontekstu stały się dowodem na rzekomą „katastrofę humanitarną” lub przeciwnie — na „inwazję”. Podobny mechanizm zadziałał przy incydencie z rosyjskimi dronami: wycinki map z aplikacji lotniczych czy niezweryfikowane nagrania wideo krążyły w sieci jako „dowody” na spóźnioną reakcję państwa, choć w większości nie miały potwierdzenia w faktach. W obu przypadkach sens nadawało nie to, co faktycznie przedstawiał materiał, ale rama interpretacyjna, w której został osadzony.

Memetyczne przyspieszenie sprawia, że żart obiega świat w sekundę
Nie każdy mem jest propagandą, ale memetyka wyjątkowo dobrze nadaje się do szybkiego „naklejania” interpretacji. Mechanizm jest prosty: treści nacechowane moralnie i emocjonalnie łatwiej wiralują, memy są banalne do remiksu, a algorytmy premiują dynamikę i reakcje odbiorców. Efekt to memetyczne przyspieszenie — lawinowa replikacja szablonów, które spajają emocję z oceną („państwo z kartonu”, „styropianowe drony”). Empirycznie tę przewagę tempa i zasięgu potwierdzają zarówno wyniki badań Vosoughiego, Roya i Arala, które wykazały, że fałszywe informacje rozchodzą się szybciej i dalej niż prawdziwe [6] jak i model MAD (morality–affect–dissemination) opisany przez Van Bavela, Brady’ego i Crocketta, pokazujący premię dla treści moralno-emocjonalnych w sieciach społecznościowych [13].
To przyspieszenie ma jeszcze jedną cechę: efekt domniemanej prawdziwości (implied truth effect). Badania Pennycooka i współpracowników wykazały, że gdy platforma lub instytucja oznacza część treści jako fałszywe, odbiorcy mają tendencję uznawać nieoznaczoną resztę za bardziej wiarygodną — nawet jeśli także jest fałszywa [14]. Z perspektywy zarządzania kryzysem to ważne ostrzeżenie: samo „łatane” znakowanie postów nie wystarczy. Konieczna jest spójna, proaktywna narracja oraz uprzedzające „szczepionki poznawcze” (prebunking), które uczą użytkowników rozpoznawania trików manipulacyjnych jeszcze przed kryzysem.
W Polsce widzieliśmy ten mechanizm wielokrotnie. I tu znów wrócę do kryzysu migracyjnego na granicy z Białorusią w 2021 roku. To wówczas memy przedstawiające migrantów jako „narzędzie Putina” albo „ofiary polskiej brutalności” obiegały sieć szybciej niż jakiekolwiek komunikaty rządowe czy raporty NGO-sów. Z kolei incydent z rosyjskimi dronami natychmiast doczekał się memów o „milionowych rakietach na styropianowe zabawki” i o „państwie z kartonu”. Te obrazy, choć uproszczone, stały się ramą interpretacyjną całej debaty – zdominowały percepcję faktów i przykryły bardziej złożone analizy. Właśnie na tym polega siła memetycznego przyspieszenia: kto pierwszy przyklei etykietę, ten często wygrywa narrację.
Pranie autorytetu i psychologiczne pułapki percepcji
Zaskakująco skuteczne bywa „pranie” autorytetu — przypisywanie treści rzekomym „ekspertom” albo systemom oznaczanym jako „AI fact-checkery”. Badania eksperymentalne pokazały, że wyjaśnienia generowane przez modele językowe mogą być dla odbiorców równie przekonujące, gdy są fałszywe, jak wtedy, gdy są rzetelne — jeśli tylko zostaną zaprezentowane w odpowiednio wiarygodnej formie [15]. W miarę jak narzędzia generatywne stają się powszechne, rośnie ryzyko, że odbiorcy nie będą w stanie odróżnić realnej ekspertyzy od jej imitacji. W praktyce oznacza to, że w walce informacyjnej coraz częściej rywalizujemy nie o fakty, ale o pozory autorytetu.
Nie można też lekceważyć prostych praw psychologii. Iluzja prawdziwości (illusory truth effect) sprawia, że powtarzane komunikaty wydają się bardziej wiarygodne, nawet gdy są jawnie fałszywe [16]. „Continued influence effect” pokazuje z kolei, że raz przyswojony fałsz oddziałuje na wnioskowanie odbiorcy nawet po późniejszej korekcie [17]. Ważny jest również czas reakcji: badania wykazały, że debunki, czyli działań polegających na obalaniu fałszywych informacji (ang. debunking), umieszczone po krótkiej ekspozycji na nagłówek bywają skuteczniejsze niż suche etykiety „fałsz” przy pierwszym zetknięciu [18] . To oznacza, że projektowanie komunikacji korekcyjnej ma wymiar taktyczny — chodzi nie tylko o co mówimy, ale także kiedy i w jakiej formie.
W Polsce mechanizmy te mogliśmy obserwować w praktyce. Podczas kryzysu migracyjnego w mediach społecznościowych krążyły grafiki i wpisy opatrzone podpisami „ekspert ds. bezpieczeństwa”, które w rzeczywistości były anonimowymi kontami szerzącymi dezinformację. Podobnie w przypadku incydentu z rosyjskimi dronami pojawiały się fałszywe analizy przypisywane rzekomym „wojskowym insiderom” czy „ekspertom NATO”, które rozpowszechniano w grupach dyskusyjnych i na Telegramie. Powtarzane setki razy, zyskały aurę wiarygodności, mimo że nie miały żadnego potwierdzenia w źródłach instytucjonalnych. W obu przypadkach kluczowe było nie tyle kłamstwo samo w sobie, ile wykorzystanie autorytetu – prawdziwego bądź podszywanego – jako wehikułu dla manipulacji.

Jak komunikować w kryzysie „na żywo”
W incydentach „na żywo” liczy się kolejność: najpierw ramujemy, potem uzupełniamy. To znaczy: natychmiastowa, spokojna informacja o niepewności („to wiemy, tego nie wiemy, kolejny komunikat o XX:YY”), połączona z wyjaśnieniem procedury („kto decyduje, co monitorujemy, kiedy następna aktualizacja”). Badania nad psychologią kryzysu podkreślają, że komunikowanie niepewności nie obniża zaufania — wręcz przeciwnie, zwiększa wiarygodność instytucji, bo odbiorcy widzą transparentny proces decyzyjny [19]. Im szybciej wstawimy taki „most interpretacyjny”, tym mniej przestrzeni na „pranie” treści, memetyczne przyspieszenie i zubożenie kontekstu.
en kierunek potwierdzają też badania nad prebunkingiem — krótkimi formatami, które uprzedzają odbiorców, jak wyglądają typowe techniki manipulacji. Eksperymenty Roozenbeeka, van der Lindena i Nygrena na YouTube pokazały, że nawet kilkudziesięciosekundowe materiały wideo, ostrzegające np. przed fałszywymi dychotomiami, demonizowaniem czy graniem na strachu, znacząco poprawiały zdolność rozpoznawania dezinformacji w kolejnych testach [9]. To dowód, że warto mieć takie treści „na półce” jeszcze przed kryzysem.
Drugim filarem skutecznej komunikacji jest operacjonalizacja dowodów. To nic innego jak prosty, powtarzalny schemat komunikatu: „co się stało – co robimy – co to znaczy dla mieszkańców”. Uzupełnieniem powinien być stały punkt kontaktu — np. wersjonowane FAQ, aktualizowane w czasie rzeczywistym. Badania z zakresu zarządzania kryzysowego wskazują, że taka struktura obniża poziom niepewności i redukuje podatność na narracje alternatywne.
am, gdzie to możliwe, warto komunikować również koszt-skuteczność decyzji. W przypadku działań militarnych czy antydronowych można prosto wyjaśnić, dlaczego użyto takich, a nie innych środków i jakie konsekwencje miałby wybór innej opcji. Jasne, doktrynalne uzasadnienie redukuje pokusy tworzenia memów o „milionowych rakietach na styropianowe drony” i podcina atrakcyjność narracji o „państwie z kartonu”. Taka logika wpisuje się w najlepsze praktyki transparentnej komunikacji kryzysowej, które rekomenduje m.in. WHO czy FEMA [20].
Podsumowując
Incydent z rosyjskimi dronami pokazał, że dzisiejsze konflikty rozgrywają się równolegle na dwóch frontach: fizycznym i informacyjnym. Wojna hybrydowa uderza w infrastrukturę, gospodarkę czy granice, a wojna kognitywna – w sposób, w jaki myślimy i reagujemy. Dezinformacja nie zawsze opiera się na kłamstwie; równie często bazuje na zubożeniu kontekstu, powtarzalności, memetycznym przyspieszeniu czy podszywaniu się pod autorytety. To właśnie te mechanizmy sprawiają, że fałsz rozchodzi się szybciej niż korekta, a emocja przeważa nad faktami.
Wnioski są jasne: w epoce „hydrantu fałszu” i algorytmów premiujących skrajności, instytucje państwowe muszą nauczyć się komunikować szybciej, prościej i bardziej transparentnie. Ramowanie informacji, komunikowanie niepewności, uprzedzanie manipulacji poprzez prebunking i konsekwentne tłumaczenie decyzji w kategoriach koszt–skuteczność to nie luksus, lecz konieczność. Bez tego państwo nie tylko przegrywa narrację, ale traci coś znacznie ważniejszego – zaufanie obywateli.

Adam Stępka
Autor tego bloga. Specjalista public relations oraz ratownik medyczny. W swojej codziennej pracy nie tylko ratuje ludzkie życie, ale także wizerunek podmiotów medycznych.
- Hybrid CoE – Hybrid Threats Explained. European Centre of Excellence for Countering Hybrid Threats. Dostępne online: https://www.hybridcoe.fi/
- Innovation Hub ACT – Cognitive Warfare. NATO Innovation Hub, 2021 Dostep online: https://innovationhub-act.org/wp-content/uploads/2023/12/Cognitive-Warfare.pdf
- Wardle, C., & Derakhshan, H. (2017). Information Disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe report DGI(2017)09. Dostępne online: https://edoc.coe.int/en/media/7495-information-disorder-toward-an-interdisciplinary-framework-for-research-and-policy-making.html
- Ecker, U. K. H., Lewandowsky, S., Cook, J., Schmid, P., Fazio, L., Brashier, N., Kendeou, P., Vraga, E. K., & Amazeen, M. A. (2022). The psychological drivers of misinformation belief and its resistance to correction. Nature Reviews Psychology, 1(1), 13–29. DOI: 10.1038/s44159-021-00006-y
- Paul, C., & Matthews, M. (2016). The Russian „Firehose of Falsehood” Propaganda Model. RAND Corporation. Dostępne online: https://www.rand.org/pubs/perspectives/PE198.html
- Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146–1151. DOI: 10.1126/science.aap9559
- Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A., & Van Bavel, J. J. (2017). Emotion shapes the diffusion of moralized content in social networks. Proceedings of the National Academy of Sciences, 114(28), 7313–7318. DOI: 10.1073/pnas.1618923114
- NATO Allied Command Transformation. (2021). Cognitive Superiority: Addressing the Human Dimension of Warfare. Norfolk, Virginia. Zob. także: du Cluzel, F. (2021). Cognitive Warfare. Innovation Hub, NATO ACT. PDF: https://innovationhub-act.org/wp-content/uploads/2023/12/CW-article-Claverie-du-Cluzel-final_0.pdf
- Roozenbeek, J., van der Linden, S., & Nygren, T. (2022). Prebunking interventions based on “inoculation” theory can reduce susceptibility to misinformation across cultures. Science Advances, 8(36), eabo1143. DOI: 10.1126/sciadv.abo1143
- Boyd, D. (2010). Social Network Sites as Networked Publics: Affordances, Dynamics, and Implications. In Z. Papacharissi (Ed.), A Networked Self: Identity, Community, and Culture on Social Network Sites (pp. 39–58). New York: Routledge
- Marwick, A., & boyd, d. (2011). I tweet honestly, I tweet passionately: Twitter users, context collapse, and the imagined audience. New Media & Society, 13(1), 114–133. DOI: 10.1177/1461444810365313
- Nissenbaum, H. (2004). Privacy as Contextual Integrity. Washington Law Review, 79(1), 119–158.
- Brady, W. J., Crockett, M. J., & Van Bavel, J. J. (2020). The MAD Model of Moral Contagion: The role of motivation, attention, and design in the spread of moralized content online. Perspectives on Psychological Science, 15(4), 978–1010. DOI: 10.1177/1745691620917336
- Pennycook, G., Bear, A., Collins, E. T., & Rand, D. G. (2020). The Implied Truth Effect: Attaching warnings to a subset of fake news stories increases perceived accuracy of stories without warnings. Management Science, 66(11), 4944–4957. DOI: 10.1287/mnsc.2019.3478
- Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., … & Fung, P. (2023). Survey of Hallucination in Natural Language Generation. arXiv preprint: https://arxiv.org/abs/2302.11382
- Fazio, L. K., Brashier, N. M., Payne, B. K., & Marsh, E. J. (2015). Knowledge does not protect against illusory truth. Journal of Experimental Psychology: General, 144(5), 993–1002. DOI: 10.1037/xge0000098
- Lewandowsky, S., Ecker, U. K. H., Seifert, C., Schwarz, N., & Cook, J. (2012). Misinformation and its correction: Continued influence and successful debiasing. Psychological Science in the Public Interest, 13(3), 106–131. DOI: 10.1177/1529100612451018
- Ecker, U. K. H., Hogan, J. L., & Lewandowsky, S. (2017). Reminders and repetition of misinformation: Helping or hindering its retraction? Journal of Applied Research in Memory and Cognition, 6(2), 185–192. DOI: 10.1016/j.jarmac.2017.01.014
- van der Bles, A. M., van der Linden, S., Freeman, A. L. J., & Spiegelhalter, D. J. (2020). The effects of communicating uncertainty on public trust in facts and numbers. Proceedings of the National Academy of Sciences, 117(14), 7672–7683. DOI: 10.1073/pnas.1913678117
- World Health Organization (WHO). (2017). Communicating risk in public health emergencies: A WHO guideline for emergency risk communication (ERC) policy and practice. Dostępne online: https://www.who.int/publications/i/item/9789241550208