Propaganda w epoce cyfrowej: Podważanie zaufania przez działania w zakresie wywierania wpływu informacyjnego
Współczesne zagraniczne operacje wywierania wpływu obejmują wykorzystywanie nowych metod i technologii, dzięki czemu kampanie mające na celu podważanie zaufania są wydajniejsze i skuteczniejsze.
Podmioty państwowe w coraz większym stopniu stosują zaawansowane operacje w zakresie wywierania wpływu w celu rozprzestrzeniania propagandy i kształtowania opinii publicznej, zarówno wewnętrznej, jak i zagranicznej. Takie kampanie podważają zaufanie, zwiększają polaryzację i szkodą procesom demokratycznym.
Zaawansowane stałe źródła manipulacji wykorzystują tradycyjne media oraz Internet i media społecznościowe, aby znacznie zwiększyć zasięg, skalę i skuteczność prowadzonych kampanii oraz swój wpływ na globalny ekosystem informacji.
Media syntetyczne mają coraz większe znaczenie większe znaczenie ze względu na rosnącą dostępność narzędzi pozwalających na rozprzestrzenianie wysoce realistycznych obrazów, filmów i materiałów audio. Technologia cyfrowa potwierdzająca pochodzenie zasobów cyfrowych może być pomocna w ograniczeniu nadużyć.
Potrzebne jest holistyczne podejście w zakresie narzędzi zwalczających cyberoperacje wywierania wpływu informacyjnego. Firma Microsoft korzysta ze swojej znaczącej infrastruktury analizy cyberzagrożeń, aby opracować rozwiązania pozwalające zwalczać cyberoperacje w zakresie wywierania wpływu informacyjnego. Nasza strategia obrony polega na wykrywaniu sterowanych z zagranicy kampanii propagandowych, a także zwalczania, ochrony i zapobiegania takim kampaniom.
Skala coroczngo rozprzestrzeniania treści deep fake wzrosła o 900% od 2019 roku1
Wraz z rozwojem technologii, cyberoperacje wywierania wpływu stają się coraz bardziej wyrafinowane. Narzędzia służące do tradycyjnych cyberataków są poszerzane i przystosowywane do operacji wywierania wpływu informacyjnego. Obserwujemy także coraz większą koordynację i nasilenie ataków sponsorowanych przez podmioty państwowe.
Reżimy autorytarne na całym świecie współpracują ze sobą, aby wpłynąć na ekosystem informacyjny dla własnej korzyści. Takie operacje są obsługiwane przez należące do tych reżimów media państwowe, tworzące ekosystem, w którym dominuje negatywny obraz liberalnej demokracji i pozytywny obraz sojuszników – obraz wytwarzany przez jedno medium jest wzmacniane przez drugie.
Co więcej, podmioty działające w prywatnym sektorze technologii mogą, nie zawsze celowo, zwiększać zasięg takich kampanii propagandowych. Działania takie mogą też być ułatwiane – lub ich finansowanie wspierane poprzez marketing internetowy – przez różne firmy zajmujące się rejestracją domen internetowych, hostowaniem witryn, promocją w mediach społecznościowych i wyszukiwarkach lub zarządzaniem ruchem internetowym.
Organizacje muszą mieć świadomość narzędzi i metod stosowanych przez reżimy autorytarne w cyberoperacjach wywierania wpływu informacyjnego, aby mieć możliwość wykrywania takich kampanii i zapobiegania rozprzestrzenianiu fake newsów.
Konieczne jest także wspieranie konsumentów w rozwijaniu umiejętności identyfikowania operacji wywierania wpływu, aby ograniczyć zaangażowanie w nieprawdziwe narracje lub treści.
Konieczna jest zwiększona koordynacja i wymiana informacji między rządami oraz sektorem prywatnym a społeczeństwem obywatelskim, aby zwiększać transparentność oraz ujawniać kampanie wywierania wpływu i zapobiegać im.
- Zagraniczne operacje wywierania wpływu wprowadzają propagandę, a czasem także nieprawdziwą narrację, do sfery publicznej przez Internet, a czasem przez wydarzenia lub prowokacje w świecie fizycznym. Niezauważone fałszywe narracje w Internecie mogą zyskiwać na wiarygodności przez ich dalsze udostępnianie lub komentowanie.
Przykład 1
W początkowym okresie pandemii powiązane z Rosją i irańskimi mediami państwowymi niszowe strony internetowe poświęcone teoriom spiskowym opublikowały wywiad z profesorem prawa, który sugerował, że wirus COVID-19 to broń biologiczna stworzona przez Stany Zjednoczone.
Przykład 2
7 marca Rosja wprowadziła do informacyjnego obiegu fałszywą narrację, oficjalnie zawiadamiając ONZ o opróżnieniu ukraińskiego szpitala położniczego w Mariupolu w Ukrainie i przekształceniu go w bazę wojskową.
- Skoordynowane kampanie są organizowane w celu wprowadzenia fałszywych narracji przez wspierane lub kierowane przez rządy media i kanały w mediach społecznościowych.
Przykład 1
W lutym 2020 PRESSTV, medium sponsorowane przez irański rząd, opublikowało w języku angielskim wywiad, który następnie był komentowany w mediach rosyjskich i na chińskich kontach rządowych w mediach społecznościowych.Przykład 2
9 marca Rosjanie zbombardowali ten szpital. Kiedy świat obiegła wieść o bombardowaniu, reprezentant Rosji przy ONZ opublikował tweet, w którym określił bombardowanie jako „fake news”, cytując wcześniejsze rosyjskie doniesienia o jego rzekomym wojskowym przeznaczeniu. - Kontrolowane przez podmioty państwowe media i ich pośrednicy wzmacniają pożądane narracje wśród grup docelowych. Często także operatorzy technologii mimowolnie zwiększają zasięg takich narracji.
Przykład 1
Russia Today – telewizja należąca do państwa rosyjskiego – także opublikowała co najmniej jeden reportaż, a także post w mediach społecznościowych, promujący wypowiedzi irańskich urzędników, z których miało wynikać, że wirus COVID-19 jest być „efektem użycia wymierzonej w Iran i Chiny amerykańskiej broni biologicznej”.Przykład 2
Następnie przez dwa tygodnie po ataku na szpital narracja ta była rozpowszechniana przez kontrolowane przez Rosję strony internetowe. Wzmacnianie tego przekazu w sieci pozwala Rosji unikać odpowiedzialności przed światową opinią i konsekwencji swoich działań.
Media syntetyczne
Wchodzimy w złotą erę kreowania za pomocą sztucznej inteligencji treści, których można później użyć do manipulowania opinią publiczną. Analitycy firmy Microsoft zauważyli, że zjawisko to jest napędzane przez dwa kluczowe trendy: rozprzestrzenianie łatwych w użyciu narzędzi i usług do tworzenia wysoce realistycznych syntetycznych obrazów, filmów, materiałów audio i tekstów oraz możliwości szybkiego rozprzestrzeniania treści optymalnie dopasowanych do preferencji odbiorców docelowych.
Postęp w dziedzinie syntetycznych tekstów i mediów postępuje niezwykle szybko – zbliżamy się do punktu, w którym praktycznie każdy będzie w stanie tworzyć syntetyczne materiały wideo przedstawiające dowolną osobę w dowolnej sytuacji, przekazującą dowolne treści.
Materiały deep fake: Techniki tworzenia syntetycznych tekstów i mediów
Te techniki mogą być stosowane do prób szantażu jednostek, firm lub instytucji lub kompromitowania wybranych osób przez przedstawianie ich w negatywnym świetle. Takie zaawansowane techniki korzystające ze sztucznej inteligencji nie są jeszcze używane w kampaniach wpływu informacyjnego, ale można się spodziewać, że w miarę ich rozwoju staną się one łatwiejsze w użytku i przez to szerzej dostępne.
- Zamienianie twarzy w materiałach wideo
- Używanie materiałów wideo w celu animowania ilustracji lub w innych materiałach wideo
- Rodzaj technik generowania fotorealistycznych obrazów
- Tworzenie szczegółowych obrazów na podstawie tekstu
Używanie operacji informacyjnych w celu spowodowania szkód lub zwiększenia wpływów nie jest niczym nowym. Jednakże prędkość rozprzestrzeniania informacji i nasze ograniczone możliwości szybkiego odróżnienia prawdy od fikcji oznaczają, że potencjalny wpływ i szkody wywołane fałszywymi materiałami i innymi mediami syntetycznymi mogą być znacznie poważniejsze.
Jest kilka rodzajów potencjalnych szkód, jakie należy tu wziąć pod uwagę: manipulowanie rynkami, oszustwa finansowe, wyłudzanie informacji przez telefon, szkodzeniem wizerunkowi marek, szarganie reputacji jednostek i botnety. Wiele z tych kategorii można dostrzec w zgłaszanych w świecie rzeczywistym incydentach, co może utrudniać odróżnianie informacji prawdziwych i fałszywych informacji.
Większym, poważniejszym zagrożeniem dla naszej zdolności rozróżniania prawy od fikcji jest poczucie, że nie możemy już ufać temu, co widzimy. Z tego też względu nawet prawdziwe obrazy i materiały audio lub wideo kompromitujące osoby publiczne lub prywatne można teraz odrzucić jako fałszywki – określa się takie zjawisko jako ”dywidendę od kłamstwa”.2
Obecnie podejmowane są wspólne wysiłki podmiotów działających w różnych branżach, instytucji rządowych i uczelni wyższych nad opracowaniem lepszych metod wykrywania syntetycznych mediów i zapobiegania ich rozprzestrzenianiu, aby zwiększyć poziom publicznego zaufania. Istnieje kilka obiecujących dróg do tego celu, ale także barier, które wymagają zastanowienia.
Strategia opracowana przez firmę Microsoft ma na celu wspieranie interesariuszy różnych sektorów w wykrywaniu propagandy oraz działaniom w zakresie ochrony i zapobiegania – dotyczy to zwłaszcza wrogich kampanii sponsorowanych zza granicy.
Podobnie jak w przypadku cyberbezpieczeństwa, ważnym czynnikiem w przeciwdziałaniu wrogim operacjom informacyjnym jest zdolność ich wykrywania. Żadna firma ani organizacja nie jest w stanie podjąć wszystkich koniecznych działań w pojedynkę. Kluczowe znaczenie ma tu szersza współpraca w ramach całego sektora technologicznego, a rozwój możliwości analizowania i zgłaszania cyfrowych operacji informacyjnych w dużym stopniu polega na postawie społeczeństwa obywatelskiego, w tym działaniach wyższych uczelni i organizacji non-profit.
Drugim filarem strategicznym jest mobilizacja społeczeństw demokratycznych i priorytetowe podejście do inwestycji i innowacji w dłuższej perspektywie. To podejście musi uwzględnić wyzwanie, jakie dla społeczeństw demokratycznych stanowi rozwój technologii – zwłaszcza wyzwanie dla dziennikarstwa i mediów lokalnych – oraz możliwości obrony demokratycznych społeczeństw, jakie przynosi technologia.
Wymaga to stałych nakładów inwestycyjnych i innowacji, które odzwierciedlałyby lokalne potrzeby różnych krajów i kontynentów. Rozwiązanie tych problemów nie będzie łatwe. Konieczne jest podjęcie działań we współpracy z różnymi zainteresowanymi grupami i firma Microsoft, podobnie jak inne firmy z branży technologii, wspiera takie działania w coraz większym stopniu
W ciągu ostatnich kilku lat dział Digital Crimes Unit firmy Microsoft dopracowywał taktyki i narzędzia pomagające zwalczać cyberzagrożenia – od ataków z użyciem oprogramowania ransomware po botnety i ataki realizowane na zlecenie podmiotów państwowych. Wyciągnęliśmy przy tym kilka kluczowych wniosków, zwłaszcza dotyczących znaczenia aktywnego zwalczania w przeciwdziałaniu różnego rodzaju cyberatakom.
Dalsze refleksje nad przeciwdziałaniem operacjom wywierania wpływu informacyjnego wskazują, że zwalczanie będzie odgrywało coraz większą rolę – coraz jaśniejsze stają się także najlepsze metody takiego zwalczania. Najskuteczniejszym antidotum na szerzenie nieprawdziwych informacji jest transparentność. Dlatego też firma Microsoft poszerzyła swoje możliwości wykrywania i zwalczania operacji wywierania wpływu realizowanych na zlecenie państwowe przez nabycie firmy Miburo Solutions – wiodącej firmy analitycznej działającej branży analizy i badania cyberzagrożeń, która specjalizuje się w wykrywaniu sponsorowanych z zagranicy operacji wywierania wpływu informacyjnego i reagowaniu na nie. Centrum analizy cyberzagrożeń Microsoft jest efektem połączenia tych możliwości analitycznych z narzędziami analizy zagrożeń firmy Microsoft (DTAC). DTAC opracowuje analizy i raporty dotyczące sponsorowanych przez państwa zagrożeń, w tym cyberataków i operacji wywierania wpływu, łącząc informacje i narzędzia analizy zagrożeń i analizy geopolitycznej, aby zapewnić potrzebne informacje, które pozwolą na przygotowanie odpowiedniej reakcji i opracowanie zabezpieczeń.
Ponadto nie możemy oczekiwać, że państwa zmienią zachowanie, jeśli nie ma żadnej odpowiedzialności za naruszanie reguł międzynarodowych. Wymuszenie takiej odpowiedzialności leży wyłącznie w gestii rządów. Mimo to coraz częściej działanie wielu uczestników odgrywa ważną rolę we wzmacnianiu i rozszerzaniu międzynarodowych norm.
Ponad 30 platform online, reklamodawców i wydawców — w tym firma Microsoft — podpisało niedawno zaktualizowany kodeks postępowania w zakresie dezinformacji Komisji Europejskiej, zgadzając się na wzmożenie działań w celu zwalczania tego coraz poważniejszego problemu. Podobnie jak niedawny „Apel paryski”, „Apel z Christchurch” i „Deklaracja dotycząca przyszłości internetu”, działania międzynarodowe i wielostronne mogą jednoczyć rządy i społeczeństwo państw demokratycznych. Wówczas rządy mogą działać na podstawie tych norm i praw, aby egzekwować odpowiedzialność, której potrzebują i na którą zasługują światowe demokracje.
Szybka, radykalna transparentność pozwala demokratycznym rządom i społeczeństwom skutecznie przeciwstawiać się kampaniom służącym wywieraniu wpływu przez określanie źródła ataków ze strony państw narodowych, informowanie o tym opinii publicznej oraz budowanie zaufania do instytucji.
Źródło: Raport firmy Microsoft na temat ochrony zasobów cyfrowych, listopad 2022 r.
- [1]
Deepfakes 2020: Punkt zwrotny, Johannes Tammekänd, John Thomas i Kristjan Peterson, październik 2020 – https://go.microsoft.com/fwlink/?linkid=2263006
- [2]
Materiały deep fake: Coraz większe zagrożenie prywatności https://go.microsoft.com/fwlink/?linkid=2262673