Propaganda i den digitale tidsalderen: Hvordan cyberbaserte påvirkningsoperasjoner bryter ned tillit
De utenlandske påvirkningsoperasjonene som finner sted i dag, bruker nye metoder og teknologier, noe som gjør at kampanjene, som er designet for å bryte ned tillit, blir mer effektive og virkningsfulle.
Nasjonalstater bruker i økende grad komplekse påvirkningsoperasjoner for å distribuere propaganda og påvirke folkeopinionen både innenlands og internasjonalt. Disse kampanjene bryter ned tillit, øker polariseringen og truer demokratiske prosesser.
Dyktige APM (Advanced Persistent Manipulator) -aktører bruker tradisjonelle medier sammen med Internett og sosiale medier for å i stor grad øke omfanget, skalaen og effektiviteten til kampanjene, og den enorme innvirkningen de har i det globale informasjonsøkosystemet.
Syntetiske medier blir stadig mer utbredt på grunn av den raske økningen av verktøy som enkelt oppretter og sprer svært realistiske kunstige bilder, video og lyd. Digital proveniensteknologi som sertifiserer medieressursopprinnelse gir håp om å bekjempe misbruk.
En holistisk tilnærming til å beskytte løsninger mot cyberbaserte påvirkningsoperasjoner er nødvendig. Microsoft bygger på den allerede velutviklede trusselinformasjonsinfrastrukturen for å bekjempe cyberbaserte påvirkningsoperasjoner. Strategien vår er å oppdage, avbryte, forsvare og forhindre propagandakampanjer av fremmede angripere.
900 % årlig økning i den raske veksten til deepfakes siden 20191
Cyberbaserte påvirkningsoperasjoner blir stadig mer komplekse etter hvert som teknologien utvikler seg i høyt tempo. Vi ser at en overlapping og utvidelse av verktøyene som brukes i tradisjonelle cyberangrep, brukes på cyberbaserte påvirkningsoperasjoner. I tillegg har vi observert økt koordinasjon og forsterkning blant nasjonalstater.
Autoritære regimer rundt om i verden har arbeidet sammen for å forurense informasjonsøkosystemet for å få en gjensidig fordel. Ved å forsterke hverandre skaper statlig styrte mediekanaler et økosystem der negativ dekning av demokratier – eller positiv dekning av allierte – produsert av én statlig mediekanal, forsterkes av andre.
For å øke utfordringen kan tekniske instanser i privat sektor legge til rette for disse kampanjene uten å vite det. Tilretteleggere kan omfatte selskaper som registrerer Internett-domener, drifter nettsteder, fremmer materiale på sosiale medier og søkeområder, kanaliserer trafikk og hjelper med å betale for disse øvelsene gjennom digital markedføring.
Organisasjoner må være oppmerksomme på verktøyene og metodene som brukes av autoritære regimer for cyberbaserte påvirkningsoperasjoner, slik at de kan oppdage og deretter forebygge spredningen av kampanjer.
Det er også et voksende behov for å hjelpe forbrukere med å utvikle en mer kompleks evne til å identifisere utenlandske påvirkningsoperasjoner og begrense engasjementet i narrativet eller innholdet.
Økt koordinasjon og informasjonsdeling på tvers av myndigheter, privat sektor og det sivile samfunn er nødvendig for å øke gjennomsiktigheten og for å eksponere og forstyrre disse påvirkningskampanjene.
- Utenlandske cyberbaserte påvirkningsoperasjoner presenterer propaganda – noen ganger med falske narrativer –i det offentlige domenet på Internett, og noen ganger via hendelser eller provokasjoner fra virkeligheten. Falske narrativer som ligger ubemerket på Internett, kan få etterfølgende referanser til å virke mer troverdige.
Eksempel 1
Tidlig i pandemien publiserte små konspirasjonsnettsteder tilknyttet russiske og iranske statlige medier et intervju med en jusprofessor som antydet at COVID-19 er et biologisk våpen skapt av USA.
Eksempel 2
7. mars klargjorde Russland et narrativ gjennom FN om at en fødselsklinikk i Mariupol i Ukraina hadde blitt tømt og ble brukt som militært område.
- En koordinert kampanje lanseres for å overføre narrativer gjennom påvirkede mediekanaler og sosiale mediekanaler som støttes av myndighetene.
Eksempel 1
I februar 2020 publiserte PRESSTV, en kanal sponset av iranske myndigheter, en engelskspråklig historie om intervjuet, og russiske statlige mediekanaler og kinesiske myndighetskontoer begynte snart å kommentere innlegget.Eksempel 2
9. mars bombet Russland sykehuset. Da nyhetene om bomben ble kjent, tvitret Russlands FN-representant dekningen av bomben som «fake news» og nevnte Russlands tidligere påstander om den angivelige bruken, som militært område. - Statlig kontrollerte medier og proxyer forsterker narrativer innenfor et målrettet publikum. Ofte utvider tekniske tilretteleggere narrativenes rekkevidde uten å vite det.
Eksempel 1
Russia Today (RT) – en kanal eid av staten – publiserte også minst én historie som fremmet utsagn fra iranske tjenestemenn, som hevdet at COVID-19 kunne være et «produkt av et amerikansk «biologisk angrep» rettet mot Iran og Kina», og presset ut sosiale medieinnlegg som foreslo det samme.Eksempel 2
Russland presset deretter dette narrativet bredt utover nettsteder kontrollert av Russland, i to uker etter angrepet på sykehuset. Forsterkningen av disse historiene på nettet gir Russland muligheten til å avlede anklager internasjonalt og unngå ansvar.
Syntetiske medier
Vi er på vei inn i en glansperiode med mediekreasjoner og manipulasjon drevet av kunstig intelligens. Microsoft-analytikere bemerker at dette drives av to nøkkeltrender: den raske økningen i brukervennlige verktøy og tjenester for å lage svært realistiske, syntetiske bilder, videoer, lyd, og tekst på kunstig vis, og evnen til å raskt spre innhold som er optimalisert for bestemte målgrupper.
Feltet for syntetisk tekst og media forbedres utrolig raskt, og vi er veldig nær å nå et punkt der alle kan lage en syntetisk video av hvem som helst, som sier eller gjør noe.
Deepfakes: Syntetiske tekst- og medieteknikker
Disse teknikkene kan brukes til å forsøke å presse en enkeltperson, et selskap eller en institusjon, eller plassere enkeltpersoner på pinlige steder eller sitasjoner. Slike avanserte teknikker basert på kunstig intelligens er ikke mye brukt ennå i cyberbaserte påvirkningskampanjer i dag, men vi forventer at problemet vokser etter hvert som verktøyene blir enklere å bruke, og mer tilgjengelige.
- Erstatte et ansikt i en video med et annet
- Bruke en video for å animere et stillbilde eller en annen video
- En serie teknikker for å generere fotorealistiske bilder
- Lage rike bilder fra tekstbeskrivelser
Bruken av informasjonsoperasjoner for å forårsake skade eller utvide påvirkningen er ikke noe nytt. Hastigheten som informasjonen sprer seg i, og den manglende evnen til å raskt skille fakta fra fiksjon, betyr imidlertid at innvirkningen og skaden forårsaket av falske og andre syntetisk genererte skadelige medier kan være mye større.
Vi vurderer en rekke kategorier knyttet til skade: markedsmanipulering, betalingssvindel, vishing, etterligninger, merkevareskade, omdømmeskade og botnett. Mange av disse kategoriene har rapportert store mengder eksempler fra virkeligheten, som kunne undergravd evnen vår til å skille fakta fra fiksjon.
Det som er en langvarig og mer snikende trussel omhandler vår oppfatning av hva som er sant, hvis vi ikke lenger kan stole på det vi ser og hører. På bakgrunn av dette kan alle kompromitterende bilder, lyder eller videoer av offentlige eller private figurer bli forkastet som falske – et utfall kjent som «The Liar’s Dividend».2
Arbeidet er i gang på tvers av bransjer, myndigheter og akademia for å utvikle bedre måter å oppdage og redusere syntetiske medier og gjenopprette tillit. Det finnes en rekke lovende veier fremover, i tillegg til barrierer som trenger vurdering.
Microsofts strategirammeverk tar sikte på å hjelpe på tvers av interessenter i flere sektorer, for å oppdage, avbryte, forsvare og forhindre propaganda – særlig kampanjer fra utenlandske motstandere.
På samme måte som med cyberforsvar, er det første skrittet i møte med utenlandske cyberbaserte påvirkningsoperasjoner å utvikle kapasiteten for å oppdage dem. Ingen selskaper eller organisasjoner kan på egenhånd håpe å få fremgangen som trengs. Nytt og bredere samarbeid på tvers av teknisk sektor vil være avgjørende, med fremdrift i analyse og rapportering av cyberbaserte påvirkningsoperasjoner som i stor grad avhenge av rollen til det sivile samfunn, inkludert i akademiske institusjoner og veldedige organisasjoner.
Den andre strategiske søylen er å støtte opp demokratiske forsvar, en langvarig prioritering med som trenger investering og innovasjon. Den bør ta hensyn til utfordringene teknologien har skapt for demokratiske samfunn – særlig endringen i journalistikk og lokale nyheter – og mulighetene teknologien har skapt for å forsvare demokratiske samfunn mer effektivt.
Dette krever en kontinuerlig investering og innovasjon som må gjenspeile de lokale behovene i ulike land og på ulike kontinenter. Disse problemene er ikke enkle, og de krever tilnærminger fra flere interessenter, som Microsoft og andre teknologiselskaper i økende grad støtter
I de senere år har Microsofts avdeling for nettkriminalitet (DCU) forbedret taktikken og utviklet verktøy for å avbryte cybertrusler som strekker seg fra løsepengevirus til botnett og statlige angrep. Vi har fått mange viktige erfaringer siden den første rollen med aktive avbrudd i møte med et stort utvalg cyberangrep.
Når vi tenker på å bekjempe cyberbaserte påvirkningsoperasjoner, kan avbrudd spille en enda viktigere rolle, og den beste tilnærmingen til avbrudd er å bli tydeligere. Den mest effektive motgiften mot omfattende bedrageri er gjennomsiktighet. Derfor har Microsoft økt kapasiteten for å oppdage og avbryte statlige påvirkningsoperasjoner ved å kjøpe opp Miburo Solutions, et ledende cyberbasert trusselanalyse- og forskningsselskap som spesialiserer seg på oppdagelse av og respons på utenlandske cyberbaserte påvirkningsoperasjoner. Ved å kombinere disse analytikerne med Microsofts trusselkontekstanalytikere, dannet Microsoft Digital Threat Analysis Center (DTAC). DTAC analyserer og rapporterer om statlige trusler, inkludert både cyberangrep og påvirkningsoperasjoner, og kombinerer informasjon og trusselinformasjon med geopolitisk analyse for å gi innsikt og informere om effektiv respons og beskyttelse.
Til slutt kan vi ikke forvente at nasjonalstater skal endre atferd hvis ingen stilles til ansvar for brudd på internasjonale regler. Håndhevelse av slik ansvarlighet er det spesielle ansvaret til myndigheter. Allikevel spiller tiltakene til fellesskapet av interessenter i økende grad en viktig rolle i å styrke og utvide internasjonale normer.
Mer enn 30 nettplattformer, annonsører og utgivere, deriblant Microsoft, underskrev den nylig oppdaterte EU-kommisjonens retningslinjer for desinformasjon, og styrket med dette innsatsen for å håndtere denne voksende utfordringen. Som i nylige Paris Call, Christchurch Call og erklæringen om fremtidens Internett kan multilateral handling og handling fra et fellesskap av interessenter samle myndigheter og publikum i demokratiske nasjoner. Myndigheter kan deretter bygge videre på disse normene og lovene for å utvide ansvaret som verdens demokratier trenger og fortjener.
Gjennom radikal gjennomsiktighet kan demokratiske myndigheter og samfunn på en effektiv måte dempe påvirkningskampanjer ved å peke ut kildene ved angrep fra nasjonalstater, informere publikum og bygge tillit til institusjoner.
Kilde: Microsoft-rapport om digitalt forsvar, november 2022
- [1]
Deepfakes 2020: The Tipping Point, Johannes Tammekänd, John Thomas, og Kristjan Peterson, oktober 2020 - https://go.microsoft.com/fwlink/?linkid=2263006
- [2]
Deep Fakes: A Looming Challenge for Privacy https://go.microsoft.com/fwlink/?linkid=2262673