Innovation inden for sikkerhed og robusthed
I takt med at cybersikkerhedsbranchen står over for en paradigmeskift, tilbyder kunstig intelligens potentialet til at øge robustheden og styrke forsvarernes færdigheder, hastighed og viden.
Reaktion med banebrydende innovation
I forhold til et stadig mere komplekst cyberøkosystem giver kunstig intelligens (AI) mulighed for at ændre sikkerhedslandskabet ved at forbedre færdigheder, hastighed og viden om defenders.
Kunstig intelligens kan også aktivere nye funktioner, f.eks. brug af store sprogmodeller (LLM'er) til at generere indsigt i naturligt sprog og anbefalinger fra komplekse data og give analytikere nye muligheder for at lære.
I Microsoft-rapporten over digitalt forsvar fra 2023 udforsker vi nogle af de AI-gennembrud, der transformerer cybersikkerhed, risici, der er forbundet med kunstig intelligens og LLM'er, og hvordan vi kan sikre, at de bruges til at skabe en mere sikker og robust digital fremtid.
Hvordan kan vi udnytte LLM'er til cyberbeskyttelse?
-
Trusselsintelligens og -analyse
LLM'er kan hjælpe forsvarer mod cybertrusler med at indsamle og analysere data for at finde mønstre og tendenser i cybertrusler. De kan også føje kontekst til trusselsintelligens ved hjælp af oplysninger fra forskellige kilder og udføre tekniske opgaver som reverse engineering og malwareanalyse.
-
Reaktion på og genoprettelse af sikkerhedshændelser
LLM'er kan hjælpe cyberforsvarere med at understøtte og automatisere svar og genoprettelse af sikkerhedshændelser, herunder prioritering, opbevaring, analyse og genoprettelse af hændelser. De kan opsummere hændelser og generere scripts til automatisering af svar, koordinere teams og dokumentere og kommunikere hændelsesdetaljerne og handlingerne. LLM'er kan også hjælpe os med at lære af hændelser og komme med forslag til forbedringer til forebyggelse og afhjælpning.
-
Sikkerhedsovervågning og -registrering
LLM'er kan overvåge og registrere sikkerhedshændelser og hændelser på tværs af netværk, systemer, programmer og data. De kan analysere data, generere prioriterede beskeder og levere kontekstafhængige oplysninger til undersøgelse og svar. LLM'er kan også analysere multicloudmiljøernes tilstand, oprette omfattende kort over ressourcer, estimere potentielle indvirkninger og komme med forslag til risikoafhjælpning. De kan være nyttige til registrering af phishing ved at analysere mailindhold og identificere tekstmønstre, uregelmæssigheder og mistænkelige sprog, der indikerer forsøg på phishing.
-
Sikkerhedstest og -validering
LLM'er kan automatisere og forbedre sikkerhedstest og validering, herunder indtrængningstest, scanning af sikkerhedsrisici, kodeanalyse og konfigurationsovervågning. De genererer og udfører testcases, evaluerer og rapporterer resultater og tilbyder afhjælpningsforslag. LLM'er kan oprette brugerdefinerede apps og værktøjer til bestemte scenarier, automatisere gentagne opgaver og håndtere lejlighedsvise eller ad hoc-opgaver, der kræver manuel indgriben.
-
Sikkerhedstilgængelighed og uddannelse
LLM'er kan hjælpe cyber defenders med at skabe engagerende og personligt tilpasset indhold og scenarier til sikkerhedstilgængelighed og uddannelse. De kan vurdere niveauet af sikkerhedsindsigt og færdigheder hos en målgruppe, give feedback og vejledning og generere realistiske og tilpassede cyberøvelser og -simuleringer til træning og test.
-
Sikkerhedsstyring, risiko og overholdelse af angivne standarder
LLM'er kan hjælpe med at automatisere aktiviteter inden for sikkerhedsstyring, risiko og overholdelse af angivne standarder, herunder udvikling og håndhævelse af politikker, risikovurdering/-styring, overvågning og forsikring samt overholdelse og rapportering. De kan justere aktiviteter i forhold til forretningsmål og levere sikkerhedsmålepunkter og dashboards til måling af ydeevne. De kan også identificere huller og problemer og komme med anbefalinger til at forbedre organisationens sikkerhedstilstand, prioritere sikkerhedsrisici og identificere forslag til afhjælpning.
Samarbejde om at designe ansvarlig kunstig intelligens
Ansvarlig kunstig intelligens tilsigtet
Med AI-teknologi, der lover at transformere samfundet, er vi nødt til at sikre en fremtid med ansvarlig kunstig intelligens tilsigtet. Ansvarlig praksis for kunstig intelligens er afgørende for at opretholde brugertillid, beskytte personlige oplysninger og skabe langsigtede fordele for samfundet.
Fastholdelse af vores egne etiske standarder inden for kunstig intelligens
Vi må være eksemplariske og investere i forskning og udvikling for at være på forkant med nye sikkerhedstrusler. Microsoft er forpligtet til at sikre, at alle sine AI-produkter og -tjenester udvikles og bruges på en måde, der overholder vores principper for kunstig intelligens.
10 år med aktive politikker for kunstig intelligens
Microsoft er forpligtet til at sikre, at alle vores AI-produkter og -tjenester udvikles og bruges på en måde, der overholder vores principper for kunstig intelligens. Samtidig arbejder vi sammen med branchepartnere om at udvikle standarder og teknologier, der muliggør gennemsigtige og kontrollerbare oplysninger om oprindelsen og ægtheden af digitalt indhold for at øge tilliden online.
I hele verden vokser ønsket om lovgivningsmæssig retningslinjer for ansvarlig udvikling og brug af kunstig intelligens, og mange lande udarbejder dokumentation, der tilbyder retningslinjer for administration af nye risici, der er knyttet til AI-teknologier. Denne tendens har udviklet sig i mere end ti år, og den har kun fået momentum.
Udforsk andre kapitler i Microsoft-rapporten over digitalt forsvar
Introduktion
Styrken ved partnerskaber er nøglen til at overvinde modgang ved at styrke forsvaret og holde cyberkriminelle ansvarlige.
Status for cyberkriminalitet
Mens cyberkriminelle stadig arbejder hårdt, går de offentlige og private sektorer sammen om at forstyrre deres teknologier og støtte ofrene for cyberkriminalitet.
Nation-stat-trusler
Nation-stat-cyberaktiviteter bringer regeringer og teknologibranchens spillere sammen for at opbygge modstandsdygtighed over for trusler mod onlinesikkerheden.
Kritiske udfordringer i forbindelse med cybersikkerhed
Når vi navigerer i det stadigt skiftende cybersikkerhedslandskab, er holistisk forsvar et must for robuste organisationer, forsyningskæder og infrastruktur.
Innovation inden for sikkerhed og robusthed
I takt med at moderne kunstig intelligens tager et enormt spring fremad, vil den spille en afgørende rolle i forsvar og sikring af robustheden i virksomheder og i samfundet.
Kollektivt forsvar
I takt med at cybertrusler udvikler sig, styrker samarbejdet viden og afhjælpning på tværs af det globale sikkerhedsøkosystem.
Mere om sikkerhed
Vores forpligtelse til at opnå tillid
Microsoft er forpligtet til ansvarlig brug af kunstig intelligens, beskyttelse af personlige oplysninger og fremme af digital sikkerhed og cybersikkerhed.
Cyber Signals
Et kvartalsvis resumé om intelligens om cybertrusler, der er baseret på de seneste Microsoft-trusselsdata og -undersøgelser. Cyber Signals giver tendensanalyse og vejledning til at hjælpe med at styrke den første forsvarslinje.
Nation-stat-rapporter
Halvårlige rapporter om bestemte nation-stat-faktorer, der advarer vores kunder og det globale community om trusler, der skyldes indflydelseshandlinger og cyberaktivitet, og identificerer bestemte sektorer og områder med øget risiko.
Arkiv med Microsoft-rapporter over digitalt forsvar
Udforsk tidligere Microsoft-rapporter over digitalt forsvar, og se, hvordan trusselslandskabet og onlinesikkerheden har ændret sig på bare nogle få år.
Følg Microsoft Security