A kiberfenyegetések kezelése és a védelem megerősítése az AI korában
Napjainkban a kiberbiztonság világa jelentős átalakuláson megy keresztül. A mesterséges intelligencia vezető szerepet tölt be ebben az átalakulásban, egyszerre fenyegetést és lehetőséget is megtestesítve. Míg egyrészt lehetővé teheti a szervezetek számára, hogy gépi sebességgel állják útját a kibertámadásoknak, és elősegítheti az innovációt és a hatékonyság növelését a fenyegetések észlelése terén, addig az ellenségek felhasználhatják a mesterséges intelligenciát a cselekményeik részeként. Soha nem volt még fontosabb, hogy biztonságosan tervezzük meg, helyezzük üzembe és használjuk a mesterséges intelligenciát.
A Microsoftnál igyekszünk felderíteni a mesterséges intelligenciában rejlő lehetőségeket, hogy javíthassuk biztonsági intézkedéseinket, új és korszerű védelmi módszereket dolgozhassunk ki, és jobb szoftvereket készíthessünk. A mesterséges intelligencia segítségével alkalmazkodni tudunk a fejlődő fenyegetésekhez, azonnal észlelhetjük az anomáliákat, gyors reagálással semlegesíthetjük a kockázatokat, és az egyes szervezetek igényeire szabhatjuk a védelmet.
A mesterséges intelligencia abban is a segítségünkre lehet, hogy leküzdjük az iparág előtt álló másik jelentős kihívást. A kiberbiztonság terén mutatkozó globális szakemberhiánnyal szemben – világszerte körülbelül 4 millió kiberbiztonsági szakemberre lenne szükség – a mesterséges intelligencia lehet a döntő eszköz, amely lehetővé teheti a hatékonyabb védekezői munkát és ezáltal a szakemberhiány hatásainak mérséklését.
Egy tanulmány már megmutatta, hogy a Copilot a biztonságért hogyan segítheti a biztonsági elemzőket a szaktudásuk szintjétől függetlenül: a résztvevők az összes feladatot tekintve 44%-kal pontosabbak és 26%-kal gyorsabbak voltak.
Miközben a jövő biztonságán dolgozunk, ügyelnünk kell arra, hogy egyensúlyba hozzuk a mesterséges intelligenciára való biztonságos felkészülést és az előnyök kiaknázását, mert a mesterséges intelligencia alkalmas az emberi képességek kibontakoztatására és az előttünk álló legkomolyabb kihívások leküzdésére.
Ahhoz, hogy biztonságosabb legyen a jövőnk a mesterséges intelligenciával, alapvető előrelépés szükséges a szoftvertervezés és -fejlesztés terén. Bármilyen biztonsági stratégia kialakításához alapvető fontosságú, hogy megértsük a mesterséges intelligenciával támogatott fenyegetéseket, és hatékony védelmet építsünk ki ellenük. És a rosszindulatú szereplők elleni harchoz együtt kell munkálkodnunk azon, hogy mély együttműködést és partneri kapcsolatokat alakítsunk ki az állami és a privát szektor között.
Ennek az erőfeszítésnek és a saját Secure Future kezdeményezésünknek a részeként az OpenAI és a Microsoft ma olyan új hírszerzési információkat tesz közzé, amelyek részletesen ismertetik a fenyegető szereplők arra irányuló törekvéseit, hogy teszteljék és megvizsgálják a nagy nyelvi modellek (LLM-ek) támadási technikákban való hasznosságát.
Reméljük, hogy ezek az információk minden iparág számára hasznosak lesznek, hisz mind egy biztonságosabb jövőért dolgozunk. Mert végső soron mindannyian védekezők vagyunk.
vállalati alelnök, vezető kiberbiztonsági tanácsadó
Tekintse meg a Cyber Signals digitális összefoglalóját, amelyben Vasu Jakkal, a Microsoft biztonsági üzletágának vállalati alelnöke az intelligens veszélyforrás-felderítés vezető szakértőivel beszélget arról, hogy milyen kiberfenyegetésekkel találkozunk a mesterséges intelligencia korában, hogyan használja a Microsoft a mesterséges intelligenciát a biztonság fokozására, és mit tehetnek a szervezetek a védelmük megerősítése érdekében.
A támadók az AI-alapú technológiákat vizsgálják
A kiberfenyegetések világa egyre nagyobb kihívást jelent, ahogy a támadók egyre motiváltabbá és kifinomultabbá válnak, és egyre több erőforrással rendelkeznek. A fenyegető szereplők és a védekezők egyaránt a mesterséges intelligencia felé kacsintgatnak – ideértve a nagy nyelvi modelleket (LLM) is –, hogy növelhessék a hatékonyságukat, és kihasználhassák azokat az elérhető platformokat, amelyek megfelelhetnek a célkitűzéseiknek és a támadási technikáiknak.
Tekintettel a gyorsan fejlődő fenyegetési környezetre, ma bejelentjük a Microsoft alapelveit, amelyek mentén lépéseket teszünk, hogy mérsékeljük a mesterséges intelligenciával támogatott platformok és API-k fenyegető szereplők – egyebek között folyamatos komplex veszélyforrások (APT-k), folyamatos komplex manipulátorok (APM-ek) és kiberbűnözői szindikátusok – általi használatából fakadó kockázatot. Ezen alapelvek közé tartozik a mesterséges intelligencia rosszindulatú fenyegető szereplők általi használatának azonosítása és az ellenintézkedések megtétele, más AI-szolgáltatók értesítése, az együttműködés más érdekelt felekkel és az átláthatóság.
Bár a fenyegető szereplők indítékai változatosak lehetnek, és a kifinomultságuk és eltérő, a támadások kibontakoztatásakor hasonló feladatokat kell elvégezniük. Ezek közé tartozik a felderítés, azaz a potenciális áldozatok iparágának, földrajzi elhelyezkedésének és kapcsolatainak vizsgálata, továbbá a kódolás, beleértve a szoftverszkriptek tökéletesítését és a kártevő szoftverek kifejlesztését, illetve a segítségnyújtás az emberi és gépi nyelvek megtanulásához és használatához.
Az OpenAI közreműködésével megosztunk olyan intelligens veszélyforrás-felderítési információkat, amelyek bemutatják, hogy államokhoz kötődő észlelt ellenségek – a Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon és Salmon Typhoon néven nyilvántartott szereplők – nagy nyelvi modelleket (LLM) használnak a kibertevékenységük fokozásához.
A Microsoft és az OpenAI kutatási együttműködésének célja annak biztosítása, hogy a mesterséges intelligenciára épülő technológiákat – például a ChatGPT-t – biztonságosan és felelősen használják, betartva az etikus alkalmazásra vonatkozó legmagasabb normákat, hogy így védjük a közösséget az esetleges visszaélésektől.
A Forest Blizzard (STRONTIUM) egy kimagaslóan hatékony orosz katonai hírszerzési szereplő, amely az orosz fegyveres erők vezérkarának főigazgatóságához vagy a GRU 26165-ös egységéhez kapcsolódik, és az orosz kormányzat számára taktikai vagy stratégiai szempontból érdekes áldozatokat vett célba. A tevékenységei számos szektorra kiterjednek, beleértve a védelmi, szállítási/logisztikai, energetikai és informatikai iparágat, a kormányzatokat és a nem kormányzati szervezeteket (civil szervezeteket).
Az Emerald Sleet (Velvet Chollima) egy észak-koreai fenyegető szereplő, amelyről a Microsoft megállapította, hogy neves tudományos intézményeknek és civil szervezeteknek adja ki magát, hogy szakértői meglátásokkal és Észak-Korea külpolitikájával kapcsolatos kommentárokkal csábítsa válaszadásra az áldozatokat.
Az Emerald Sleet egyebek között arra használt nagy nyelvi modelleket, hogy vizsgálja Észak-Koreával foglalkozó kutatóintézetek és szakértők tevékenységét, valamint hogy olyan tartalmakat generáljon, amelyeket valószínűleg célzott adathalászati kampányokban használnak fel. Az Emerald Sleet emellett a nyilvánosan ismert sebezhetőségek megértéséhez, technikai problémák elhárításához és különféle webes technológiák használatával kapcsolatos segítségnyújtáshoz is alkalmazott nagy nyelvi modelleket.
A Crimson Sandstorm (CURIUM) egy iráni fenyegető szereplő, amely az értékelések szerint az Iszlám Forradalmi Gárdához (IRGC) kapcsolódik. A nagy nyelvi modellek használata a pszichológiai manipulációval kapcsolatos támogatási kérésekre, hibaelhárítással kapcsolatos segítségnyújtásra, .NET-fejlesztésre, valamint olyan módszerekre terjedt ki, amelyekkel egy támadó elkerülheti az észlelést, miközben egy feltört gépen tevékenykedik.
A Charcoal Typhoon (CHROMIUM) egy Kínához kötődő fenyegető szereplő, amely elsősorban a kínai politikát ellenző, Tajvanon, Thaiföldön, Mongóliában, Malajziában, Franciaországban és Nepálban működő csoportok, valamint világszerte élő magánszemélyek nyomon követésére összpontosít. A megfigyelések szerint a Charcoal Typhoon a közelmúltbeli műveletei során arra alkalmazott nagy nyelvi modelleket, hogy betekintést nyerjen különböző kutatásokba, és ezáltal megértsen bizonyos technológiákat, platformokat és sebezhetőségeket, mindez az előzetes információgyűjtési szakaszokra utal.
A Salmon Typhoon, egy másik kínai hátterű csoport, a 2023-as év során felmérte, hogy mennyire hatékonyan tud nagy nyelvi modelleket alkalmazni potenciálisan bizalmas témakörökről, ismert személyekről, regionális geopolitikáról, az USA befolyásáról és belügyekről való információgyűjtésre. A nagy nyelvi modellek ilyen puhatolódzó jellegű használata utalhat egyrészt a hírszerzési információgyűjtési eszközkészletük kiszélesítésére, másrészt a fejlődő technológiák biztosította képességek felmérésének kísérleti fázisára is.
Az OpenAI-jal közösen végzett kutatásunk nem azonosított jelentős támadásokat azon nagy nyelvi modellek alkalmazásával, amelyeket szorosan figyelemmel kísérünk.
Intézkedéseket tettünk annak érdekében, hogy megszakítsuk a fenti fenyegető szereplőkhöz társított eszközök és fiókok működését, és megfelelően alakítsuk a modelljeinket védő óvintézkedéseket is biztonsági mechanizmusokat.
A mesterséges intelligenciával támogatott csalás szintén kritikus problémát jelent. Jó példa erre a hangszintetizálás, amellyel egy három másodperces hangminta alapján egy modell betanítható tetszőleges személyként hangzó beszédre. Még egy olyan ártatlannak tűnő dolog, mint a hangpostája üdvözlő üzenete is felhasználható elégséges mintavételezésre.
Az egymással való kapcsolattartásunk és az üzleti élet során jelentős mértékben támaszkodunk az identitás-ellenőrzésre, például egy személy hangjának, arcának, e-mail-címének vagy írási stílusának felismerésére.
Kulcsfontosságú megértenünk, hogy a rosszindulatú szereplők hogyan alkalmazzák a mesterséges intelligenciát hosszú ideje bevált identitás-ellenőrző rendszerek működésének aláaknázására, mert csak így tudunk fellépni az összetett csalási esetek és egyéb, frissen megjelenő pszichológiai manipulációs fenyegetések ellen, amelyek elfedik az identitásokat.
A mesterséges intelligencia arra is képes, hogy segítse a cégeket a csalási kísérletek meghiúsításában. Bár a Microsoft megszakította az együttműködését egy Brazíliában működő céggel, mesterséges intelligenciával támogatott rendszereink azt észlelték, hogy a cég megpróbálta újjáalakítani magát, hogy újból bekerülhessen az ökoszisztémánkba.
A csoport folyamatosan igyekezett ködösíteni az adatait, elrejteni a tulajdonosi gyökereit, és megpróbált újból bekerülni, de mesterséges intelligencián alapuló észleléseink közel egy tucat kockázati jelzéssel hívták fel a figyelmet a csaló cégre, és társították azt korábban felismert gyanús viselkedéshez, így sikerült elhárítani a kísérleteit.
A Microsoft elkötelezett a felelős, ember által vezetett mesterséges intelligencia iránt, amely úgy nyújt adatvédelmet és biztonságot, hogy hús-vér emberek felügyelik, értékelik ki a fellebbezéseket, és értelmezik a szabályzatokat és a jogszabályokat.
- Használjon feltételes hozzáférési szabályzatokat: Ezek a szabályzatok világos, önmagát üzembe helyező útmutatást nyújtanak a biztonsági állapot megerősítéséhez, hogy a bérlők automatikusan védelmet élvezzenek kockázati jelzések, licencelés és használat alapján. A feltételes hozzáférési szabályzatok testre szabhatók, és képesek alkalmazkodni a kiberfenyegetési környezet változásaihoz.
- Újra és újra nyújtson képzést az alkalmazottaknak a pszichológiai manipulációs taktikákról: Oktassa az alkalmazottait és a nyilvánosságot, hogy felismerhessék az adathalász e-maileket, a telefonos adathalászatot (hangposta), az SMS-adathalászatot (SMS/szöveges üzenet), a pszichológiai manipulációs támadásokat, és reagálni tudjanak azokra, továbbá hogy alkalmazhassák a Microsoft Teamshez ajánlott biztonsági eljárásokat.
- Szigorúan védje az adatokat: Gondoskodjon az adatok teljes körű védelméről és felügyeletéről.
- Hasznosítsa a generatív AI-ra épülő biztonsági eszközöket: Az olyan eszközök, mint például a Microsoft Copilot a biztonságért, bővíthetik a képességeket, és javíthatják a szervezet biztonsági állapotát.
- Engedélyezze a többtényezős hitelesítést: Az összes felhasználó esetében engedélyezze a többtényezős hitelesítést, különös tekintettel az adminisztrátori feladatokat ellátó munkatársakra, mert az több mint 99%-kal csökkenti a fiókok feletti irányítás átvételének kockázatát.
Támadások elleni védelem
A Microsoft hatalmas mennyiségű rosszindulatú adatforgalmat észlel: naponta több mint 65 billió kiberbiztonsági jelzést. A mesterséges intelligencia erősíti az arra irányuló képességünket, hogy mindezt az információt elemezzük, és felszínre hozzuk a legértékesebb megállapításokat, amelyek segítenek a fenyegetések megfékezésében. Ezt a jelátviteli hírszerzési információt a generatív AI-ba betáplálva arra is felhasználjuk, hogy komplex veszélyforrások elleni védelmet, adatbiztonságot és identitásbiztonságot alakítsunk ki, és segítsünk a védekezőknek elfogni olyan kísérleteket, amelyek elkerülték mások figyelmét.
A Microsoft számos módszerrel igyekszik megvédeni saját magát és az ügyfeleit a kiberfenyegetésektől, ezek közé tartozik a mesterséges intelligenciával támogatott fenyegetésészlelés, amely észreveszi az erőforrások vagy a hálózati forgalom használatának változásait, a viselkedéselemzés, amely észleli a kockázatos bejelentkezéseket és a szokatlan viselkedésmódokat, a gépi tanulási modellek, amelyek észlelik a kockázatos bejelentkezéseket és a kártevő szoftvereket, a Teljes felügyeletre épülő modellek, amelyek megkövetelik az összes hozzáférési kérelem teljes körű hitelesítését, engedélyezését és titkosítását, valamint az eszközállapot ellenőrzése, mielőtt egy eszköz engedélyt kap egy vállalati hálózathoz való csatlakozásra.
A fenyegető szereplők tisztában vannak azzal, hogy a Microsoft a többtényezős hitelesítés szigorú alkalmazásával védi magát – az összes alkalmazottunknál be van állítva a többtényezős hitelesítés vagy a jelszó nélküli védelem –, ezért azt látjuk, hogy a támadók inkább a pszichológiai manipuláció felé hajlanak az alkalmazottaink fiókjának feltörésére irányuló kísérleteikben.
Erre egyebek között olyan területeken kerül sor, ahol értéket képviselő dolgokat, például ingyenes próbaverziókat vagy promóciós díjszabású szolgáltatásokat vagy termékeket adnak át. Ezeken a területeken a támadók számára nem kifizetődő egyesével ellopni előfizetéseket, ezért megpróbálják működőképesebbé és szélesebb körűvé tenni a támadásaikat anélkül, hogy észrevennék őket.
Természetesen olyan AI-modelleket is készítünk, amelyek észlelik az ilyen támadásokat a Microsoft és az ügyfeleink védelme érdekében. Észleljük a hamis tanulókat és iskolai fiókokat, valamint a hamis cégeket vagy szervezeteket, amelyek szankciók elkerülése, szabályozások megkerülése, illetve múltbéli bűnügyi kihágások – például korrupciós ítéletek, lopási kísérletek stb. – elrejtése érdekében megváltoztatták a céges demográfiai adataikat, vagy elrejtették tényleges identitásukat.
A GitHub Copilot, a Microsoft Copilot a biztonságért és a belső mérnöki és üzemeltetési infrastruktúránkba integrált egyéb, másodpilótára épülő csevegési funkciók segítenek megelőzni az olyan incidenseket, amelyek hatással lehetnének a működésünkre.
Az e-mailes fenyegetések megfékezése érdekében a Microsoft tökéletesíti azokat a képességeit, amelyekkel az e-mailek megfogalmazása mellett más jelek alapján is meg tudja állapítani, hogy az e-mailek rosszindulatúak-e. Mióta a mesterséges intelligencia a fenyegető szereplők kezébe került, egyre több tökéletesen megírt e-mail érkezik, ami jelentős előrelépés az adathalászati kísérleteket gyakran leleplező nyilvánvaló nyelvi és nyelvtani hibákhoz képest, és ez igencsak megnehezíti az adathalászati kísérletek észlelését.
Az alkalmazottak folyamatos oktatására és nyilvános figyelemfelkeltő kampányokra van szükség ahhoz, hogy felvehessük a harcot a pszichológiai manipuláció ellen, amely az egyetlen, 100%-ban emberi hibára támaszkodó támadási mód. A történelem megtanított bennünket arra, hogy hatékony nyilvános figyelemfelkeltő kampányokkal az emberi viselkedés megváltoztatható.
A Microsoft várakozásai szerint a mesterséges intelligencia hozzájárul majd a pszichológiai manipulációs taktikák fejlődéséhez, és lehetővé teszi a kifinomultabb – például deepfake-ekre és hangklónozásra épülő – támadásokat, különösképpen akkor, ha a támadók felelősségteljes eljárások és beépített biztonsági szabályozók nélkül működő AI-technológiákat találnak.
A megelőzés minden kiberfenyegetés esetében kulcsfontosságú, legyen szó akár hagyományos, akár mesterséges intelligenciával támogatott fenyegetésekről.
Javaslatok:
A mesterséges intelligenciával kapcsolatos további megállapításokat olvashat Homa Hayatyfar cikkében, aki az Adatok és alkalmazott tudományok csoport vezetője, az észlelési analitika vezetője.
A hagyományos eszközök már nem tudnak lépést tartani a kiberbűnözők jelentette fenyegetésekkel. A közelmúltbeli kibertámadások fokozódó sebessége, kiterjedtsége és kifinomultsága a biztonságra vonatkozó új megközelítésmódot követel meg. Emellett, tekintettel a kiberbiztonsági munkaerőhiányra és a kiberfenyegetések fokozódó gyakoriságára és súlyosságára, sürgősen meg kell szüntetni az ilyen készségek terén mutatkozó hiányosságokat.
A mesterséges intelligencia a védekezők javára billentheti a mérleget. Egy, a Microsoft Copilottal a biztonságért (amely jelenleg ügyfelek általi előzetes tesztelésen esik át) kapcsolatban a közelmúltban készült tanulmány rámutatott arra, hogy a biztonsági elemzők a szaktudásuk szintjétől függetlenül nagyobb sebességet és pontosságot értek el az olyan gyakori feladatok terén, mint például a támadók által használt szkriptek azonosítása, incidensjelentések készítése, valamint a megfelelő szervizelési lépések meghatározása.1
- [1]
Módszertan:1 A pillanatkép adatai egy véletlenszerű ellenőrzött próba eredményeit mutatják, amelynek során 149 személyt teszteltünk, hogy megmérjük a Microsoft Copilot a biztonságért használatának termelékenységre gyakorolt hatását. Ezen a véletlenszerű ellenőrzött próbán egyes véletlenszerűen kiválasztott elemzőknek biztosítottuk a Copilotot, míg másoknak nem, majd kivontuk ez utóbbiak teljesítményét és véleményét, hogy megkapjuk a Copilot alaphatásoktól megtisztított nettó hatását. A tesztalanyok alapszintű informatikai készségekkel rendelkeztek, de újoncok voltak a biztonság területén, így tesztelhettük, hogyan segíti a Copilot a karrierjük kezdetén álló elemzőket. A Microsoft Copilot a biztonságért termékkel kapcsolatos véletlenszerű ellenőrzött próbát a Microsoft vezető közgazdászának irodája bonyolította le 2023 novemberében. Emellett a Microsoft Entra ID szolgáltatott anonimizált adatokat a fenyegető tevékenységekről, például a kártevő e-mail-fiókokról, az adathalász e-mailekről és a támadók hálózaton belüli mozgásáról. További háttér-információt biztosít az a napi 65 billió biztonsági jelzés, amelyet a Microsoft rendszereiből, így a felhőből, a végpontokról és az intelligens peremhálózatról nyerünk, továbbá az incidensek utáni helyreállító biztonsági eljárásokért felelős, illetve az észlelési és reagálási csapat, valamint a Microsoft platformjairól és szolgáltatásaiból – egyebek között a Microsoft Defenderből – származó telemetriai adatok és a 2023-as Microsoft Digitális védelmi jelentés.