Scoprire le minacce informatiche e rafforzare le difese nell'era dell'IA
Oggi il mondo della cybersecurity sta attraversando una trasformazione su larga scala. L'intelligenza artificiale (IA) è all'avanguardia in questo cambiamento, rappresentando sia una minaccia che un'opportunità. Mentre l'IA ha il potenziale per aiutare le organizzazioni a sconfiggere i cyberattacchi velocemente e promuovere l'innovazione e l'efficienza nel rilevamento delle minacce, nella ricerca e nella risposta agli incidenti, gli antagonisti possono usare l'IA nei loro exploit. Non è mai stato così necessario per noi progettare, distribuire e usare l'IA in modo sicuro.
Microsoft sta esplorando il potenziale dell'IA per migliorare le nostre misure di sicurezza, rendere disponibili soluzioni di protezione nuove e avanzate e creare software migliori. Con l'intelligenza artificiale, abbiamo il potenziale per adattarci alle minacce in continua evoluzione, rilevare istantaneamente le anomalie, rispondere velocemente per neutralizzare i rischi e personalizzare le difese in base alle esigenze di un'organizzazione.
L'IA può anche aiutarci a superare un'altra delle principali difficoltà del settore. Di fronte alla carenza di personale addetto alla cybersecurity globale, con circa 4 milioni di professionisti di sicurezza informatica necessari a livello mondiale, l'IA ha il potenziale per diventare uno strumento centrale per colmare il divario di talenti e per contribuire all'aumento della produttività dei difensori.
Abbiamo già constatato in uno studio come Copilot per la sicurezza può supportare gli analisti della sicurezza a prescindere dal loro livello di competenze: in tutte le attività, i partecipanti sono stati il 44% più precisi e il 26% più veloci.
Mentre facciamo del nostro meglio per proteggere il futuro, dobbiamo assicurarci di bilanciare la preparazione all'IA in modo sicuro e l'utilizzo dei suoi vantaggi, perché l'IA è in grado di aumentare il potenziale umano e risolvere alcuni dei nostri problemi più gravi.
Un futuro più sicuro con l'IA richiede avanzamenti fondamentali nell'ingegneria del software. Richiede che comprendiamo e contrastiamo le minacce basate sull'IA come componenti essenziali di qualsiasi strategia di sicurezza. E dobbiamo lavorare insieme per creare solide collaborazioni e partnership nei settori pubblico e privato per combattere gli utenti malintenzionati.
Nell'ambito di questo impegno e della nostra Secure Future Initiative, oggi OpenAI e Microsoft pubblicano una nuova intelligenza con informazioni dettagliate sui tentativi degli attori di minacce di testare ed esplorare l'utilità dei modelli linguistici di grandi dimensioni (LLM) nelle tecniche di attacco.
Ci auguriamo che queste informazioni siano utili per vari settori mentre facciamo del nostro meglio per garantire un futuro più sicuro. Perché, alla fine, siamo tutti dei difensori.
CVP, Chief Cybersecurity Advisor
Guarda il briefing digitale di Cyber Signals in cui Vasu Jakkal, Corporate Vice President of Microsoft Security Business, intervista i principali esperti di intelligence sulle minacce riguardo gli attacchi informatici nell'era dell'IA, i modi in cui Microsoft sta usando l'IA per una maggiore sicurezza e le azioni che possono compiere le organizzazioni per rafforzare le difese.
Gli utenti malintenzionati esplorano le tecnologie basate sull'IA
Il panorama delle minacce informatiche sta diventando sempre più complesso mentre gli utenti malintenzionati diventano sempre più motivati, più sofisticati e meglio equipaggiati. Gli attori di minacce e i difensori guardano all'IA, compresi i modelli LLM, per migliorare la loro produttività e usufruire di piattaforme accessibili che potrebbero adattarsi ai loro obiettivi e alle loro tecniche di attacco.
Considerando il panorama delle minacce in rapida evoluzione, oggi annunciamo i principi di Microsoft che guidano le nostre azioni per ridurre il rischio di attori di minacce, tra cui minacce persistenti avanzate (APT), manipolatori persistenti avanzati (APM) e gruppi di criminali informatici, usando API e piattaforme basate sull'IA. Questi principi includono l'identificazione e l'azione contro gli attori di minacce che usano l'IA, la notifica ad altri provider di servizi IA, la collaborazione con altri stakeholder e la trasparenza.
Anche se le motivazioni e la sofisticazione degli attori di minacce cambiano, hanno in comune delle attività quando lanciano i loro attacchi. Ad esempio, la ricognizione, come la ricerca dei settori, delle posizioni e delle relazioni delle potenziali vittime; la codifica, compreso il miglioramento dello sviluppo dei malware e degli script software; l'assistenza con l'apprendimento e l'utilizzo di linguaggi umani e informatici.
In collaborazione con OpenAI, stiamo condividendo un'intelligence sulle minacce che mostra gli antagonisti affiliati agli stati rilevati (Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon e Salmon Typhoon) che usano i modelli LLM per intensificare le operazioni informatiche.
L'obiettivo della partnership di ricerca tra Microsoft e OpenAI è quello di garantire l'utilizzo sicuro e responsabile delle tecnologie basate sull'IA come ChatGPT, rispettando i più elevati standard in materia di applicazione etica per proteggere la comunità da potenziali usi impropri.
L'uso di modelli LLM da parte di Emerald Sleet ha implicato la ricerca di think tank ed esperti sulla Corea del Nord, oltre alla creazione di contenuti usati probabilmente in campagne di spear phishing. Inoltre, Emerald Sleet ha interagito con i modelli LLM per comprendere le vulnerabilità pubblicamente note, risolvere problemi tecnici e ottenere assistenza con l'utilizzo di varie tecnologie del Web.
Un altro gruppo che si trova in Cina, Salmon Typhoon, ha valutato l'efficacia dell'uso di modelli LLM per tutto il 2023 per procurasi informazioni su argomenti potenzialmente sensibili, personalità di alto profilo, geopolitica regionale, influenza degli Stati Uniti e affari interni. Questo utilizzo preliminare di modelli LLM potrebbe riflettere un ampliamento del suo toolkit per la raccolta di informazioni e una fase sperimentale nella valutazione delle capacità delle tecnologie emergenti.
Abbiamo adottato misure per interrompere gli asset e gli account associati a questi attori di minacce e plasmare i meccanismi di difesa e sicurezza in base ai nostri modelli.
Le frodi basate su intelligenza artificiale sono un'altra preoccupazione di importanza critica. La sintesi vocale ne è un esempio, dove un campione vocale di tre secondi può eseguire il training di un modello per riprodurre la voce di chiunque. Perfino qualcosa di innocuo come il messaggio vocale della tua segreteria telefonica può essere usato per ottenere un campionamento sufficiente.
Gran parte del modo in cui interagiamo con gli altri e conduciamo le nostre attività si basa sulla verifica dell'identità, come il riconoscimento della voce, del volto, dell'indirizzo e-mail o dello stile di scrittura di una persona.
È fondamentale che comprendiamo come gli attori malintenzionati utilizzano l'IA per indebolire i sistemi di verifica dell'identità di vecchia data affinché possiamo affrontare casi di frodi complessi e altre minacce di ingegneria sociale emergenti che oscurano le identità.
L'IA può essere usata anche per consentire alle aziende di bloccare i tentativi di frode. Anche se Microsoft ha interrotto il nostro impegno con un'azienda in Brasile, i nostri sistemi di IA hanno rilevato i suoi tentativi di ricostituirsi per rientrare nel nostro ecosistema.
Il gruppo ha continuato a provare a offuscare le sue informazioni, nascondere le radici della proprietà e rientrare, ma i nostri sistemi di rilevamento con IA hanno sfruttato quasi una dozzina di segnali di rischio per contrassegnare l'azienda fraudolenta e associarla al comportamento sospetto precedentemente riconosciuto, per poi bloccare i suoi tentativi.
Microsoft si impegna per una IA gestita da persone che garantisce privacy e sicurezza grazie a operatori che forniscono una supervisione, valutano i ricorsi e interpretano politiche e regolamenti.
- Usa criteri di accesso condizionale: questi criteri forniscono indicazioni chiare e con distribuzione automatica per rafforzare la postura di sicurezza proteggendo automaticamente i tenant in base ai segnali di rischio, alle licenze e all'utilizzo. I criteri di accesso condizionale sono personalizzabili e si adattano al panorama delle minacce informatiche in evoluzione.
- Istruisci i dipendenti in merito alle tattiche di ingegneria sociale: insegna ai dipendenti e al pubblico a riconoscere e reagire a email di phishing, vishing (segreteria telefonica), smishing, attacchi di ingegneria sociale (SMS/testo), e ad applicare le procedure consigliate di sicurezza per Microsoft Teams.
- Proteggi rigorosamente i dati: assicurati che i dati siano sempre privati e controllati.
- Sfrutta strumenti di sicurezza con IA generativa: strumenti come Microsoft Copilot per la sicurezza possono espandere le capacità e migliorare la postura di sicurezza dell'organizzazione.
- Abilita l'autenticazione a più fattori: abilita l'autenticazione a più fattori per tutti gli utenti, soprattutto per le funzioni amministrative, poiché riduce il rischio di acquisizione degli account di più del 99%.
Difendersi dagli attacchi
Microsoft rileva un'enorme quantità di traffico dannoso, più di 65 miliardi di segnali di cybersecurity al giorno. L'IA sta migliorando la nostra capacità di analizzare queste informazioni e garantire che i dati analitici più importanti vengano sfruttati per arrestare le minacce. Inoltre, usiamo l'intelligence di tali segnali per alimentare l'IA generativa per la protezione dalle minacce avanzata, la sicurezza dei dati e la sicurezza delle identità per aiutare i difensori a rilevare quello che sfugge agli altri.
Microsoft usa diversi modi per proteggere se stessa e i clienti dalle minacce informatiche, tra cui il rilevamento delle minacce con IA per individuare cambiamenti nella modalità di utilizzo delle risorse o del traffico sulla rete; l'analisi del comportamento per rilevare accessi a rischio e comportamenti anomali; modelli di apprendimento automatico per rilevare accessi a rischio e malware; modelli Zero Trust dove ogni richiesta di accesso deve essere completamente autenticata, autorizzata e crittografata; e la verifica dell'integrità dispositivi prima che un dispositivo possa connettersi a una rete aziendale.
Gli attori di minacce sono consapevoli che Microsoft usa rigorosamente l'autenticazione a più fattori (MFA) per proteggere se stessa (tutti i nostri dipendenti si avvalgono della MFA o della protezione senza password), quindi abbiamo constatato che gli utenti malintenzionati si affidano all'ingegneria sociale per cercare di compromettere i nostri dipendenti.
Le aree di maggior interesse in questo senso includono quelle in cui vengono trasmesse cose di valore, ad esempio versioni di valutazione gratuite o offerte promozionali di servizi o prodotti. In queste aree, agli utenti malintenzionati non fa comodo rubare un abbonamento alla volta, quindi tentano di operazionalizzare e scalare gli attacchi senza essere rilevati.
Naturalmente, creiamo modelli di intelligenza artificiale per rilevare tali attacchi per Microsoft e i nostri clienti. Rileviamo account di istituti di istruzione e studenti falsi, aziende o organizzazioni false che hanno alterato i propri dati firmografici o nascosto le proprie identità reali per eludere le sanzioni, aggirare i controlli o nascondere violazioni passate come condanne per corruzione, tentativi di furto e così via.
L'uso di GitHub Copilot, Microsoft Copilot per la sicurezza e altre funzionalità di chat di Copilot integrate nella nostra infrastruttura interna per ingegneria e operazioni aiuta a prevenire gli incidenti che potrebbero avere un impatto sulle operazioni.
Per far fronte alle minacce relative alla posta elettronica, Microsoft sta migliorando le capacità di raccolta dei segnali dietro la composizione di un'email per capire se è dannosa. Con l'IA nelle mani degli attori di minacce, c'è stato un afflusso di email scritte perfettamente con meno errori grammaticali e linguistici ovvi che spesso rivelano i tentativi di phishing, rendendo questi attacchi più difficili da rilevare.
Una formazione continua dei dipendenti e le campagne di sensibilizzazione pubbliche sono necessarie per contrastare l'ingegneria sociale, che è la leva che si appoggia al 100% sull'errore umano. La storia ci ha insegnato che le campagne di sensibilizzazione pubbliche efficaci riescono a cambiare il comportamento.
Microsoft anticipa che l'IA farà evolvere le tattiche di ingegneria sociale, creando attacchi più sofisticati tra cui deepfake e clonazione della voce, soprattutto se gli utenti malintenzionati utilizzeranno tecnologie basate sull'intelligenza artificiale senza procedure responsabili e controlli di sicurezza integrati.
La prevenzione è la chiave per combattere tutte le minacce informatiche, tradizionali o basate sull'IA.
Consigli:
Ottieni maggiori dettagli sull'IA da Homa Hayatafar, Principal Data and Applied Science Manager, Detection Analytics Manager.
Gli strumenti tradizionali non tengono più il passo delle minacce dei criminali informatici. La velocità, la scalabilità e la sofisticazione sempre maggiori dei recenti cyberattacchi richiedono un nuovo approccio alla sicurezza. Inoltre, data la carenza di personale nella cybersecurity, e con minacce informatiche sempre più frequenti e gravi, colmare questa lacuna di competenze è una priorità assoluta.
L'IA può far pendere l'ago della bilancia in favore dei difensori. Uno studio recente di Microsoft Copilot per la sicurezza (attualmente in fase di test in anteprima per i clienti) ha mostrato un incremento della velocità e della precisione degli analisti della sicurezza, a prescindere dal loro livello di competenze, in attività comuni come l'identificazione di script usati dagli utenti malintenzionati, la creazione di report sugli incidenti e l'identificazione di procedure di rimedio appropriate.1
- [1]
Metodologia:1 I dati dell'istantanea rappresentano una versione di valutazione controllata casuale (RCT), dove abbiamo testato 149 persone per misurare l'impatto sulla produttività con l'uso di Microsoft Copilot per la sicurezza. In questa RCT, abbiamo dato casualmente Copilot solo ad alcuni analisti e poi abbiamo sottratto le loro prestazioni e sentiment per ottenere l'effetto di Copilot, separato da qualsiasi effetto di base. I soggetti del test avevano competenze IT di base, ma non avevano alcuna esperienza nella sicurezza, quindi abbiamo potuto testare come Copilot aiuta gli analisti "novizi". La RCT di Microsoft Copilot per la sicurezza è stata condotta da Microsoft Office of the Chief Economist, novembre 2023. Inoltre, Microsoft Entra ID ha fornito dati anonimizzati sull'attività delle minacce, come account e-mail dannosi, e-mail di phishing e il movimento degli utenti malintenzionati nelle reti. Ulteriori informazioni derivano dai 65 bilioni di segnali di sicurezza quotidiani ottenuti tramite Microsoft, tra cui il cloud, gli endpoint, la rete perimetrale intelligente, i nostri team addetti alle pratiche di recupero in caso di violazioni della sicurezza e addetti al rilevamento e alla risposta alle minacce, la telemetria di piattaforme e servizi Microsoft tra cui Microsoft Defender e il Report sulla difesa digitale Microsoft del 2023.