Operazioni di Sicurezza

Sophos dimostra l’utilità di ChatGPT come co-pilota per la cybersicurezza

Il modello AI può filtrare più facilmente le attività pericolose rilevate con la telemetria XDR, migliorare i filtri antispam e semplificare l'analisi dei file binari associati agli attacchi "living off the land"

Abbiamo recentemente pubblicato una nuova ricerca sulle modalità con le quali il settore della cybersicurezza può fare leva su GPT-3, il modello di linguaggio utilizzato dall’ormai famoso framework ChatGPT, adottandolo come co-pilota in grado di assistere nella neutralizzazione degli attacchi.

Il nuovo report intitolato “Applying AI Language Processing to Cyber Defenses” si sofferma sui progetti sviluppati da Sophos X-Ops utilizzando i modelli linguistici di GPT-3 per semplificare la ricerca di attività illecite all’interno dei dataset prodotti dai software per la sicurezza, filtrare lo spam con maggior precisione e velocizzare l’analisi degli attacchi condotti mediante file binari LOLbin (“living off the land”).

“Da quando OpenAI ha presentato ChatGPT lo scorso novembre, la community della sicurezza si è principalmente concentrata sui potenziali rischi che questa nuova tecnologia potrebbe provocare. Questa AI potrebbe essere usata da chiunque per scrivere malware o aiutare i cybercriminali a scrivere email di phishing più convincenti? Forse, ma in Sophos consideriamo da tempo la AI come un alleato anziché come un nemico per chi si deve difendere, tanto da averla resa un nostro perno Tecnologico, e GPT-3 non fa differenza. La community di chi si occupa di sicurezza dovrebbe prestare attenzione non solo ai rischi potenziali, ma anche alle possibili opportunità offerte da GPT-3”, ha dichiarato Sean Gallagher, principal threat researcher di Sophos.

I ricercatori di Sophos X-Ops compreso Younghoo Lee, SophosAI Principal Data Scientist, hanno lavorato su tre prototipi che dimostrano le potenzialità di GPT-3 nell’assistere i responsabili della cybersecurity. Tutti questi tre progetti si avvalgono di una tecnica chiamata “few-shot learning” per testare il modello AI con pochi campioni di dati in modo da ridurre la necessità di raccogliere un grande volume di dati pre-classificati.

La prima applicazione collaudata da Sophos con questo metodo è stata una interfaccia per query in linguaggio naturale per setacciare la presenza di attività illecite nei dati telemetrici prodotti dai software per la sicurezza; nello specifico Sophos ha testato il modello mettendolo a confronto con il proprio prodotto per il rilevamento e la risposta alle minacce endpoint. Con questa interfaccia è possibile filtrare la telemetria mediante comandi elementari in inglese evitando di dover conoscere SQL o la struttura sottostante di un database.

Sophos ha quindi messo alla prova un nuovo filtro antispam basato su ChatGPT scoprendo che, rispetto ad altri modelli di machine learning per il filtraggio dello spam, quello basato su GPT-3 era significativamente più preciso. I ricercatori Sophos sono stati infine in grado di creare un programma per semplificare il processo di reverse engineering delle linee di comando dei file LOLbin: un’attività notoriamente difficile ma anche essenziale per la comprensione di questi attacchi e per poterli bloccare in futuro.

“Una delle crescenti preoccupazioni all’interno dei SOC – Security Operations Center – riguarda l’enorme quantità di “rumore” in ingresso. Vi sono troppe notifiche e troppi rilevamenti da analizzare, e molte aziende hanno risorse limitate per poterlo fare. Abbiamo provato che, con una risorsa come GPT-3, possiamo semplificare alcuni processi davvero pesanti e restituire tempo prezioso a chi si difende. Siamo già all’opera per integrare alcuni prototipi nei nostri prodotti e abbiamo reso disponibili su GitHub i risultati dei nostri sforzi per chi fosse interessato a testare GPT-3 nei propri ambienti di analisi. Siamo convinti che in futuro GPT-3 potrebbe diventare un co-pilota standard per gli esperti in sicurezza”, ha concluso Gallagher.