L’Applied Machine Learning in Information Security (CAMLIS), che si è tenuto questa settimana ad Arlington, in Virginia, ha visto un intervento in primo piano e una “poster session” più informale durante l’evento. Gli argomenti trattati hanno toccato il cuore della ricerca del team di SophosAI: trovare modi più efficaci per utilizzare l’apprendimento automatico e le tecnologie di intelligenza artificiale per proteggersi dai rischi per la sicurezza delle informazioni e per difendersi da quelli insiti negli stessi modelli di IA.
Il 24 ottobre Ben Gelman, Sean Bergeron e Younghoo Lee di SophosAI hanno presentato una poster session. Gelman e Bergeron terranno un discorso intitolato “La rivitalizzazione dei piccoli modelli di sicurezza informatica nella nuova era dell’IA”.
I modelli di apprendimento automatico più piccoli sono stati trascurati da gran parte della ricerca incentrata sui grandi modelli linguistici (LLM), come GPT-4 di OpenAI, Gemini di Google e LLaMA di Meta. Ma restano fondamentali per la sicurezza delle informazioni ai bordi e sugli endpoint della rete, laddove i costi computazionali e di rete degli LLM li rendono impraticabili.
Nella loro presentazione, Gelman e Bergeron hanno illustrato come utilizzare la tecnologia LLM per potenziare il processo di addestramento di modelli più piccoli, discutendo le tecniche utilizzate da SophosAI per far sì che modelli piccoli ed economici abbiano prestazioni molto più elevate in una serie di attività di cybersecurity.
In un intervento correlato, Lee ha presentato “Una fusione di LLM e lightweight ML per un efficace rilevamento delle e-mail di phishing”. Dato che oggi i cybercriminali si rivolgono agli LLM per generare e-mail di phishing più convincenti e mirate, con modelli di testo unici, oltre a sfruttare nomi di dominio inediti per eludere le difese tradizionali contro lo spam e il phishing, Lee ha studiato come gli LLM possano essere utilizzati per contrastarli e come possano essere combinati con modelli tradizionali di apprendimento automatico più piccoli per essere ancora più efficaci.
Nell’approccio presentato da Lee nel suo articolo, gli LLM possono essere sfruttati per rilevare intenzioni e segnali sospetti, come l’impersonificazione del mittente e i domini ingannevoli. Fondendo gli LLM con modelli di apprendimento automatico più leggeri, è possibile migliorare l’accuratezza del rilevamento del phishing e superare i limiti di entrambi i tipi di modelli quando vengono utilizzati singolarmente.
Il secondo giorno del CAMLIS, Tamás Vörös di SophosAI ha presentato una relazione sulla sua ricerca sul disinnesco di LLM dannosi, modelli che contengono backdoor o malware incorporati destinati a essere attivati da input specifici. La sua presentazione – intitolata “LLM Backdoor Activations Stick Together” – dimostra sia i rischi dell’uso di LLM “black box” (mostrando come il team di SophosAI abbia iniettato i propri Trojan controllati nei modelli) sia i metodi di “noising” che possono essere utilizzati per disabilitare i comandi di attivazione di Trojan preesistenti.