Aprendizaje Automático Aplicado a la Seguridad de la Información (CAMLIS) se celebra esta semana en Arlington, Virginia. Los temas tratados tratan directamente sobre el corazón de la investigación del equipo de SophosIA: encontrar formas más eficaces de utilizar las tecnologías de aprendizaje automático e inteligencia artificial para protegerse contra los riesgos de ciberseguridad y protegerse contra los riesgos inherentes a los propios modelos de IA.
El 24 de octubre, Ben Gelman, Sean Bergeron y Younghoo Lee, de SophosIA, harán una presentación durante una presentación. Gelman y Bergeron pronunciarán una conferencia titulada «The Revitalization of Small Cybersecurity Models in the New Era of AI» (La revitalización de los pequeños modelos de ciberseguridad en la nueva era de la IA).
Los modelos de aprendizaje automático más pequeños han recibido poca atención en gran parte de la investigación centrada en los Grandes Modelos de Lenguaje (LLM), como el GPT-4 de OpenAI, el Gemini de Google y el LLaMA de Meta. Pero siguen siendo fundamentales para la seguridad de la información en los extremos y puntos finales de la red, donde los costes computacionales y de red de los LLM los hacen poco prácticos.
En su presentación, Gelman y Bergeron hablarán de cómo utilizar la tecnología LLM para sobrealimentar el proceso de entrenamiento de modelos más pequeños, discutiendo las técnicas que SophosIA ha utilizado para hacer que modelos pequeños y rentables rindan a niveles mucho más altos en una variedad de tareas de ciberseguridad.
En una charla relacionada, Lee presentará «A fusion of LLMs and lightweight ML for effective phishing email detection» (Una fusión de LLM y ML ligero para la detección eficaz de correos electrónicos de phishing). Ahora que los adversarios recurren a los LLM para generar correos electrónicos de phishing más convincentes y selectivos con patrones de texto únicos, además de aprovechar nombres de dominio nunca vistos para eludir las defensas tradicionales contra el spam y el phishing, Lee investigó cómo pueden utilizarse los LLM para contrarrestarlos, y cómo pueden combinarse con modelos tradicionales de aprendizaje automático más pequeños para ser aún más eficaces.
En el enfoque que Lee presenta en su artículo, los LLM pueden aprovecharse para detectar intenciones y señales sospechosas, como la suplantación del remitente y los dominios engañosos. Y al fusionar los LLM con modelos de aprendizaje automático más ligeros, es posible tanto mejorar la precisión de la detección del phishing como superar las limitaciones de ambos tipos de modelos cuando se utilizan por separado.
El segundo día de CAMLIS, Tamás Vörös, de SophosIA, presentará una ponencia sobre su investigación acerca de la desactivación de los LLM maliciosos, es decir, los modelos que llevan puertas traseras o programas maliciosos para ser activados mediante entradas específicas. Su presentación, titulada «LLM Backdoor Activations Stick Together» (Las activaciones de las puertas traseras de los LLM se pegan entre sí), demuestra tanto los riesgos de utilizar LLM de «caja negra» (mostrando cómo el equipo de SophosAI inyectó sus propios troyanos controlados en los modelos) como los métodos «ruidosos» que pueden utilizarse para desactivar los comandos de activación de troyanos preexistentes.