AI Research

SophosAI チーム、CAMLIS にてサイバーセキュリティへの AI 応用に関する論文を発表

10 月 24 日と 25 日、SophosAI が規模の異なるモデルをどのように使用するか、また悪意のあるモデルからどのように身を守るかについてのアイデアを紹介します。

** 本記事は、SophosAI team presents three papers on AI applied to cybersecurity at CAMLIS の翻訳です。最新の情報は英語記事をご覧ください。**

SophosAI チームはバージニア州アーリントンで開催される「情報セキュリティにおける機械学習 (CAMLIS)」において、1 件の講演を行い、さらには非公式の「ポスターセッション」でも発表します。これらのトピックは、SophosAI チームの研究テーマである、情報セキュリティリスクから身を守るために機械学習と人工知能技術をより効果的に使用する方法を発見すること、そして AI モデル自体に内在するリスクから身を守ることの核心に迫るものです。

10 月 24 日には、SophosAI の Ben Gelman、Sean Bergeron および Younghoo Lee がポスターセッションで発表します。Gelaman と Bergeron はさらに、「The Revitalization of Small Cybersecurity Models in the New Era of AI (AI 新時代における小規模サイバーセキュリティモデルの活性化)」と題した講演も行います。

OpenAI の GPT-4、Google の Gemini、Meta の LLaMA のような大規模言語モデル (LLM) に焦点を当てた研究の多くでは、小規模な機械学習モデルは軽視されてきました。しかし、LLM の計算コストやネットワークコストを負担しきれないネットワークエッジやエンドポイントにおける情報セキュリティにとって、小規模モデルは依然として重要です。

Gelman と Bergeron は、LLM 技術を使って小規模なモデルの学習プロセスを強化する方法について発表し、SophosAI がさまざまなサイバーセキュリティタスクにおいて、小規模でコスト効率の良いモデルをより高い水準で動作させるために使用している手法について説明します。

関連講演として、Lee は「A fusion of LLMs and lightweight ML for effective phishing email detection (フィッシングメールを効果的に検知するための LLM と小規模 ML の融合)」を発表します。攻撃者は現在、従来のスパム/フィッシング対策を迂回するために、未知のドメイン名を活用することに加え、独自の文章でより説得力のある標的型フィッシングメールを生成する方法として LLM に注目しています。Lee は、LLM がこれらの手段に対抗するためにどう使用できるのか、さらには従来の小規模な機械学習モデルと組み合わせることで、より効果的な対抗策を実現できるのかを調査しました。

Lee が自身の論文で提示したアプローチでは、LLM を活用することで、送信者のなりすましや偽のドメインなど、疑わしい行為やシグナルを検出できます。また、LLM をより軽量な機械学習モデルと融合させることで、フィッシング検知の精度を高めると同時に、単独で使用した場合の両モデルの限界を乗り越えられます。

CAMLIS 2 日目には、SophosAI の Tamás Vörös が、悪意のある LLM (特定の入力によって起動するバックドアやマルウェアを埋め込んだモデル) を無効化する研究についての講演を行います。「LLM Backdoor Activations Stick Together (LLM と一体化したバックドア起動)」と題された彼の講演では、(SophosAI チームが制御されたトロイの木馬を実際にモデルに注入した方法を示すことで)「ブラックボックス」LLM を使用するリスクと、既存のトロイの木馬起動コマンドを無効化するために使用できる「ノイズ」メソッドの両方を実証します。