A robot hand on the left reaches towards a human hand on the right, with a blurred blue-black cityscape in the background
脅威の調査

最新情報: AI に (今のところ) 乗り気でないサイバー犯罪者

生成 AI に対する攻撃者の態度に関する第 1 回調査から 1 年が経ち、ソフォスはいくつかの地下フォーラムを再訪し、多くのサイバー犯罪者が依然として生成 AI に懐疑的であることを確認しました。ただし、僅かな変化もありました。

** 本記事は、Update: Cybercriminals still not fully on board the AI train (yet) の翻訳です。最新の情報は英語記事をご覧ください。**

2023 年 11 月、Sophos X-Ops は特定のサイバー犯罪フォーラムでの議論に焦点を当て、攻撃者の生成 AI に対する姿勢を探る調査の結果を公開しました。これらの議論では、いくらかのイノベーションと攻撃者の熱意が確認できる一方で、懐疑的な意見も多く見られました。

生成 AI の進歩の速さを顧みて、この 1 年の変化を改めて確認してみることにします。

少なくとも調査したフォーラムでは、小さな変化が起きているようです。一部の攻撃者が、生成 AI を自らのツールボックスに組み込み始めていました。生成 AI は主にスパムメール、オープンソースインテリジェンス (OSINT)、ソーシャルエンジニアリングに採用されています (ただし、「豚の屠殺 (sha zhu pan)」詐欺キャンペーンを行う中国語のサイバー犯罪グループが、特にテキストや画像を生成するために AI を頻繁に使用していることは注目に値します)。

しかし、以前と同様、サイバー犯罪フォーラムでは多くの攻撃者が AI に懐疑的な姿勢を崩していません。マルウェアやサービスとしてのアクセスのような「従来の」トピックに比べ、AI に関する議論は数が限られています。多くの投稿は、ジェイルブレイクとプロンプトに焦点を当てており、どちらもソーシャルメディアやその他のサイトで一般的に共有されています。

マルウェアや攻撃ツール、エクスプロイトを開発しようとする試みは原始的で低品質なものが少数確認されたに留まりました。これらは場合によっては他のユーザーからの批判や紛争、詐欺行為への非難の発端にもなっていました (サイバー犯罪者同士が詐欺を働く奇妙な生態系に関する 4 部構成のシリーズを参照してください)。

革新的なアイデアの証拠もいくつか確認されましたが、それらはただ願望に過ぎず、正規の研究ツールや GitHub リポジトリへのリンクを共有する方がより一般的でした。昨年私たちが発見したように、一部の攻撃者はルーティンワークの自動化に AI を使用していますが、ほとんどのユーザーは複雑なことには AI を使用していないようです。

興味深いことに、サイバー犯罪者が投稿を作成すること、セキュリティ以外に関する活動、フォーラム自体での使用などのために生成 AI を採用していることも確認しました。ある事例では、攻撃者が孤独を克服するため、GPT とほぼ 2 年間毎日会話していたことを告白しています。

統計

昨年もそうでしたが、少なくとも調査対象となったフォーラムでは、いまだ AI はホットな話題ではないようです。たとえば、ある有名なロシア語のフォーラムやマーケットプレイスでは、過去 1 年間での GPT や LLM に関する投稿は 150 件以下であったのに対し、暗号通貨に関する投稿は 1,000 件を超え、「アクセス」セクション (ネットワークへのアクセスが売買される場所) には同じ期間に 600 件以上のスレッドが立ちました。

別のロシア語のサイバー犯罪サイトには、2019 年から運営されている AI 専用エリアがあります。しかし、本記事執筆時点でスレッド数は 300 件に満たないのに対し、過去 1 年間で「マルウェア」セクションには 700 件を超えるスレッドが、「アクセス」セクションには 1,700 件を超えるスレッドが立ちました。とはいえ、AI のトピックは遅れてはいるものの、ここ 2 年で広く知られるようになったばかりであり、黎明期にあるトピックとしては比較的成長が速いとも言えます。

データ侵害を専門とする、英語の人気サイバー犯罪フォーラムでは、数多くの AI 関連の投稿が確認されました。しかし、これらは主にジェイルブレイク、チュートリアル、または盗まれた/侵害された ChatGPT アカウントの販売が話題の中心でした。

少なくとも現時点では、多くの攻撃者はまだ「いつも通りの業務」に集中しており、ただ実験や概念実証のコンテキストで生成 AI を試しているに過ぎないようです。

悪意のある開発

GPT デリバティブ

ソフォスは 2023 年 11 月、 WormGPT、FraudGPT などを含む 10 件の「GPT デリバティブ」について報告しました。これらの開発者は通常、自らのツールをサイバー犯罪のために特別に設計された GPT だとして宣伝していましたが、それらが単に ChatGPT や同様のツールのジェイルブレイク版、またはカスタムプロンプトだと指摘するユーザーも確認されました。

この 1 年間で、私たちが調査したフォーラムで確認された新しい例は 3 件だけでした。

  1. Ev1L-AI: WormGPT の無料代替品として宣伝された Ev1L-AI は、英語のサイバー犯罪フォーラムで宣伝されましたが、フォーラムのスタッフは、提供されたリンクが機能しないことを指摘しています。
  2. NanoGPT: 「GPT-J-6 アーキテクチャに基づいた無制限 AI」を名乗る NanoGPT は、「いくつかのマルウェアの GitHub スクリプト、フィッシングページ、その他」に基づいて学習した、明らかに開発中のものです。このプロジェクトの現在の状況は不明です。
  3. HackerGPT: このツールについての投稿もいくつか確認しました。GitHub で公開されており、「自律的な侵入テストツール」だと説明されています。提供されているドメインは現在失効しており (本記事執筆時点では GitHub のリポジトリや代替ドメインはまだ生きているように見えますが)、別のユーザーからは、次のような辛辣な反応がありました。「普通の chatgpt と変わらない。」

A screenshot from a criminal forum

図 1: サイバー犯罪フォーラムで「Ev1l-AI」を宣伝する攻撃者

A screenshot from a criminal forum

図 2: 別のサイバー犯罪フォーラムで、「HackerGPT」へのリンクを提供する攻撃者

スパム行為と詐欺行為

フォーラムには、スパムや詐欺に生成 AI を使用することへの関心を高めている攻撃者もいるようです。フィッシングメールやスパム SMS メッセージの作成に GPT を使用するなど、サイバー犯罪者がこのトピックに関するヒントを提供し、助言を求める例がいくつか確認されました。

A screenshot from a criminal forum

図 3: 大量の電子メール送信に GPT を使用する際のアドバイスを共有する攻撃者

A screenshot from a criminal forum

図 4: 「類義語は chatgpt に聞け」というアドバイスなど、SMS スパムメッセージの作成に関するヒントを提供する攻撃者

興味深いことに、ChatGPT を用いた商用スパムサービスだと思われるものも発見しました。ただし、価格は明示されていません。

A screenshot from a criminal forum

図 5: ChatGPT を利用したスパムサービスの広告

もう 1 つのツール、Bluepony (開発者を名乗る攻撃者が、 無料で共有しているのを確認済み) は、スパムやフィッシングメールを生成する機能を持つ Web メーラーであると主張しています。

A screenshot from a criminal forum

図 6: 「Bluepony」の共有を申し出るサイバー犯罪フォーラムのユーザー。ロシア語の文章を翻訳すると以下の通りです。「皆さんこんにちは、私たちはもはや 吸血鬼のように闇に潜むことをやめて世界に自らの姿をさらけ出し、自らの殻を破って公共の光を浴び、完全無料バージョンの Bluepony を提供することにしました。Webmailer – 主に BAS に基づいたリクエストで動作します。GMAIL がブラウザを通した認証を必要とする瞬間がありますが、私たちは可能な限り迅速な実行を試みます。無料版では 1 スレッドのみ利用可能ですが、1 スレッドでもリクエストに対してマシンガンのように素早く動作します。Bluepony Free は以下のようなドメインで動作します。Aol、Yahoo、Gmail、Mail.com、Gmx.com、Web.de、Mail.ru、Outlook、Zoho、さらに SMTP (ここまでは仕上げます)。将来的には、さらに多くのドメインを追加する予定です。いくつかのドメインは除外されるかもしれませんが、これらのドメインも一定ではなく、さまざまな種類を追加できるため、迅速な修正を試みます。メーラーには OPENai gpt [強調は筆者] が使われており、メールや画像、html メールを生成できます… 多くの設定とモーメントがあるため、メーリング中に AI を使用できます。プロンプトに必要なトピックと詳細を記述すれば、完全に生成されたメールをメーリング中に受け取れます。」

攻撃者の中には、他の言語を話す標的をより的確に狙うために AI を利用している者もいるかもしれません。たとえば、あるフォーラムのソーシャルエンジニアリングエリアでは、ロシア語と英語を翻訳するための ChatGPT を含むさまざまなツールの品質について議論しているユーザーを確認しました。

A screenshot from a criminal forum

図 7: AI を含むさまざまな翻訳ツールの品質について議論を始める攻撃者

OSINT

私たちは、ある攻撃者がオープンソースインテリジェンス (OSINT) の実行に AI を使用していると述べた投稿を目にしました。ただし、彼らは時間の節約のために用いているとしています。この投稿者はそれ以上の説明をしていませんでしたが、サイバー犯罪者が OSINT を行う理由はいくつかあり、被害者を「ドキシング」することや、攻撃を計画している企業に対する偵察を行ったりすることなどが挙げられます。

私は長い間、OSINT にニューラルネットワークを使用してきました。しかし、LLM またはそれに準ずるものは、情報を検索し分析するプロセスにおいて、完全に人の代わりとなることはできません。LLM にできるのは、入力されたデータに基づいて情報の分析を促し、手助けすることくらいですが、何をどのように入力すれば良いかを知ったうえで、そのすべてをダブルチェックする必要があります。LLM の役割は、時間を節約するためのアシスタントに過ぎません。

私は個人的には、Yandex neurosearch などのようなニューロサーチシステムの方を好みます。同時に、Bard/geminiのようなサービスは、ハルシネーションが多く、機能が非常に限られているため、設定されたタスクに対処できるとは限りません。(ロシア語からの翻訳)

マルウェア、スクリプト、エクスプロイト

前回の記事で述べたように、ほとんどの攻撃者はまだ AI を利用して、商品化可能なマルウェアやエクスプロイトを作成しているようには見えません。その代わりに、実験的な PoC (概念実証) を作成し、多くの場合、些細なタスクのためにそれらをフォーラムで共有しています。

A screenshot from a criminal forum

図 8: 「ChatGpt の助けを借りて」Python で書かれた「Netflix チェッカーツール」のコードを共有する攻撃者

また、GitHub のような他のソースから GPT 関連ツールを共有する攻撃者も確認されました。

A screenshot from a criminal forum

図 9: GitHub リポジトリへのリンクを共有する攻撃者

攻撃者が正規の研究ツールを共有するさらなる例として、元々は RSA 2024 で発表されたツールである Red Reaper に関する投稿が挙げられます。このツールは、LLM を使用してデータセットから「悪用可能な」機密通信を特定するものです。

A screenshot from a criminal forum

図 10: Red Reaper v2 の GitHub リポジトリへのリンクを共有する攻撃者

他のセキュリティツールと同様、攻撃者はしばしば独自のソリューションを開発することに加えて、あるいはその代わりに、正規の AI 研究やツールを不正な目的のために利用します。

攻撃者の熱意

しかし、AI を活用したマルウェアや攻撃ツールをめぐる議論の多くは、少なくとも私たちが調査したフォーラムでは、まだ願望的なものでした。たとえば、「世界初の AI を搭載した自律型 C2」というタイトルの投稿を確認しましたが、その投稿者は「今のところ、これはまだ私の想像の産物に過ぎない」と認めています。

A screenshot from a criminal forum

図 11: 「世界初の AI 搭載自律型 C2」を約束するものの、そのツールは「私の想像の産物」であり、「そのような自律型システムを作る技術はまだ研究の初期段階にある」と認める攻撃者。

別の攻撃者は、「政治家や大規模な暗号通貨インフルエンサーを恐喝するためにボイスクローニングを使用すること」の実現可能性について尋ねました。この問いかけに対し、あるユーザーは相手を連邦捜査官だとして非難しました。

A screenshot from a criminal forum

図 12: あるユーザーがサイバー犯罪フォーラムで人々を恐喝するために音声クローンを作成するプロジェクトのオススメを求めたところ、他のユーザーから FBI 捜査官だとして非難される様子

間接的な用法

興味深いことに、AI に関するサイバー犯罪フォーラムの議論の中には、セキュリティとはまったく関係のないものもありました。GPT を使って本を書くためのガイドや、「高品質の動画」を作成するためのさまざまな AI ツールの推奨などの例がいくつか確認されました。

A screenshot from a criminal forum

図 13: 本を書くための AI プロンプトを共有するサイバー犯罪フォーラムのユーザー

セキュリティ以外の議論の中で特に興味深かったのは、職業柄孤独を感じると主張する攻撃者によるスレッドでした。この攻撃者は、人と話せないような気がして「この 2 年近く [中略] GPT4 と毎日話している」と述べていました。

A screenshot from a criminal forum

図 14: サイバー犯罪フォーラムで自らに深く踏み込み、孤立感を和らげようと GPT4 と会話していたことを告白する攻撃者

あるユーザーが指摘したように、この行為は「opsec (オペレーショナルセキュリティ) にとって悪い行い」です。元の投稿者も同意し、「あなたの言う通り、Microsoft と提携しているロボットに私の人生や私の問題を話すのは opsec 的自殺行為だ」と述べています。

私たちは、攻撃者の心理や、人々がチャットボットと精神衛生上の問題を議論することの社会的意味についてコメントする資格もなければ、そうするつもりもありません。もちろん、投稿者が真実を述べているかどうかを確認する方法もありません。しかし、この事例やこのセクションの他の事例は、a) 攻撃者がセキュリティのトピックのみに AI を適用しているわけではないこと、b) 犯罪フォーラムでの議論は、時としてサイバー犯罪の取引にとどまらず、攻撃者の背景、外部での活動、ライフスタイルについての洞察を提供する可能性があることを示唆しているかもしれません。

フォーラムでの AI 利用

前回の記事では、攻撃者が自身のフォーラムを AI による投稿で補強しようとしている、という興味深い事象を確認しました。最新の調査では、このような事例がさらに増えていることが判明し、他のフォーラムユーザーから批判を浴びることもしばしばありました。

たとえば、ある英語フォーラムでは、あるユーザーがフォーラム LLM チャットボットの作成を提案しました。少なくともあるロシア語のマーケットプレイスでは実現されていることです。別のユーザーは、このアイデアを全く受け入れませんでした。

A screenshot from a criminal forum

図 15: ある攻撃者は、サイバー犯罪フォーラムに独自の LLM を導入するべきだと提案しましたが、このアイデアは他のユーザーから軽くあしらわれました。

つまらないコピー&ペースト

投稿やコードの生成に AI を使用しているとして嘲笑や見下しとともに他人を非難するスレッドをいくつか確認しました。

たとえば、あるユーザーは「AI マルウェアの仕組み」と題した非常に長いメッセージを投稿しました。

A screenshot from a criminal forum

図 16: サイバー犯罪フォーラムで饒舌になる攻撃者

他の攻撃者は、「ChatGPT の出力にそっくりだ。恥ずかしい…」という簡潔なメッセージとともに、AI 検出ツールのスクリーンショットを返信しました。

A screenshot from a criminal forum

図 17: ある攻撃者が、GPT ツールからのコピー&ペーストについて別の攻撃者を非難する様子

別の例では、あるユーザーが自分が書いたとするマルウェアのコードを共有したところ、著名なユーザーから ChatGPT でコードを生成したと非難されました。

A screenshot from a criminal forum

図 18: ChatGPTを使用していることを非難しつつ、他のユーザーのコードに存在する特定の技術的エラーを指摘する攻撃者

同じスレッドの後の投稿で、このユーザーはこう書いています。「あなたは間違っており、機能しない、あまり意味のないコードで初心者を惑わせています (中略) このコードは ChatGPT か何かで生成されただけです。」

別のスレッドでは、同じユーザーが別のユーザーに「ChatGPT をフォーラムにコピー&ペーストするのは止めろ、無駄だ」とアドバイスしていました。

これらのインシデントが示唆するように、テキストであれコードであれ、AI 生成物による貢献がサイバー犯罪フォーラムで必ずしも歓迎されるとは限らないと考えるのが妥当でしょう。他の分野と同様、このような貢献は、正しかろうが間違っていようが、近道を求める怠け者やスキルの低い人たちのものだと思われがちです。

詐欺

仲裁スレッドに投稿する際、あるいは後に仲裁スレッドの対象となったコードやツールを生成する際に、攻撃者がフォーラム詐欺のコンテキストで AI を使用しているとして他人を非難する事例がいくつか確認されました。

上記のリンク先の一連の記事で説明しているように、仲裁とは、あるユーザーが他のユーザーに騙された、あるいは詐欺にあったと考えられる場合の犯罪フォーラムでのプロセスです。原告はフォーラムの専用エリアに仲裁スレッドを開き、被告には弁明または返金の機会が与えられます。モデレーターと管理者が仲裁人の役割を果たします。

A screenshot from a criminal forum

図 19: サイバー犯罪フォーラムでの仲裁紛争 (有効なブラジル人識別番号をチェックするツールの販売について) において、原告は被告が ChatGPT を使用して説明を作成したと非難しました。

A screenshot from a criminal forum

図 20: 別の掲示板の別の仲裁スレッド (販売されたデータセットの妥当性に関するもの) でも、原告が被告を AI を使って説明を生成していると非難し、AI 検出ツールのスクリーンショットを投稿していました。

A screenshot from a criminal forum

図 21: 別の調停スレッドでは、原告は売り手が ChatGPT と GitHub からコードをコピーしたと主張しています。

このような使い方は、前回の記事で私たちが指摘したことを裏付けています。つまり、技術力の低い一部の攻撃者は、GPT を使って質の低いツールやコードを生成しようとしており、その行為が他のユーザーによって非難されているということです。

懐疑主義

前回の調査と同様、私たちが調査したフォーラムでは、生成 AI に懐疑的な意見がかなり見られました。

A screenshot from a criminal forum

図 22: 現在の GPT は「IT エリートの言葉の薄いベールの後ろ」に隠された「中国の部屋」 (John Searle の「Chinese Room」という思考実験より) だと主張する攻撃者。

しかし、2023 年にも指摘したように、一部の攻撃者は AI について、ニッチな質問に答えたり、偽の Web サイトを作成するような特定の作業を自動化したりするような一部の作業には有用であると主張しており、より公平に AI を評価しているようです (2023 年に調査・報告した内容)。

図 23: ChatGPT は「ショップ」(偽サイト) の自動化や詐欺には適しているが、コーディングには適していないと主張する攻撃者

A screenshot from a criminal forum

図 24: 同じフォーラムの別のスレッドでは、ChatGPT は「反復的なタスク」に役立つと指摘されています。他のフォーラムでも同様の意見が見られ、ChatGPT や Copilot のようなツールがトラブルシューティングやコードの移植に有効だと書いているユーザーも確認されました。

また、AI のより広い意味合いについての興味深い議論も確認されました。繰り返しになりますが、昨年も記事にしています。

A screenshot from a criminal forum

図 25: AI が侵害の多発を招くのか、減少を招くのかを気にかけるユーザー

A screenshot from a criminal forum

図 26: (おそらくは、他の場所で確認された AI の利用に対する「嘲笑ムード」への反応として) テキストやコードを生成するために AI を使用する人々は誹謗中傷されるに値するのかどうかを問いかけるユーザー

結論

1 年経った今でも、調査対象のサイバー犯罪フォーラムに参加している大半の攻撃者は生成 AI にそれほど熱中しているようには見えません。また、サイバー犯罪者が新しいエクスプロイトやマルウェアを開発するために生成 AI を利用している形跡も見当たりません。もちろん、この結論は一部のフォーラムを観察した結果に基づくものであり、必ずしも幅広い脅威環境すべてに当てはまるわけではありません。

一部の攻撃者は大きな夢を抱いているかもしれませんし、(おそらくは) 危険なアイデアを持っているかもしれませんが、彼らの議論は当分の間、理論的かつ願望的なものに留まるでしょう。セキュリティの他の側面と同様に、より直接的なリスクは、攻撃者が正規の研究や、一般公開されている (あるいはこ公開予定の) ツールを悪用することである可能性が依然として高くなっています。

OPSEC の観点からも、多くのサイバー犯罪者が AI を「過大評価」しており、自分たちの用途には適していないと感じているという意味でも、今回調査したフォーラムでは、AI に対する懐疑的な見方や疑念がまだかなり残っています。AI を使用してコードやフォーラムへの投稿を作成する攻撃者は、世間からの批判や詐欺の苦情という形で、身内からの反発を受けるリスクがあります。その点は、現在もあまり変わっていません。

実際、ここ 1 年で目立った進化といえば、スパム送信、大量メール送信、データセットの選別、そしてソーシャルエンジニアリングのための一部のツールキットに生成 AI が組み込まれたことくらいです。大量のメールや偽サイトの作成、コードの移植、大規模データベース内の興味深い情報スニペットの検索など、攻撃者は他の皆と同様に、退屈で単調な大規模作業を自動化したいと考えているようです。多くのフォーラムユーザーが指摘しているように、現状の生成 AI はこの種の作業には適しているようですが、より繊細で複雑な作業には向いていません。

したがって、サイバー犯罪の地下市場で生成 AI を使用する動きが拡大するかもしれません。しかし、新しい脅威ではなく、時間節約ツールの形で出現すると考えられます。

現状では、そして昨年も報告したように、多くの攻撃者はまだ様子見をしているようです。テクノロジーのさらなる進化を待ちながら、生成 AI を自らのワークフローにどのように適合させるのが最適かを見極めています。