ChatGPT malicious alternative advertised on the dark web

脅威アクターは、生成型人工知能ツールへの関心を高めており、数十万の OpenAI 認証情報がダーク Web 上で販売され、ChatGPT の悪意のある代替手段にアクセスしています。

スキルの低いサイバー犯罪者も熟練したサイバー犯罪者も、このツールを使用して、攻撃が成功する可能性を高めるために、対象となるユーザー向けにカスタマイズされた、より説得力のあるフィッシングメールを作成できます。

ハッカーが GPT AI を利用

ダークウェブとテレグラムのユーザーは、6 か月間で OpenAI の人工知能チャットボットである ChatGPT について 27,000 回以上言及し、脅威暴露管理会社であるFlareからのデータが共有されたことを示しています。

Flare の研究者は、ダークウェブのフォーラムとマーケットプレイスを分析し、OpenAI 認証情報が入手可能な最新の商品の 1 つであることに気づきました。

研究者らは、ダークウェブ上でスティーラーログの形で販売されている 200,000 件を超える OpenAI 認証情報を特定しました。

1 月の推定アクティブ ユーザー数 1 億人と比較すると、この数は重要ではないように見えますが、脅威アクターが生成 AI ツールに悪意のある活動の可能性があると見ていることを示しています。

サイバーセキュリティ企業 Group-IB の 6 月の報告書による、ダークウェブ上の違法なマーケットプレイスでは、100,000 を超える ChatGPT アカウントを含む情報窃取マルウェアのログが取引されていました。

これらのユーティリティに対するサイバー犯罪者の関心は、そのうちの 1 つが WormGPT という名前の ChatGPT クローンを開発し、マルウェアに焦点を当てたデータでトレーニングするまでに刺激されました。

このツールは、「ブラックハットに最適な GPT の代替品」、また「あらゆる種類の違法行為を可能にする ChatGPT の代替品」として宣伝されています。

WormGPT がサイバー犯罪フォーラムで宣伝される
WormGPT 開発者がサイバー犯罪フォーラムで推奨したツール
ソース: スラッシュネクスト

WormGPT は、人間のようなテキストを生成するために 2021 年に開発された GPT-J オープンソース大規模言語モデルに依存しています。開発者は、マルウェア関連データに焦点を当てた多様なデータセットでツールをトレーニングしたが、特定のデータセットに関するヒントは提供していないと述べた。

WormGPT は BEC 攻撃の可能性を示しています

電子メール セキュリティ プロバイダーである SlashNext は、WormGPT にアクセスすることができ、それがもたらす潜在的な危険性を判断するためにいくつかのテストを実施しました。

研究者らは、ビジネス電子メール侵害 (BEC) 攻撃に適したメッセージを作成することに焦点を当てました。

「ある実験では、疑うことを知らないアカウントマネージャーに不正な請求書を支払うよう圧力をかけることを目的とした電子メールを生成するようWormGPTに指示しました」と研究者らは説明する

「結果は不安を与えるものでした。 WormGPT は、非常に説得力があるだけでなく、戦略的に狡猾な電子メールを作成し、高度なフィッシングや BEC 攻撃の可能性を示しました」と彼らは結論づけています。

WormGPT は BEC 攻撃に対する信頼できるメッセージを作成します
WormGPT は BEC 攻撃に対して説得力のあるメッセージを生成します
ソース: スラッシュネクスト

SlashNext の研究者は、結果を分析して、生成 AI が BEC 攻撃にもたらす利点を特定しました。メッセージに正当性を与える「完璧な文法」とは別に、スキルの低い攻撃者でも高度なレベルを超える攻撃を実行できる可能性があります。

この新たな脅威に対する防御は難しいかもしれませんが、企業は、特に金融要素が存在する場合に、緊急の対応を求めるメッセージを確認する方法を従業員にトレーニングすることで備えることができます。

電子メール検証プロセスの改善は、組織外のメッセージに対するアラートや、BEC 攻撃に通常関連するキーワードにフラグを立てることによっても効果を発揮します。