Adaptive Shieldの製品マーケティング責任者、Hananel Livnehによる記事。
Microsoft Copilotは生産性を大幅に向上させる。Microsoft 365のGenAIアシスタントは、Microsoft Suite内のWord、PowerPoint、Excel、Teams、その他のアプリケーションと統合され、アナリスト、コピーライター、メモ書き、デザイナーの役割を果たします。
それだけでなく、高品質なコンテンツをわずかな時間で作成してくれる。ほとんどの社員にとって夢のような話だ。
しかし、このような利点には、企業にとって重大な注意点がある。Microsoft Copilotは、機密情報にアクセスしたり共有したりしないことを信頼できるのだろうか?
この疑問の核心は次のようなものだ:Microsoft Copilotやその他のGenAIアシスタントは安全なのだろうか?
メモリアルデー・ウィークエンドに開催されたインディ500を観戦した人なら、高速で走行する繊細で危険な機器を使用する際には、熟練したオペレーターだけがハンドルを握るべきであることをすでに理解しているだろう。経験の浅いドライバーでは、ジョセフ・ニューガーデンのようにパト・オワードを時速220km以上で安全に追い抜くことはできなかっただろう。
GenAIを使用する際、誰も身体的危害を受ける危険はないが、原理は同じだ。超生産的なツールを使い、膨大な企業情報を使って継続的に資料を生成することには、ダークサイドがある。データが流出し、悪人の手に渡る可能性は極めて高い。
データへのアクセスはクエリのみ
Microsoft Copilotは、Microsoft製品スイート内でアクセスできるデータに基づいて資料を作成します。見つけるのが難しいデータも、何百ものデータポイントと関連付けることができるようになり、クエリを実行するだけでアクセスできるようになります。
従業員が回答の機密性に気付かなかったり、回答に注意深く目を通さずにMicrosoft Copilotを信頼したりすると、顧客や競合他社の機密情報が部外者と共有される可能性があります。
インディ500の例えをもう一度借りると、ユーザーはデータGenAIによる漏洩を防ぐために適切なガードレールを設置する必要がある。
Copilotは既存のMicrosoft 365のアクセス制御に依存している。ユーザーが機密データに広くアクセスできる場合、Copilotも同様にアクセスし、それを暴露する可能性がある。
また、Copilotが機密データにアクセスできないように、ファイルやフォルダに機密ラベルを付ける必要がある。
あらゆるデータがGenAIのフェアゲーム
Microsoft Copilotが従業員のパフォーマンスを向上させることは間違いない。しかし、Copilotの使用に関するセキュリティ構造の実装を控える組織は危険である。Copilotへのアクセスは、業務上必要な従業員にのみ許可すべきである。
このような従業員には、資料をよく読まずに外部ユーザーに送信するリスクについて、適切なトレーニングを行う必要があります。
繰り返しになりますが、Copilotのアクセス権はユーザのアクセス権を反映します。従業員には多くの場合、幅広い権限が与えられています。
従業員がドライブに保存された長い間行方不明になっていたファイルを調べて、その情報を使用するとは誰も予想していない。しかし、GenAIは、アクセス可能なものはすべて、公平なゲームとみなしている。
Copilotを介したデータ漏洩を真に防ぐには、管理者は企業のドライブに保存されたファイルへのユーザーアクセスとロールを定義する際に、はるかに正確な作業を行う必要がある。そうでなければ、常に機密情報の漏洩リスクにさらされることになる。
まとめると、企業がMicrosoft Copilotを安心して使用するには、以下のガイドラインに従う必要があります:
- アクセスを制御する:アクセスの制御: 正確なアクセス制御を実施し、ユーザーの役割に応じて最小限の権限を付与する。
- リソースのレビュー:文書やスプレッドシートなどのすべてのリソースを監査し、機密性の高いリソースが広範囲または外部で共有されていないことを確認する。
- データの保護:ファイルやフォルダに機密のラベルを貼り、そのようなデータへのコパイロットのアクセスを制限する。
- 侵害の兆候(IOC)を検出する:堅牢な脅威検出ツールを導入して環境を保護し、何か問題が発生した場合に検出する。
この記事が、Microsoft Copilotを保護することの重要性を理解し、安全に使用するための一助となれば幸いです。
Adaptive Shieldがスポンサーとなり、執筆しました。
Comments