Salesforce Einstein Copilot

この記事は、Varonis の Nathan Coppinger 氏と Salesforce の Distinguished Security Architect である Mike Smith 氏との共同執筆によるものです。この記事では、Salesforce Einstein Copilotのセキュリティモデルの仕組みと、安全でセキュアなロールアウトを実現するために軽減しなければならないリスクについて説明します。

Salesforceは、Einstein Copilotを待望のお客様に正式に展開します。この新しい会話型AIアシスタントは、営業、マーケティング、カスタマーサービス担当者が顧客とやり取りしたり、CRMツール内の社内文書にアクセスしたりする方法に革命をもたらす。

Einstein Copilotは、自然言語のクエリを理解して質問に答え、洞察を提供し、Salesforce全体でタスクを実行することで、日々のプロセスを合理化し、生産性を向上させることができる。

新しいAIは、生産性の飛躍的な向上とプロセスの合理化をもたらしますが、同時にリスクも伴います。

このブログでは

Salesforce Einstein Copilot の使用例

Einstein Copilotの主な使用例は次のとおりです:

  • 営業担当者によるリードの検索、オポチュニティの作成、記録の更新、ミーティングのスケジュールと要約の支援
  • サービス担当者によるケースの迅速な解決、ナレッジ記事への迅速なアクセス、問題のエスカレーション
  • マーケティング担当者によるキャンペーンの作成、メールの作成、オーディエンスのセグメンテーション、結果の分析の支援
  • オンラインストアの最適化、Salesforce サイトの新規作成、在庫管理、注文処理など、マーチャントの支援
  • ユーザがデータを分析し、レポートやダッシュボードを作成し、トレンドやパターンを発見できるようにします。

これらすべてを、ユーザが簡単なプロンプトを平易な言語で入力するだけで実行できます。

Salesforce Einstein Copilotの仕組み

以下は、Einstein Copilotがプロンプトを処理する方法の簡単な概要です:

  • ユーザーがSalesforce Marketing、Sales、またはService Cloud内でプロンプトを入力します。
  • Einstein Copilotがプロンプトを取り込み、類似性検索を実行し、接続されているデータソースに対して関連するコンテキストを特定します。
  • 大規模言語モデル(LLM)に対するプロンプトと応答は、Einstein Trust Layerを介して処理されます。
  • Einstein CopilotがSalesforce内で回答を生成します。
Einstein Copilot processing model
Einstein Copilotの処理モデル(出典)

Einsteinトラストレイヤー

Salesforceは、顧客がEinstein Copilotを通じて処理するデータのセキュリティ確保に取り組んでいる。そのために、Einstein Trust Layerを開発した。

Einstein Copilotを流れる顧客データはTrust Layer内で暗号化され、バックエンドには一切保持されない。PII、PCI、PHIなどの機密データもマスクされる。

Einstein Trust Layerはまた、有害言語検出機能によって、偏った、有害な、非倫理的な応答を減らし、エンドユーザーの負担を軽減しようとする。

セールスフォースは、Einstein Copilotの背後にあるLLMを訓練するために顧客データを使用することはなく、第三者に売却することもないと表明している。

The Einstein Trust Layer ensures your data is safe
Einstein Trust Layerにより、データの安全性が保証される。(ソース)

Salesforceデータの保護 – 共有責任

Salesforce セキュリティの重要なコンポーネントの 1 つに、責任共有モデルがあります。責任共有モデルでは、データ、AI、プラットフォーム全体の安全な使用に関するSalesforceと顧客の役割と責任を定義しています。

このモデルでは、SalesforceはAIを実現するインフラ、プラットフォーム、サービス(Einstein Trust Layerに示されている)、およびEinstein Copilotを通じた顧客データの安全な処理の安全性を確保する責任を負う。

同時に、顧客はAIに接続するアプリケーションと構成を保護する責任を負う:

  • 権限 – Einstein Copilotは、個々のユーザーがアクセスできるすべての組織データを表示します。
  • データ – Einstein Copilotは、高品質で正確な結果を提供するために、最新のデータに依存します。
  • 使用法 – お客様は、Einstein Copilotが適切かつ責任を持って使用されるようにする必要があります。

これにより、両者が協力して最高レベルのセキュリティと信頼を形成します。

Shared responsiblity model
顧客とSalesforceのようなクラウドサービスプロバイダ(CSP)の間の責任共有モデル(出典)

EinsteinのCopilotに対応するためのベストプラクティス

機密データへの権限をロックダウンする。

Einstein CopilotはSalesforceユーザーのアクセスと権限を継承するため、重要なデータをロックダウンしてリスクを軽減し、各ユーザー(ひいてはEinstein Copilot)が業務に必要なものだけにアクセスできるようにすることが不可欠です。

各ユーザーのアクセス許可を理解するには、そのユーザーを解析する必要があります:

  • プロファイル
  • 権限セット
  • 権限セットグループ
  • 役割/階層
  • ミュートされた権限

しかし、Salesforce のアクセス許可は非常に複雑であり、分析および理解には多大な労力を要します。特に、大企業では最大 1,000 個のアクセス許可セットが存在し、それぞれに数十のアクセス許可が含まれている可能性があります。

その上、セキュリティチームは、このプロセスを完了するために Salesforce チームに頼らなければなりません。Salesforce の管理者は、ビジネスを継続することで手一杯であるため、このプロセスを完了することは負担になりかねません。

古い社内データとドキュメントを更新し、消去する。

Einstein Copilotは、生成的なAIプロンプトに有用なコンテキストを付与し、正確で関連性の高い情報を提供するために、社内のドキュメントとデータに依存しています。

Salesforceが言うように、「優れたAIは優れたデータから始まる」。

Einstein Copilotは、Salesforce環境やクラウドストレージ(AWSやSnowflakeなど)など、複数のデータソースを統合するSalesforce Data Cloudからデータを引き出します。

データは生成AIの真実の源であり、最高のEinstein Copilotエクスペリエンスを確保し、幻覚のリスクを低減するには、データが必要です:

  • セキュア
  • 利用可能
  • クリーン
  • タイムリー

権限がロックダウンされ、正しいことを確認するとともに、Einstein Copilotがプルするデータストア全体で最初の記録と文書のレビューを実行し、古い、陳腐化した、不正確な情報を更新またはパージする必要があります。

その後、定期的なレビュープロセスを設定して、社内のドキュメントをクリーンで最新の状態に保つことができます。

Salesforce Gen AI experience
Einstein Copilotがデータを使用してSalesforceでAIエクスペリエンスを構築する方法(出典)

AIがアクセスすべきでない機密データを特定する。

Salesforceでは、Einstein Copilotにアクセスさせたくないデータを除外するゾーンを作成できます。Salesforce では、Einstein Copilot にアクセスさせたくないデータを区切るゾーンを作成できます。ただし、そのデータが何であり、どこにあるのかを判断するのは顧客次第です。

適切な使用を保証する。

サポートからマーケティングまで、多くの部門がEinstein Copilotを使用して、顧客や一般向けのコンテンツを作成します。しかし、前述したように、AIのアウトプットの品質と精度は、多くの場合、インプットの品質に依存します。

Salesforceのプロンプトビルダーは、ユーザーがAIから適切なレスポンスを生成できるようにします。この機能により、管理者はワークフロー内の特定のプロセス(例えば、カスタマーサポートの回答など)に対してガードレールを設定し、適切でオントピックかつ高品質なAI出力を保証することができます。

プロンプトビルダーは、Einstein Copilotに入力するテンプレートをユーザーに提供し、顧客名、アカウント、コンテキスト、関連記事など、AIの回答に役立つ情報をプロンプトに動的に付加します。

Salesforce AI prompt guardrails
Einstein Trust Layer(ソース)を使用して、プロンプトのガードレールを作成する。

これは、悪意のあるアクターが、モデルを騙してあるべきでない回答をさせるような指示を提供しようとする、プロンプト・インジェクション攻撃からの保護にも役立ちます。

Varonisを使用してSalesforce組織にEinstein Copilotの準備をさせる

Einstein CopilotでAIの旅を始める前に、Salesforceのセキュリティ体制を理解し、安全でスムーズなロールアウトのためにデータが準備されていることを確認することが不可欠です。

Varonisのデータセキュリティプラットフォームは 、組織がSalesforceのセキュリティ体制の概要を把握できるよう、次のようなサポートを提供します:

  • 権限分析の大幅な簡素化
  • 機密データの自動検出と分類
  • 古いデータの表面化
  • 重要な設定ミスの特定
  • サードパーティアプリのリスク管理
  • 機密データのアクティビティを継続的に監視し、危険な動作を検出する
  • Salesforce Shieldとの統合と強化

Varonisを無料でお試しください。

Varonisは、安全でスムーズなEinstein Copilotの導入準備を支援します。

今すぐデモをご請求いただき、Salesforce のリスク評価から始めてください。無料で簡単に始められ、結果はお客様のものです。

この記事はVaronisブログに掲載されたものです。

スポンサーおよび執筆はVaronisです。