プライバシー、セキュリティ、正確性: AI チャットボットがデータに関する最も深刻な懸念をどのように処理しているか

公開: 2023-08-24

ChatGPT は素晴らしいツールです。何百万人もの人がこれを使って、エッセイの執筆や休日のリサーチから、ワークアウト プログラムの準備、さらにはアプリの作成に至るまで、あらゆることを行っています。 生成 AI の可能性は無限であるように感じられます。

しかし、顧客サービスに生成 AI を使用すること、つまり顧客のデータ、クエリ、会話を共有することになると、AI はどの程度信頼できるのでしょうか? 生成 AI チャットボットは、インターネットから取得した膨大な数のデータ セットでトレーニングされた大規模言語モデル (LLM) を利用しています。 これだけの量のデータにアクセスすることで得られる可能性は画期的ですが、規制、透明性、プライバシーに関してさまざまな懸念が生じます。

AI を活用したボットである Fin を発表して以来、顧客サービスにおける AI の可能性に対する前例のないレベルの興奮が見られました。 しかし、多くの質問にも遭遇し、その多くは次の 2 つの包括的なテーマに当てはまります。

  1. 顧客が AI チャットボットに提供する情報のセキュリティとプライバシー。
  2. AIチャットボットが顧客に提供する情報の正確性と信頼性。

ここでは、AI チャットボットが業界全体のデータ セキュリティとプライバシーにどのような影響を与えているか、そして Fin に関してこれらの問題にどのようにアプローチしているかについて、理解すべき最も重要な事柄について説明します。

データのセキュリティとプライバシー

顧客データに関してリスクを負う企業はありません。 信頼はあらゆる企業と顧客の関係の基礎であり、顧客は自分の情報が注意深く扱われ、最高度に保護されていることを確信する必要があります 生成 AI は無限の機会を提供しますが、顧客データの安全性に関する重要な疑問も生じます。 いつものように、テクノロジーはガイドラインやベストプラクティスよりも速く進化しており、世界の規制当局はそれに追いつくために慌てています。

EU と GDPR

EUを例に考えてみましょう。 一般データ保護規則 (GDPR) は、個人データを対象とする世界で最も厳しい規制機関の 1 つです。 生成 AI は状況を一変させましたが、GDPR フレームワークのどの位置に位置するのでしょうか? 欧州議会庁が実施した AI に対する GDPR の影響に関する調査によると、GDPR と ChatGPT のようなツールとの間には一定の緊張関係があり、これらのツールは、最初にデータを提供した人々に明確に説明されていない目的で大量のデータを処理します

そうは言っても、レポートでは、AI やビッグデータの使用拡大に合わせて既存の原則を適用および発展させる方法があることがわかりました。 この一貫性を完全に達成するために、 AI 法が現在 EU で議論されており、EU 内外の AI システム導入者に適用される一連の確固たる規制が 2023 年末に、つまり 1 年以上後に制定される予定です。 ChatGPT は 2022 年 11 月にリリースされました。

「生成型 AI の急速な進歩に規制が追いついていますが、データ セキュリティを最優先事項として維持する責任は AI チャットボット プロバイダーにあります。」

一方、アメリカでは

AIに関して米国はまだ規制と法制定の初期段階にあるが、議論は進行中であり、大手テクノロジー企業7社が情報共有、テスト、透明性などの分野に関して自主協定を締結している。 例としては、AI によって生成されたコンテンツに透かしを追加する取り組みが挙げられます。これは単純なステップですが、ユーザーのコンテキストと理解にとって重要です。

これらの措置はある程度の進歩を示していますが、医療業界などの分野では、未知の部分が AI 導入の障害となる可能性があります。 Journal of the American Medical Association の記事、ユーザーが保護された医療情報 (PHI) の入力を避ける限り、このテクノロジーは引き続き使用できると示唆しています。 さらなるステップとして、 OpenAIなどのベンダーは現在、これらのユースケースを持つクライアントが自社製品を使用しながらHIPAASOC-2などの規制に準拠できるようにする業務提携契約を開発しています

つまり、生成型 AI の急速な進歩に規制が追いつく一方、データ セキュリティを最優先事項として維持し、顧客に対して率直かつ透明性を確保する責任は AI チャットボット プロバイダーにあります。

Fin がデータのセキュリティとプライバシーをどのように扱うか

Intercom では、データ保護を非常に真剣に受け止めており、AI チャットボットの構築を開始して以来、データ保護があらゆる意思決定の主要な要素となっています。 ここでは、顧客サービス チームのデータとその顧客のデータが収集、処理、保存される方法について、カスタマー サービス チームから寄せられる最も差し迫った質問を紹介します。

Fin は私のサポート コンテンツをどのように処理しますか?

Fin は OpenAI の GPT-4 を含むさまざまなモデルを利用しており、指定された間隔でこれらの LLM を通じてサポート コンテンツを処理し、顧客の問い合わせに回答します。

Fin は顧客の会話データをどのように処理しますか?

顧客との各会話中に、会話内の個人を特定できる情報を含むすべての会話データがそのまま OpenAI に送信されます。

私のサポート コンテンツや顧客の会話データは、モデルのトレーニングや改善に使用されますか?

これはよくある質問です。 多くの AI ボットは、新しいモデルをトレーニングしたり、既存のモデルを改善したりするために使用するデータを組み込んでおり、プロバイダーはそれを強みとして挙げています。 Intercom では、この観点に断固として同意しません。顧客の安全な会話とフィードバックは、Fin を強化するために使用するサードパーティ モデルのトレーニングに決して使用されません。

エリック・フィッツジェラルドのデータプライバシーセキュリティ (1)

私のデータは OpenAI によって保持されますか?

いいえ、当社はゼロデータ保持ポリシーに署名しています。つまり、お客様のデータはいかなる期間も OpenAI によって保持されません。

データ ホスティング リージョンは Fin の使用能力に影響しますか?

現在、Fin は米国でデータをホストしている顧客のみが使用できます。 Intercom のEU データ ホスティング条件に基づき、当社は顧客のデータ (個人データを含む) を EU 内に保存することに同意します。 OpenAI は現在 EU ホスティングを提供していないため、Intercom との統合の一環として OpenAI に送信される個人情報は米国で処理される必要があり、Intercom の EU または AU データ ホスティング条件に準拠していない可能性があります。 私たちは将来的により多くの地域で Fin にアクセスできるように取り組んでいます。

AIボットの回答の正確性と信頼性

大規模な言語モデルにはそれぞれ異なる強みがありますが、現時点では、信頼性の点で OpenAI の GPT-4 が利用可能なLLM の中でトップの 1 つであると一般的に考えられています。 Intercom では、OpenAI の ChatGPT がリリースされるとすぐに実験を開始し、カスタマー サービスの仕組みを完全に変える可能性を認識しました。 その段階では、「幻覚」、つまり、質問に対する答えがわからないときに、単にもっともらしい応答をでっち上げる ChatGPT の傾向は、顧客の前に置くにはあまりにも大きなリスクでした。

「AI チャットボットの良さは、トレーニングに使用されたデータによって決まります。」

ChatGPT のリリース後、陽気なものから少し恐ろしいものまで、こうした幻覚の例がソーシャル メディア上に何百件も散見されました。 ChatGPT のトレーニング データ ソースが「2021 年以前のインターネット全体」であったことを考慮すると、一部の詳細が間違っていたとしても驚くべきことではありません。

基本的に、AI チャットボットの性能は、トレーニングに使用されたデータによって決まります。 顧客サービスのコンテキストでは、低品質のデータセットは、不正確、無関係、または不適切であっても、会社のブランドを傷つける可能性のある回答に顧客をさらすことになり、顧客の不満を引き起こし、顧客が製品から得る価値を低下させます。最終的にはブランドロイヤルティに影響を与えます。

2023 年 3 月の GPT-4 のリリースにより、最終的に解決策が提供されました。 弊社の機械学習担当シニア ディレクターであるファーガル リード氏は、econsultancy.com のインタビューで次のように述べています。 私たちは、このテクノロジーが顧客の前で使用できる限界を超えたと感じました。」

「企業は、顧客が受け取る情報が正確で最新であり、自社の製品に関連していることを保証するために、その情報を管理する必要があります。」

GPT-4 の驚異的な精度にもかかわらず、最初は「そのままの状態」での顧客サービスには適していません。 企業は、顧客が受け取る情報が正確で最新であり、自社の製品に関連していることを保証するために、その情報を管理する必要があります。 GPT-4 に独自のソフトウェアを追加することで、ボットの利用可能な情報をお客様のチームが指定した特定のソースに制限するガードレールを作成しました。

そのため、Fin を使用して顧客データの安全性を確保したら、Fin が自社が管理する信頼できるソースから情報を取得して顧客に適切な情報を提供すると確信できるようになります。

Fin はどの LLM によって動作しますか?

Fin は、OpenAI の GPT-4 を含む大規模な言語モデルの組み合わせを利用しています。GPT -4は市場で最も正確で、他の言語モデルよりもはるかに幻覚が起こりにくいものです。

Fin が答えを引き出すコンテンツを選択できますか?

Finは、ヘルプ センター、サポート コンテンツ ライブラリ、または独自のコンテンツを指すパブリック URL など、指定したソースから回答を引き出しますそうすることで、Fin が顧客の質問に答えるために使用するすべての情報の正確さに自信を持って、Fin のパフォーマンスを監視しながら、AI ボットを強化するコンテンツを拡張、改善、または詳細化することができます。

質問に対する答えが分からない場合、Fin はどうするでしょうか?

Fin は他の優れたサポート エージェントと同様です。質問に対する答えが見つからない場合、当社の機械学習ガードレールにより、知らないことを認め、シームレスに会話をサポート担当者に渡し、一貫した高品質のサポートを保証します。サポート経験。 ChatGPT やその他の AI カスタマー サービス チャットボットとは異なり、Fin は回答をでっち上げることはなく、サポート コンテンツから提供される回答のソースを常に提供します。

私の顧客は希望に応じて人間のサポート担当者にアクセスできますか?

サポート チームは誰よりも顧客のことをよく知っており、顧客が簡単にアクセスできることが重要です。 Fin は、顧客が問い合わせを人間のサポート担当者にすぐに送信できるオプションを提供します。 お客様が Fin を試すことに喜んでいるものの、質問に対する答えがわからない場合は、Fin に明確な質問を促し、クエリを優先順位付けして、解決する適切なチームに引き渡す機械学習ガードレールを構築しました。 。

Fin の仕組みについて詳しくは、データ セキュリティとプライバシー対策の詳細についてヘルプ センターをご覧ください。

デモフィンCTA