隱私、安全、準確性:人工智能聊天機器人如何處理您最深層的數據問題

已發表: 2023-08-24

ChatGPT 是一個了不起的工具 - 數百萬人使用它來做各種事情,從撰寫論文和研究假期到準備鍛煉計劃,甚至創建應用程序。 生成式人工智能的潛力是無窮無盡的。

但是,當談到使用生成式人工智能進行客戶服務時,這意味著共享客戶的數據、查詢和對話,你能在多大程度上真正信任人工智能呢? 生成式 AI 聊天機器人由大型語言模型 (LLM) 提供支持,該模型是根據從互聯網獲取的大量數據集進行訓練的。 雖然獲取如此多的數據所帶來的可能性是開創性的,但它引發了一系列圍繞監管、透明度和隱私的擔憂。

自從我們推出 AI 驅動的機器人 Fin 以來,我們看到了 AI 在客戶服務方面的潛力帶來了前所未有的興奮。 但我們也遇到了很多問題,其中許多問題屬於兩個總體主題:

  1. 人工智能聊天機器人提供客戶信息的安全和隱私。
  2. 人工智能聊天機器人為客戶提供的信息的準確性和可信度。

在這裡,我們將介紹人工智能聊天機器人如何影響跨行業的數據安全和隱私,以及我們在金融方面解決這些問題的方式。

數據安全和隱私

沒有公司能夠承擔客戶數據的風險。 信任是每個企業與客戶關係的基礎,客戶需要確信他們的信息得到了最高程度的謹慎對待和保護 生成式人工智能提供了無限的機會,但它也提出了有關客戶數據安全的重要問題。 與往常一樣,技術的發展速度快於指南和最佳實踐,全球監管機構正在爭先恐後地跟上。

歐盟和 GDPR

以歐盟為例。 《通用數據保護條例》(GDPR) 是世界上針對個人數據最嚴格的監管機構之一。 既然生成式人工智能已經改變了遊戲規則,那麼它在 GDPR 框架中的位置如何呢? 根據歐洲議會服務部開展的一項關於 GDPR 對人工智能影響的研究,GDPR 與 ChatGPT 等工具之間存在一定的緊張關係,這些工具處理大量數據的目的並未向最初提供這些數據的人明確解釋

也就是說,報告發現有一些方法可以應用和發展現有原則,使其與人工智能和大數據的不斷擴大的使用相一致。 為了完全實現這種一致性,歐盟目前正在討論《人工智能法案》,預計將於 2023 年底(一年多後)出台一套適用於歐盟內外人工智能係統部署者的嚴格法規 ChatGPT 於2022 年11月發布。

“雖然監管趕上了生成式人工智能的快速發展,但人工智能聊天機器人提供商有責任確保他們將數據安全作為首要任務”

與此同時,在美國

美國在人工智能方面仍處於監管和立法的早期階段,但討論正在進行中,七家最大的科技公司已承諾就信息共享、測試和透明度等領域達成自願協議一個例子是承諾為人工智能生成的內容添加水印——這是一個簡單的步驟,但對於用戶上下文和理解很重要。

雖然這些步驟標誌著一些進展,但對於健康行業等行業來說,未知因素可能會成為採用人工智能的障礙。 《美國醫學會雜誌》上的一篇文章表明,只要用戶避免輸入受保護的健康信息 (PHI),該技術仍然可以使用。 更進一步, OpenAI等供應商現在正在開發業務夥伴協議,允許具有這些用例的客戶在使用其產品時遵守HIPAASOC-2等法規。

簡而言之,雖然監管趕上了生成式人工智能的快速發展,但人工智能聊天機器人提供商有責任確保他們將數據安全作為首要任務,並對客戶保持坦誠和透明。

Fin 如何處理數據安全和隱私

在 Intercom,我們非常重視數據保護,自從我們開始構建人工智能聊天機器人以來,它一直是我們所做的每個決定的主要組成部分。 以下是我們從客戶服務團隊收到的最緊迫的問題,涉及他們的數據及其客戶數據的收集、處理和存儲方式。

Fin 將如何處理我的支持內容?

Fin 由包括 OpenAI 的 GPT-4 在內的多種模型提供支持,並將按指定的時間間隔通過這些 LLM 處理您的支持內容,以回答客戶的疑問。

Fin 將如何處理客戶對話數據?

在每次客戶對話期間,所有對話數據都將逐字發送到 OpenAI,包括對話中的任何個人身份信息。

我的支持內容或客戶對話數據是否會用於訓練或改進模型?

這是一個常見問題。 許多人工智能機器人確實整合了它們所使用的數據來訓練新模型或改進現有模型,供應商將其視為一種優勢。 在 Intercom,我們堅決不同意這種觀點 - 您客戶的安全對話和反饋永遠不會用於訓練我們用於為 Fin 提供支持的任何第三方模型。

埃里克·菲茨杰拉德數據隱私安全(1)

OpenAI 會保留我的數據嗎?

不會 – 我們已經簽署了零數據保留政策,這意味著 OpenAI 在任何時間段內都不會保留您的任何數據。

我的數據託管區域會影響我使用 Fin 的能力嗎?

目前,Fin 只能由在美國託管數據的客戶使用。 根據 Intercom 的歐盟數據託管條款,我們同意將客戶的數據(包括任何個人數據)存儲在歐盟境內。 OpenAI 目前不提供歐盟託管,因此在與 Intercom 集成的過程中發送給他們的任何個人信息都必須在美國進行處理,並且可能不符合 Intercom 的歐盟或非盟數據託管條款。 我們正在努力讓 Fin 能夠在未來推廣到更多地區。

人工智能機器人答案的準確性和可信度

不同的大語言模型有不同的優勢,但目前,OpenAI 的 GPT-4 被普遍認為是可信度最高的 LLM 之一在 Intercom,我們一發布 OpenAI 的 ChatGPT 就開始嘗試它,認識到它有可能徹底改變客戶服務的工作方式。 在那個階段,當 ChatGPT 不知道問題的答案時,ChatGPT 會簡單地發明一個看似合理的回應,這種“幻覺”傾向在客戶面前面臨著太大的風險。

“人工智能聊天機器人的好壞取決於它所訓練的數據”

ChatGPT 發布後,我們在社交媒體上看到了數百個此類幻覺的例子,從搞笑到有點可怕。 考慮到 ChatGPT 的訓練數據源是“2021 年之前的所有互聯網”,一些細節不正確也就不足為奇了。

從本質上講,人工智能聊天機器人的好壞取決於它所訓練的數據。 在客戶服務環境中,低質量的數據集會讓客戶接觸到可能損害公司品牌的答案(無論是不准確、不相關還是不恰當),從而導致客戶沮喪,降低客戶從您的產品中獲得的價值,並且最終影響品牌忠誠度。

2023 年 3 月 GPT-4 的發布終於提供了解決方案。 我們的機器學習高級總監 Fergal Reid 在接受 econsultancy.com 採訪時表示:“我們很早就了解了 GPT-4,並立即對增強的幻覺防護措施和更先進的自然語言功能印象深刻。 我們認為這項技術已經跨過了可以在客戶面前使用的門檻。”

“公司需要控制客戶收到的信息,以確保信息準確、最新且與其產品相關”

儘管 GPT-4 具有令人難以置信的準確性,但它一開始並不適合“開箱即用”的客戶服務。 公司需要控制客戶收到的信息,以確保信息準確、最新且與其產品相關。 通過將我們自己的專有軟件添加到 GPT-4,我們創建了護欄,將機器人的可用信息限制為客戶團隊指定的特定來源。

因此,一旦您確保 Fin 的客戶數據安全,您就需要完全相信 Fin 會從您控制的可信來源提取信息,從而為您的客戶提供正確的信息。

Fin 由什麼法學碩士提供支持?

Fin 由多種大型語言模型提供支持,其中包括OpenAI 的 GPT-4 ,它是市場上最準確的模型,並且比其他模型更不易產生幻覺。

我可以選擇 Fin 從中提取答案的內容嗎?

Fin 從您指定的來源中獲取答案,無論是您的幫助中心、支持內容庫還是指向您自己內容的任何公共 URL。 這樣,您就可以對 Fin 用於回答客戶問題的所有信息的準確性充滿信心,並且在監控 Fin 的性能時,您可以擴展、改進或詳細說明為 AI 機器人提供支持的內容。

如果 Fin 不知道問題的答案,它會怎麼做?

Fin 就像每個優秀的支持代理一樣- 如果它找不到問題的答案,我們的機器學習護欄會確保它承認它不知道,並將對話無縫地傳遞給支持代表,以確保始終如一的高質量支持經驗。 與 ChatGPT 或其他一些人工智能客戶服務聊天機器人不同,Fin 永遠不會編造答案,並且始終會從您的支持內容中提供其答案的來源。

如果我的客戶願意,他們可以聯繫人工支持代表嗎?

您的支持團隊比任何人都更了解您的客戶,因此讓您的客戶能夠輕鬆接觸到他們至關重要。 Fin 為客戶提供了立即向人工支持代表提出疑問的選項。 如果客戶很樂意嘗試 Fin,但不知道問題的答案,我們構建了機器學習護欄,以提示 Fin 提出澄清問題、對查詢進行分類,並將其交給正確的團隊來解決。

詳細了解 Fin 的工作原理,或查看我們的幫助中心,了解有關我們的數據安全和隱私措施的更多信息。

演示 Fin CTA