隐私、安全、准确性:人工智能聊天机器人如何处理您最深层的数据问题

已发表: 2023-08-24

ChatGPT 是一个了不起的工具 - 数百万人使用它来做各种事情,从撰写论文和研究假期到准备锻炼计划,甚至创建应用程序。 生成式人工智能的潜力是无穷无尽的。

但是,当谈到使用生成式人工智能进行客户服务时,这意味着共享客户的数据、查询和对话,你能在多大程度上真正信任人工智能呢? 生成式 AI 聊天机器人由大型语言模型 (LLM) 提供支持,该模型是根据从互联网获取的大量数据集进行训练的。 虽然获取如此多的数据所带来的可能性是开创性的,但它引发了一系列围绕监管、透明度和隐私的担忧。

自从我们推出 AI 驱动的机器人 Fin 以来,我们看到了 AI 在客户服务方面的潜力带来了前所未有的兴奋。 但我们也遇到了很多问题,其中许多问题属于两个总体主题:

  1. 人工智能聊天机器人提供客户信息的安全和隐私。
  2. 人工智能聊天机器人为客户提供的信息的准确性和可信度。

在这里,我们将介绍人工智能聊天机器人如何影响跨行业的数据安全和隐私,以及我们在金融方面解决这些问题的方式。

数据安全和隐私

没有公司能够承担客户数据的风险。 信任是每个企业与客户关系的基础,客户需要确信他们的信息得到了最高程度的谨慎对待和保护 生成式人工智能提供了无限的机会,但它也提出了有关客户数据安全的重要问题。 与往常一样,技术的发展速度快于指南和最佳实践,全球监管机构正在争先恐后地跟上。

欧盟和 GDPR

以欧盟为例。 《通用数据保护条例》(GDPR) 是世界上针对个人数据最严格的监管机构之一。 既然生成式人工智能已经改变了游戏规则,那么它在 GDPR 框架中的位置如何呢? 根据欧洲议会服务部开展的一项关于 GDPR 对人工智能影响的研究,GDPR 与 ChatGPT 等工具之间存在一定的紧张关系,这些工具处理大量数据的目的并未向最初提供这些数据的人明确解释

也就是说,报告发现有一些方法可以应用和发展现有原则,使其与人工智能和大数据的不断扩大的使用相一致。 为了完全实现这种一致性,欧盟目前正在讨论《人工智能法案》,预计将于 2023 年底(一年多后)出台一套适用于欧盟内外人工智能系统部署者的严格法规 ChatGPT 于 2022 年 11 月发布。

“虽然监管赶上了生成式人工智能的快速发展,但人工智能聊天机器人提供商有责任确保他们将数据安全作为首要任务”

与此同时,在美国

美国在人工智能方面仍处于监管和立法的早期阶段,但讨论正在进行中,七家最大的科技公司已承诺就信息共享、测试和透明度等领域达成自愿协议一个例子是承诺为人工智能生成的内容添加水印——这是一个简单的步骤,但对于用户上下文和理解很重要。

虽然这些步骤标志着一些进展,但对于健康行业等行业来说,未知因素可能会成为采用人工智能的障碍。 《美国医学会杂志》上的一篇文章表明,只要用户避免输入受保护的健康信息 (PHI),该技术仍然可以使用。 更进一步, OpenAI等供应商现在正在开发业务伙伴协议,允许具有这些用例的客户在使用其产品时遵守HIPAASOC-2等法规。

简而言之,虽然监管赶上了生成式人工智能的快速发展,但人工智能聊天机器人提供商有责任确保他们将数据安全作为首要任务,并对客户保持坦诚和透明。

Fin 如何处理数据安全和隐私

在 Intercom,我们非常重视数据保护,自从我们开始构建人工智能聊天机器人以来,它一直是我们所做的每个决定的主要组成部分。 以下是我们从客户服务团队收到的最紧迫的问题,涉及他们的数据及其客户数据的收集、处理和存储方式。

Fin 将如何处理我的支持内容?

Fin 由包括 OpenAI 的 GPT-4 在内的多种模型提供支持,并将按指定的时间间隔通过这些 LLM 处理您的支持内容,以回答客户的疑问。

Fin 将如何处理客户对话数据?

在每次客户对话期间,所有对话数据都将逐字发送到 OpenAI,包括对话中的任何个人身份信息。

我的支持内容或客户对话数据是否会用于训练或改进模型?

这是一个常见问题。 许多人工智能机器人确实整合了它们所使用的数据来训练新模型或改进现有模型,供应商将其视为一种优势。 在 Intercom,我们坚决不同意这种观点 - 您客户的安全对话和反馈永远不会用于训练我们用于为 Fin 提供支持的任何第三方模型。

埃里克·菲茨杰拉德数据隐私安全(1)

OpenAI 会保留我的数据吗?

不会 – 我们已经签署了零数据保留政策,这意味着 OpenAI 在任何时间段内都不会保留您的任何数据。

我的数据托管区域会影响我使用 Fin 的能力吗?

目前,Fin 只能由在美国托管数据的客户使用。 根据 Intercom 的欧盟数据托管条款,我们同意将客户的数据(包括任何个人数据)存储在欧盟境内。 OpenAI 目前不提供欧盟托管,因此在与 Intercom 集成的过程中发送给他们的任何个人信息都必须在美国进行处理,并且可能不符合 Intercom 的欧盟或非盟数据托管条款。 我们正在努力让 Fin 能够在未来推广到更多地区。

人工智能机器人答案的准确性和可信度

不同的大语言模型有不同的优势,但目前,OpenAI 的 GPT-4 被普遍认为是可信度最高的 LLM 之一在 Intercom,我们一发布 OpenAI 的 ChatGPT 就开始尝试它,认识到它有可能彻底改变客户服务的工作方式。 在那个阶段,当 ChatGPT 不知道问题的答案时,ChatGPT 会简单地发明一个看似合理的回应,这种“幻觉”倾向在客户面前面临着太大的风险。

“人工智能聊天机器人的好坏取决于它所训练的数据”

ChatGPT 发布后,我们在社交媒体上看到了数百个此类幻觉的例子,从搞笑到有点可怕。 考虑到 ChatGPT 的训练数据源是“2021 年之前的所有互联网”,一些细节不正确也就不足为奇了。

从本质上讲,人工智能聊天机器人的好坏取决于它所训练的数据。 在客户服务环境中,低质量的数据集会让客户接触到可能损害公司品牌的答案(无论是不准确、不相关还是不恰当),从而导致客户沮丧,降低客户从您的产品中获得的价值,并且最终影响品牌忠诚度。

2023 年 3 月 GPT-4 的发布终于提供了解决方案。 我们的机器学习高级总监 Fergal Reid 在接受 econsultancy.com 采访时表示:“我们很早就了解了 GPT-4,并立即对增强的幻觉防护措施和更先进的自然语言功能印象深刻。 我们认为这项技术已经跨过了可以在客户面前使用的门槛。”

“公司需要控制客户收到的信息,以确保信息准确、最新且与其产品相关”

尽管 GPT-4 具有令人难以置信的准确性,但它一开始并不适合“开箱即用”的客户服务。 公司需要控制客户收到的信息,以确保信息准确、最新且与其产品相关。 通过将我们自己的专有软件添加到 GPT-4,我们创建了护栏,将机器人的可用信息限制为客户团队指定的特定来源。

因此,一旦您确保 Fin 的客户数据安全,您就需要完全相信 Fin 会从您控制的可信来源提取信息,从而为您的客户提供正确的信息。

Fin 由什么法学硕士提供支持?

Fin 由多种大型语言模型提供支持,其中包括OpenAI 的 GPT-4 ,它是市场上最准确的模型,并且比其他模型更不易产生幻觉。

我可以选择 Fin 从中提取答案的内容吗?

Fin 从您指定的来源中获取答案,无论是您的帮助中心、支持内容库还是指向您自己内容的任何公共 URL。 这样,您就可以对 Fin 用于回答客户问题的所有信息的准确性充满信心,并且在监控 Fin 的性能时,您可以扩展、改进或详细说明为 AI 机器人提供支持的内容。

如果 Fin 不知道问题的答案,它会怎么做?

Fin 就像每个优秀的支持代理一样 - 如果它找不到问题的答案,我们的机器学习护栏会确保它承认它不知道,并将对话无缝地传递给支持代表,以确保始终如一的高质量支持经验。 与 ChatGPT 或其他一些人工智能客户服务聊天机器人不同,Fin 永远不会编造答案,并且始终会从您的支持内容中提供其答案的来源。

如果我的客户愿意,他们可以联系人工支持代表吗?

您的支持团队比任何人都更了解您的客户,因此让您的客户能够轻松接触到他们至关重要。 Fin 为客户提供了立即向人工支持代表提出疑问的选项。 如果客户很乐意尝试 Fin,但不知道问题的答案,我们构建了机器学习护栏,以提示 Fin 提出澄清问题、对查询进行分类,并将其交给正确的团队来解决。

详细了解 Fin 的工作原理,或查看我们的帮助中心,了解有关我们的数据安全和隐私措施的更多信息。

演示 Fin CTA