개인 정보 보호, 보안, 정확성: AI 챗봇이 가장 깊은 데이터 문제를 처리하는 방법

게시 됨: 2023-08-24

ChatGPT는 놀라운 도구입니다. 수백만 명의 사람들이 에세이 작성, 휴가 조사부터 운동 프로그램 준비, 앱 제작까지 모든 작업에 ChatGPT를 사용하고 있습니다. 생성 AI의 잠재력은 무한하다고 느껴집니다.

하지만 고객 서비스, 즉 고객의 데이터, 쿼리, 대화를 공유하는 데 제너레이티브 AI를 사용하는 경우 AI를 얼마나 신뢰할 수 있습니까? 생성적 AI 챗봇은 인터넷에서 가져온 방대한 데이터 세트에 대해 훈련된 대규모 언어 모델(LLM)을 통해 구동됩니다. 이렇게 많은 데이터에 접근함으로써 얻을 수 있는 가능성은 획기적이지만 규제, 투명성, 개인 정보 보호에 대한 다양한 우려를 불러일으킵니다.

AI 기반 봇인 Fin을 출시한 이후 우리는 고객 서비스에서 AI의 잠재력에 대해 전례 없는 수준의 관심을 보였습니다. 그러나 우리는 또한 많은 질문에 직면했는데, 그 중 대부분은 두 가지 중요한 주제에 속합니다.

  1. AI 챗봇은 고객이 제공하는 정보의 보안 및 개인정보 보호를 담당합니다.
  2. AI 챗봇이 고객에게 제공하는 정보의 정확성과 신뢰성.

여기에서는 AI 챗봇이 업계 전반에 걸쳐 데이터 보안 및 개인 정보 보호에 어떻게 영향을 미치는지, 그리고 Fin과 관련하여 이러한 문제에 접근하는 방식을 이해하는 데 가장 중요한 사항을 다룹니다.

데이터 보안 및 개인정보 보호

어떤 회사도 고객 데이터로 인해 위험을 감수할 여유가 없습니다. 신뢰는 모든 비즈니스와 고객 관계의 기초이며, 고객은 자신의 정보가 주의 깊게 취급되고 최고 수준으로 보호되고 있다는 확신을 가져야 합니다 . Generative AI는 무한한 기회를 제공하지만 고객 데이터의 안전에 대한 중요한 질문도 제기합니다. 언제나 그렇듯이 기술은 지침과 모범 사례보다 빠르게 발전하고 있으며 글로벌 규제 기관은 이를 따라잡기 위해 안간힘을 쓰고 있습니다.

EU와 GDPR

예를 들어 EU를 생각해보십시오. 일반 데이터 보호 규정(GDPR)은 전 세계에서 개인 데이터를 다루는 가장 엄격한 규제 기관 중 하나입니다. 이제 생성 AI가 게임의 판도를 바꾸었습니다. GDPR 프레임워크 내에서는 어디에 위치할까요? 유럽 ​​의회 서비스(European Parliamentary Service)가 수행한 AI에 대한 GDPR의 영향에 대한 연구에 따르면, GDPR과 원래 데이터를 제공한 사람들에게 명시적으로 설명되지 않은 목적으로 대량의 데이터를 처리하는 ChatGPT와 같은 도구 사이에는 일정한 긴장이 있습니다 . .

즉, 보고서는 AI와 빅데이터의 사용 확대에 맞춰 기존 원칙을 적용하고 개발할 수 있는 방법이 있음을 발견했습니다. 이러한 일관성을 완전히 달성하기 위해 AI법은 현재 EU에서 논의되고 있으며, EU 내부 및 외부의 AI 시스템 배포자에게 적용되는 확고한 규정 세트가 2023년 말에 나올 것으로 예상됩니다. ChatGPT는 2022년 11월에 출시되었습니다.

“제너레이티브 AI의 급속한 발전을 규제가 따라잡는 동안 AI 챗봇 제공업체가 데이터 보안을 최우선 과제로 유지해야 할 책임은 AI 챗봇 제공업체에 있습니다.”

한편, 미국에서는

미국은 AI에 관한 규제 및 입법 초기 단계 에 있지만 논의가 진행 중이며 최대 기술 기업 중 7개가 정보 공유, 테스트, 투명성과 같은 분야에 관한 자발적인 합의를 약속했습니다. AI가 생성한 콘텐츠에 워터마크를 추가하겠다는 약속이 그 예입니다. 이는 간단한 단계이지만 사용자 컨텍스트와 이해에 중요합니다.

이러한 단계는 어느 정도 진전을 이루었지만, 의료 산업과 같은 부문에서는 알려지지 않은 것이 AI 채택에 장애물이 될 수 있습니다. 미국 의학 협회 저널(Journal of the American Medical Association)에 실린 기사 에서는 사용자가 PHI(보호 건강 정보) 입력을 피하는 한 이 기술을 계속 사용할 수 있다고 제안했습니다. 추가 단계로 OpenAI 와 같은 공급업체는 이제 이러한 사용 사례를 가진 고객이 제품을 사용하는 동안 HIPAA SOC-2 와 같은 규정을 준수할 수 있도록 하는 비즈니스 제휴 계약을 개발하고 있습니다 .

간단히 말해서, 규제가 생성 AI의 급속한 발전을 따라잡는 동안 AI 챗봇 제공업체가 데이터 보안을 최우선 과제로 유지하고 고객에게 솔직하고 투명하게 대할 책임은 있습니다.

Fin이 데이터 보안 및 개인정보 보호를 처리하는 방법

Intercom에서는 데이터 보호를 매우 중요하게 생각하며 이는 AI 챗봇 구축을 시작한 이래로 우리가 내린 모든 결정의 주요 구성 요소였습니다. 다음은 고객 서비스 팀과 고객의 데이터가 수집, 처리 및 저장되는 방식에 관해 고객 서비스 팀으로부터 받는 가장 시급한 질문입니다.

Fin은 내 지원 콘텐츠를 어떻게 처리하나요?

Fin은 OpenAI의 GPT-4를 포함한 혼합 모델로 구동되며 지정된 간격으로 이러한 LLM을 통해 지원 콘텐츠를 처리하여 고객 쿼리에 대한 답변을 제공합니다.

Fin은 고객 대화 데이터를 어떻게 처리하나요?

각 고객 대화 중에 모든 대화 데이터는 대화 내 개인 식별 정보를 포함하여 OpenAI에 그대로 전송됩니다.

내 지원 콘텐츠 또는 고객 대화 데이터가 모델을 교육하거나 개선하는 데 사용됩니까?

이것은 일반적인 질문입니다. 많은 AI 봇이 새로운 모델을 훈련하거나 기존 모델을 개선하기 위해 작업하는 데이터를 통합하며 제공업체는 이를 강점으로 꼽습니다. Intercom에서는 이러한 관점에 단호하게 동의하지 않습니다. 고객의 안전한 대화와 피드백은 Fin을 강화하는 데 사용하는 타사 모델을 교육하는 데 절대 사용되지 않습니다.

Eric Fitzgerald 데이터 개인 정보 보호 (1)

내 데이터는 OpenAI에 보관되나요?

아니요. 우리는 Zero Data Retention 정책에 서명했습니다. 이는 OpenAI가 일정 기간 동안 귀하의 데이터를 보관하지 않는다는 것을 의미합니다.

내 데이터 호스팅 지역이 Fin 사용 능력에 영향을 미치나요?

현재 Fin은 미국에서 데이터를 호스팅하는 고객만 사용할 수 있습니다. Intercom의 EU 데이터 호스팅 약관에 따라 당사는 고객의 데이터(개인 데이터 포함)를 EU 내에 저장하는 데 동의합니다. OpenAI는 현재 EU 호스팅을 제공하지 않으므로 Intercom과의 통합의 일부로 OpenAI에 전송되는 모든 개인 정보는 미국에서 처리되어야 하며 Intercom의 EU 또는 AU 데이터 호스팅 조건을 준수하지 않을 수 있습니다. 우리는 앞으로 더 많은 지역에서 Fin을 이용할 수 있도록 노력하고 있습니다.

AI 봇 답변의 정확성과 신뢰성

다양한 대규모 언어 모델에는 서로 다른 장점이 있지만 현재 OpenAI의 GPT-4는 일반적으로 신뢰성 측면에서 사용할 수 있는 최고의 LLM 중 하나로 간주됩니다. Intercom에서는 OpenAI의 ChatGPT가 출시되자마자 실험을 시작하여 고객 서비스 작동 방식을 완전히 변화시킬 수 있는 잠재력을 인식했습니다. 그 단계에서 ChatGPT가 질문에 대한 답을 모를 때 그럴듯하게 들리는 응답을 만들어내는 경향인 "환각"은 고객 앞에 놓기에는 너무 큰 위험이었습니다.

“AI 챗봇의 성능은 훈련된 데이터만큼만 우수합니다.”

우리는 ChatGPT가 출시된 후 소셜 미디어에 재미있는 것부터 약간 무서운 것까지 다양한 환각 사례 수백 건을 보았습니다. ChatGPT의 훈련 데이터 소스가 "2021년 이전의 모든 인터넷"이었다는 점을 고려하면 일부 세부 사항이 부정확한 것은 놀라운 일이 아닙니다.

기본적으로 AI 챗봇의 성능은 훈련된 데이터만큼 우수합니다. 고객 서비스 맥락에서 품질이 낮은 데이터 세트는 부정확하거나, 관련성이 없거나, 부적절하든 회사의 브랜드를 손상시킬 수 있는 답변에 고객을 노출시켜 고객 불만을 야기하고 고객이 제품에서 얻는 가치를 감소시키며, 궁극적으로 브랜드 충성도에 영향을 미칩니다.

2023년 3월 GPT-4가 출시되면서 마침내 해결책이 제시되었습니다. 기계 학습 수석 이사인 Fergal Reid는 econsultancy.com과의 인터뷰에서 다음과 같이 말했습니다. “우리는 GPT-4를 초기에 살펴보았고 환각에 대한 강화된 보호 기능과 더욱 발전된 자연어 기능에 즉시 깊은 인상을 받았습니다. 우리는 기술이 고객 앞에서 사용될 수 있는 한계점을 넘었다고 느꼈습니다.”

“회사는 고객이 받는 정보가 정확하고 최신이며 제품과 관련이 있는지 확인하기 위해 이를 통제해야 합니다.”

GPT-4의 놀라운 정확성에도 불구하고 처음에는 "즉시 사용 가능한" 고객 서비스에 적합하지 않습니다. 기업은 고객이 받는 정보가 정확하고 최신이며 제품과 관련이 있는지 확인하기 위해 이를 통제해야 합니다. GPT-4에 자체 독점 소프트웨어를 추가함으로써 봇의 사용 가능한 정보를 고객 팀이 지정한 특정 소스로 제한하는 가드레일을 만들었습니다.

따라서 Fin을 통해 고객 데이터가 안전한지 확인한 후에는 Fin이 고객에게 올바른 정보를 제공하기 위해 귀하가 관리하는 신뢰할 수 있는 소스로부터 정보를 가져올 것이라는 확신을 갖고 싶을 것입니다.

Fin은 어떤 LLM을 기반으로 하나요?

Fin은 OpenAI의 GPT-4를 포함한 대규모 언어 모델의 혼합으로 구동됩니다. 이는 시장에서 가장 정확하고 다른 모델보다 환각에 덜 취약합니다.

Fin이 답변을 가져오는 콘텐츠를 선택할 수 있나요?

Fin 은 도움말 센터, 지원 콘텐츠 라이브러리 또는 자신의 콘텐츠를 가리키는 공개 URL 등 귀하가 지정한 소스 에서 답변을 얻습니다 . 이렇게 하면 Fin이 고객의 질문에 답변하는 데 사용하는 모든 정보의 정확성을 확신할 수 있으며, Fin의 성과를 모니터링하면서 AI 봇을 지원하는 콘텐츠를 확장, 개선 또는 정교화할 수 있습니다.

질문에 대한 답을 모르면 Fin은 어떻게 할까요?

Fin은 모든 훌륭한 지원 상담원과 같습니다. 질문에 대한 답변을 찾을 수 없는 경우 당사의 기계 학습 가드레일은 자신이 모른다는 사실을 인정하고 대화를 지원 담당자에게 원활하게 전달하여 지속적으로 높은 품질을 보장합니다. 지원 경험. ChatGPT 또는 기타 AI 고객 서비스 챗봇과 달리 Fin은 답변을 작성하지 않으며 항상 지원 콘텐츠에서 제공하는 답변에 대한 소스를 제공합니다.

고객이 원할 경우 지원 담당자에게 연락할 수 있나요?

귀하의 지원팀은 누구보다 귀하의 고객을 더 잘 알고 있으므로 고객이 쉽게 접근할 수 있도록 하는 것이 중요합니다. Fin은 고객이 즉시 지원 담당자에게 문의할 수 있는 옵션을 제공합니다. 고객이 Fin을 사용해 보고 싶지만 질문에 대한 답을 모르는 경우 Fin이 명확한 질문을 하고 쿼리를 분류한 후 적절한 팀에 전달하여 해결하도록 유도하는 기계 학습 가드레일을 구축했습니다. .

Fin의 작동 방식에 대해 자세히 알아보거나 데이터 보안 및 개인 정보 보호 조치에 대한 자세한 내용은 도움말 센터를 확인하세요.

데모 핀 CTA