Privacidade, segurança, precisão: como os chatbots de IA estão lidando com suas preocupações mais profundas com dados

Publicados: 2023-08-24

ChatGPT é uma ferramenta incrível – milhões de pessoas o usam para fazer de tudo, desde escrever redações e pesquisar feriados até preparar programas de treino e até criar aplicativos. O potencial da IA ​​generativa parece infinito.

Mas quando se trata de usar IA generativa para atendimento ao cliente, o que significa compartilhar dados, consultas e conversas de seus clientes, até que ponto você pode realmente confiar na IA? Os chatbots generativos de IA são alimentados por grandes modelos de linguagem (LLMs) treinados em um grande número de conjuntos de dados extraídos da Internet. Embora as possibilidades decorrentes do acesso a tantos dados sejam inovadoras, levantam uma série de preocupações em torno da regulamentação, transparência e privacidade.

Desde que lançamos o Fin, nosso bot baseado em IA, temos visto níveis de entusiasmo sem precedentes com o potencial da IA ​​no atendimento ao cliente. Mas também encontramos muitas questões, muitas delas enquadradas em dois temas abrangentes:

  1. A segurança e a privacidade das informações que os clientes fornecem ao chatbot AI.
  2. A precisão e confiabilidade das informações que o chatbot AI fornece aos clientes.

Aqui, abordaremos as coisas mais importantes para entender como os chatbots de IA estão afetando a segurança e a privacidade dos dados em todos os setores e a maneira como abordamos essas questões quando se trata de Fin.

Segurança e privacidade de dados

Nenhuma empresa pode se dar ao luxo de correr riscos com os dados dos clientes. A confiança é a base de todo relacionamento empresa-cliente, e os clientes precisam ter certeza de que suas informações estão sendo tratadas com cuidado e protegidas ao mais alto nível . A IA generativa oferece oportunidades infinitas, mas também levanta questões importantes sobre a segurança dos dados dos clientes. Como sempre, a tecnologia está a evoluir mais rapidamente do que as diretrizes e melhores práticas, e os reguladores globais estão a esforçar-se para acompanhar.

A UE e o GDPR

Veja a UE, por exemplo. O Regulamento Geral de Proteção de Dados (GDPR) é uma das forças regulatórias mais rigorosas que abrange dados pessoais no mundo. Agora que a IA generativa mudou o jogo, onde ela se enquadra na estrutura do GDPR? De acordo com um estudo sobre o impacto do GDPR na IA realizado pelo Serviço do Parlamento Europeu, existe uma certa tensão entre o GDPR e ferramentas como o ChatGPT, que processam grandes quantidades de dados para fins não explicitamente explicados às pessoas que originalmente forneceram esses dados .

Dito isto, o relatório concluiu que existem formas de aplicar e desenvolver os princípios existentes para que sejam consistentes com a utilização crescente da IA ​​e do big data. Para alcançar plenamente esta consistência, a Lei da IA ​​está atualmente a ser debatida na UE, e espera-se um conjunto firme de regulamentos, aplicáveis ​​aos implantadores de sistemas de IA dentro e fora da UE, no final de 2023 – mais de um ano depois ChatGPT foi lançado em novembro de 2022.

“Embora a regulamentação acompanhe o rápido progresso da IA ​​generativa, a responsabilidade recai sobre os fornecedores de chatbots de IA para garantir que mantêm a segurança dos dados como sua principal prioridade”

Enquanto isso, nos EUA

Os EUA continuam nas fases iniciais de regulamentação e legislação no que diz respeito à IA, mas as discussões estão em curso e sete das maiores empresas tecnológicas comprometeram-se com acordos voluntários relativos a áreas como a partilha de informações, testes e transparência. Um exemplo é o compromisso de adicionar uma marca d'água ao conteúdo gerado por IA – um passo simples, mas importante para o contexto e compreensão do usuário.

Embora estas medidas representem algum progresso, para setores como a indústria da saúde, as incógnitas podem representar um obstáculo à adoção da IA. Um artigo no Journal of the American Medical Association sugeriu que a tecnologia ainda pode ser empregada, desde que o usuário evite inserir Informações Protegidas de Saúde (PHI). Como passo adicional, fornecedores como a OpenAI estão agora a desenvolver acordos de parceria comercial que permitiriam aos clientes com estes casos de utilização cumprir regulamentos como HIPAA e SOC-2 enquanto utilizam os seus produtos.

Em suma, embora a regulamentação acompanhe o rápido progresso da IA ​​generativa, a responsabilidade recai sobre os fornecedores de chatbots de IA para garantir que mantêm a segurança dos dados como a sua principal prioridade e são francos e transparentes com os seus clientes.

Como Fin lida com segurança e privacidade de dados

Aqui na Intercom, levamos a proteção de dados extremamente a sério e ela tem sido um componente importante de todas as decisões que tomamos desde que começamos a construir nosso chatbot de IA. Aqui estão as perguntas mais urgentes que recebemos das equipes de atendimento ao cliente sobre a forma como seus dados e os dados de seus clientes serão coletados, tratados e armazenados.

Como Fin lidará com meu conteúdo de suporte?

Fin é alimentado por uma combinação de modelos, incluindo GPT-4 da OpenAI, e processará seu conteúdo de suporte por meio desses LLMs em intervalos especificados para fornecer respostas às dúvidas dos clientes.

Como Fin lidará com os dados de conversas do cliente?

Durante cada conversa com o cliente, todos os dados da conversa serão enviados literalmente para a OpenAI, incluindo quaisquer informações de identificação pessoal na conversa.

Meu conteúdo de suporte ou dados de conversas com clientes serão usados ​​para treinar ou melhorar modelos?

Esta é uma pergunta comum. Muitos bots de IA incorporam os dados com os quais trabalham para treinar novos modelos ou melhorar os existentes, e os fornecedores citam isso como um ponto forte. Na Intercom, discordamos veementemente dessa perspectiva – as conversas seguras e o feedback de seus clientes nunca serão usados ​​para treinar qualquer um dos modelos de terceiros que usamos para impulsionar o Fin.

Segurança de privacidade de dados de Eric Fitzgerald (1)

Meus dados serão retidos pela OpenAI?

Não – aderimos à política de Retenção Zero de Dados, o que significa que nenhum dos seus dados será retido pela OpenAI por qualquer período de tempo.

Minha região de hospedagem de dados afetará minha capacidade de usar o Fin?

Atualmente, o Fin só pode ser usado por clientes que hospedam seus dados nos EUA. De acordo com os termos de hospedagem de dados da Intercom na UE , concordamos em armazenar os dados de nossos clientes (incluindo quaisquer dados pessoais) na UE. Atualmente, a OpenAI não oferece hospedagem na UE, portanto, qualquer informação pessoal enviada a eles como parte de sua integração com a Intercom deve ser processada nos EUA e pode não estar em conformidade com os termos de hospedagem de dados da UE ou da UA da Intercom. Estamos trabalhando para tornar o Fin acessível a mais regiões no futuro.

Precisão e confiabilidade das respostas do bot de IA

Diferentes modelos de linguagem grande têm pontos fortes diferentes, mas no momento, o GPT-4 da OpenAI é geralmente considerado um dos principais LLMs disponíveis em termos de confiabilidade. Na Intercom, começamos a experimentar o ChatGPT da OpenAI assim que foi lançado, reconhecendo seu potencial para transformar totalmente a forma como funciona o atendimento ao cliente. Nessa fase, as “alucinações”, a tendência do ChatGPT de simplesmente inventar uma resposta que soasse plausível quando não sabia a resposta a uma pergunta, eram um risco demasiado grande para ser apresentado aos clientes.

“Um chatbot de IA é tão bom quanto os dados nos quais ele é treinado”

Vimos centenas de exemplos dessas alucinações espalhadas pelas redes sociais após o lançamento do ChatGPT, variando de hilariantes a ligeiramente aterrorizantes. Considerando que a fonte de dados de treinamento do ChatGPT era “toda a Internet antes de 2021”, não é surpreendente que alguns detalhes estivessem incorretos.

Essencialmente, um chatbot de IA é tão bom quanto os dados nos quais ele foi treinado. Num contexto de atendimento ao cliente, um conjunto de dados de baixa qualidade exporia os clientes a respostas que poderiam prejudicar a marca da sua empresa – sejam elas imprecisas, irrelevantes ou inadequadas – levando à frustração do cliente, diminuindo o valor que o cliente obtém do seu produto, e em última análise, impactando a fidelidade à marca.

O lançamento do GPT-4 em março de 2023 finalmente ofereceu uma solução. Como nosso Diretor Sênior de Aprendizado de Máquina, Fergal Reid disse em uma entrevista ao econsultancy.com: “Demos uma olhada no GPT-4 e ficamos imediatamente impressionados com o aumento das proteções contra alucinações e os recursos mais avançados de linguagem natural. Sentimos que a tecnologia havia ultrapassado o limite onde poderia ser usada na frente dos clientes.”

“As empresas precisam de controle sobre as informações que seus clientes recebem para garantir que sejam precisas, atualizadas e relevantes para seus produtos”

Apesar da incrível precisão do GPT-4, ele não é adequado inicialmente para atendimento ao cliente “pronto para uso”. As empresas precisam controlar as informações que seus clientes recebem para garantir que sejam precisas, atualizadas e relevantes para seus produtos. Ao adicionar nosso próprio software proprietário ao GPT-4, criamos proteções que limitaram as informações disponíveis do bot a uma fonte específica indicada pelas equipes de nossos clientes.

Portanto, depois de garantir que os dados de seus clientes estão seguros com o Fin, você vai querer ter total certeza de que o Fin extrairá informações de fontes confiáveis ​​que você controla, para fornecer as informações corretas aos seus clientes.

Qual LLM é alimentado pelo Fin?

Fin é alimentado por uma combinação de grandes modelos de linguagem, incluindo o GPT-4 da OpenAI , o mais preciso do mercado e muito menos sujeito a alucinações do que outros.

Posso escolher o conteúdo do qual Fin extrai suas respostas?

Fin extrai suas respostas de fontes que você especifica , seja sua central de ajuda, biblioteca de conteúdo de suporte ou qualquer URL público que aponte para seu próprio conteúdo. Dessa forma, você pode ter certeza da precisão de todas as informações que Fin usa para responder às perguntas de seus clientes e, ao monitorar o desempenho de Fin, pode expandir, melhorar ou elaborar o conteúdo que alimenta o bot de IA.

O que Fin fará se não souber a resposta a uma pergunta?

Fin é como todo bom agente de suporte: se não conseguir encontrar a resposta para uma pergunta, nossas proteções de aprendizado de máquina garantem que ele admita que não sabe e passa a conversa para um representante de suporte para garantir uma resposta consistentemente de alta qualidade. experiência de suporte. Ao contrário do ChatGPT ou de alguns outros chatbots de atendimento ao cliente de IA, Fin nunca inventará uma resposta e sempre fornecerá fontes para as respostas que fornece a partir de seu conteúdo de suporte.

Meus clientes podem acessar um representante de suporte humano se quiserem?

Sua equipe de suporte conhece seus clientes melhor do que ninguém e é crucial que eles tenham acesso fácil a eles. Fin oferece a opção para os clientes direcionarem imediatamente suas dúvidas a um representante de suporte humano. Se o cliente estiver satisfeito em experimentar o Fin, mas não souber a resposta para sua pergunta, criamos proteções de aprendizado de máquina para solicitar que o Fin faça perguntas esclarecedoras, faça a triagem da consulta e a entregue à equipe certa para resolver .

Saiba mais sobre como o Fin funciona ou confira nossa central de ajuda para obter mais informações sobre nossas medidas de segurança e privacidade de dados.

CTA de demonstração