Nosso grande experimento com GPT e IA generativa

Publicados: 2023-02-01

O ChatGPT conquistou o mundo e não poderíamos estar mais animados. Hoje, estamos revelando os recursos de atendimento ao cliente que desenvolvemos usando essa IA revolucionária.

Em dezembro, nosso diretor de aprendizado de máquina, Fergal Reid, e eu sentamos para conversar sobre o lançamento do ChatGPT: o bom, o ruim, a promessa, o hype. As possibilidades de automatizar e otimizar processos para representantes de suporte parecem infinitas, mas o sucesso da IA ​​generativa nesse espaço dependerá, em última análise, de sua capacidade de agregar valor real às equipes de atendimento ao cliente e aos clientes. Se não, bem, é apenas um brinquedo – divertido, mas ainda assim um brinquedo.

Para testar isso, rapidamente começamos a trabalhar. Esboçamos alguns recursos baseados em IA que achamos que poderiam ser úteis, entramos em produção e colocamos uma versão beta na frente de 160 clientes. Você pode ler tudo sobre esses novos recursos aqui.

No episódio de hoje, Fergal e eu compartilhamos o que aprendemos nas últimas semanas, para onde vamos a seguir e como isso mudou nossa percepção do que é possível neste espaço.

Clique aqui para entrar na lista de espera beta de nossos recursos de IA ou receber notícias de IA da Intercom.

Aqui estão alguns dos principais tópicos:

  • A capacidade dos modelos ChatGPT de processar linguagem natural em conversas com várias frases continua a melhorar e a revelar novas possibilidades.
  • No desenvolvimento de produtos, os clientes são sempre o árbitro final – você pode criar uma tecnologia incrível, mas se ela não resolver um problema para eles, não valerá a pena.
  • A capacidade do GPT-3.5 de editar e alterar texto o torna muito valioso para o atendimento ao cliente e já pode lidar com tarefas como resumir o texto e ajustar o tom.
  • Com os avanços do ChatGPT, mais recursos podem ser adicionados para maximizar a eficiência e liberar os agentes da linha de frente para se concentrarem nos problemas mais complexos que impulsionam a satisfação do cliente.
  • Embora estejamos começando a investigar usos potencialmente revolucionários, como respostas inteligentes, o modelo ainda carece de uma compreensão do contexto de negócios para que funcione.

Certifique-se de não perder nenhum destaque seguindo o Inside Intercom no Apple Podcasts, Spotify, YouTube ou acessando o feed RSS no player de sua escolha. O que se segue é uma transcrição levemente editada do episódio.


Um avanço na compreensão da linguagem

Des Traynor: Olá mais uma vez, Fergal. Como você está?

Fergal Reid: Bom, obrigado, Des. As últimas seis ou sete semanas foram ocupadas aqui na Intercom, então estou muito animado para falar sobre isso hoje.

Des: Sim, apenas seis ou sete semanas atrás nos sentamos para conversar. Você teve, eu acho, seis ou sete semanas de tempo real de engenharia construindo contra a revolução da IA ​​lançada no final de novembro. O que você aprendeu? Isso mudou sua percepção do que será possível no mundo do atendimento ao cliente?

Fergal: Sim, acho que sim. Quando conversamos pela última vez, falamos muito sobre o ChatGPT e isso foi talvez uma semana depois de ter sido lançado. Você pode dividir os cabelos sobre se a grande diferença aqui é o ChatGPT ou a família de modelos que o OpenAI construiu – temos trabalhado principalmente com GPT-3.5 ou com Text-Davinci-003, para ser bem específico.

Des: São nomes desse módulo específico.

Fergal: Sim, são os nomes desse modelo específico. E, na verdade, há muita confusão sobre esses nomes e quais são as coisas diferentes. Mas, basicamente, sentimos que a série de modelos GPT-3.5, Davinci-002, Davinci-003, esse tipo de coisa, que saiu no ano passado, e então Davinci-003, que caiu exatamente ao mesmo tempo que O ChatGPT foi uma inovação e realmente nos permitiu começar a tentar construir funcionalidades diferentes e qualitativamente melhores.

“Isso é um grande desbloqueio porque há tantas tarefas que queremos fazer que são melhor descritas em linguagem natural”

Des: Qual é a sua crença sobre o que é possível agora? Para onde estamos indo no mundo do atendimento ao cliente?

Fergal: Acho que no atendimento ao cliente, e mesmo além, esses modelos nos permitem lidar com a linguagem natural de uma maneira melhor do que antes. Acho que posso contar um pouco da história do processamento de linguagem natural. Foram coisas simples como expressões regulares e assim por diante por um longo tempo. Em seguida, tínhamos um texto que ficou muito bom em analisar palavras-chave que estavam muito nos dados. E então, talvez três, quatro anos atrás, as redes neurais começaram a ficar muito boas em entender: “Ei, qual é o significado dessa frase?” Mas agora, eu diria que eles estão começando a ficar realmente bons em “Ei, qual é o significado dessa frase em um nível mais profundo…” indo muito mais perto de como os humanos podem fazer isso e entendendo o que está acontecendo em uma conversa de várias frases . Do que a pessoa está falando? Juntando o conteúdo da frase um com o conteúdo da frase três para descobrir que alguém acabou de dizer: "Ah, tenho uma pergunta sobre o Salesforce". E o companheiro de equipe diz: “Bem, qual é a sua pergunta? Como posso ajudá-lo?" E então diz: “Sim, eu realmente preciso de ajuda com minha integração”. E os sistemas estão ficando muito melhores em entender que essa integração é sobre a integração do Salesforce e têm uma ideia de onde a conversa deve ir a seguir.

“De repente, as máquinas são capazes de olhar para eles e dar muito mais sentido a eles”

Nosso Resolution Bot e a tecnologia de aprendizado de máquina que já está implantada são muito bons nisso em uma determinada frase. Mas agora, a tecnologia está melhorando a ponto de ser boa em várias frases e muito melhor no contexto. Como humanos que se comunicam e querem falar uns com os outros em linguagens naturais, isso é tão natural para nós. Isso é um grande desbloqueio porque há tantas tarefas que queremos fazer que são melhor descritas em linguagem natural. Existem tantos documentos, instruções e artigos sobre como fazer algo que escrevemos e nos comunicamos em linguagem natural. E agora, de repente, as máquinas são capazes de olhar para eles e dar muito mais sentido a eles. E cada vez que essa capacidade melhora, muitos produtos desbloqueiam muitas coisas que não eram possíveis antes. E nós realmente sentimos que o que aconteceu é uma grande coisa. Essa é a nossa opinião até construirmos coisas e colocá-las na frente de nossos clientes e ver o que eles pensam disso.

Des: E é isso que queremos.

Fergal: Quero dizer, é isso que estamos tentando fazer.

Des: O que é software senão opiniões codificadas, certo?

Fergal: Certo.

Cabe aos clientes

Des: Então, o que construímos? No que você tem trabalhado? Vamos conversar sobre isso.

Fergal: Portanto, no desenvolvimento de produtos, você sempre deseja verificar sua opinião. Seus clientes são sempre o árbitro final sobre se algo é bom ou não. Você pode pensar que tem a tecnologia mais incrível e a experiência de produto mais incrível, mas se isso não resolver um problema e não for usado, você está errado. E então, realmente queríamos cortar o hype aqui e nos convencer: “Ok, o que podemos construir para os clientes rapidamente, o que podemos colocar na frente deles, trabalhar com eles para ver qual é o valor?” E assim, esboçamos recursos que poderíamos construir e colocar em produção rapidamente, que usariam parte dessa nova tecnologia e nos ajudariam a descobrir se era valioso ou se era um brinquedo.

“Você pode simplesmente pressionar um botão ou usar um atalho de teclado para basicamente dizer: 'Ei, quero um resumo deste recurso, coloque-o no meu compositor para que eu possa adicioná-lo levemente'”

A primeira coisa que decidimos fazer foi criar um recurso que basicamente fazia resumos. E há uma razão pela qual decidimos fazer isso. Minha equipe, a equipe de aprendizado de máquina aqui na Intercom, a equipe do Inbox, descobriu que havia duas tarefas comuns de clientes que estamos vendo muito. Em muitas empresas, antes que um representante de suporte transmita a conversa, eles precisam escrever um resumo dessa conversa. Se eles não fizerem isso, o usuário final terá que se repetir ou o representante receptor terá que rolar a tela para cima e ler um monte de coisas. E assim, o representante de suporte que entrega tem que escrever um resumo e isso é um trabalho real.

Cerca de um ano e meio ou dois anos atrás, minha equipe tentou analisar as melhores redes neurais da época, T5 e todas essas grandes redes, e descobrir se poderíamos usá-las para criar um recurso de resumo adequado. E, infelizmente, concluímos que não havia como. As conversas são muito complicadas. O fluxo de uma conversa passa entre essas diferentes partes de uma forma que foi muito boa para os humanos – os humanos podem facilmente procurar e é rápido e eles podem digitalizá-lo – mas mesmo as grandes redes neurais que temos no Resolution Bot tiveram dificuldades nesse tipo de tarefa. E uma das primeiras coisas que vimos quando estávamos jogando com o recente modelo DaVinci-003, GPT-3.5, foi que, de repente, parece ser ótimo em resumo. E nós pensamos, “Uau, isso parece incrível.”

“Vamos tentar ser realmente reais com as pessoas. Vamos ajudar nossos clientes a descobrir quais bits são brinquedos”

E assim, construímos um recurso e fizemos algumas rodadas de iteração com um recurso de resumo na caixa de entrada. Você pode simplesmente pressionar um botão ou usar um atalho de teclado para basicamente dizer: “Ei, quero um resumo deste recurso, coloque-o no meu compositor para que eu possa adicioná-lo levemente”. Não é perfeito. Pode ser necessário adicionar um pouco a ele, mas é uma grande economia de tempo. E tivemos mais de 160 clientes em nosso beta usando esses recursos e eles consideraram os resumos um verdadeiro vencedor. Ainda não muda completamente o jogo para um representante de suporte; ele escolhe uma tarefa principal, mas cumpre essa tarefa principal.

Des: E reduz. O que você diria que é a redução? Se normalmente levaria três minutos para escrever - foram reduzidos a 10 segundos para adicionar o resumo ou algo assim?

Fergal: Sim.

Des: É como 90% do trabalho removido.

Fergal: Exatamente. E tivemos alguns clientes extremamente entusiasmados com isso porque eles podem ter um longo segmento de e-mail ou um histórico de conversas muito, muito longo, e isso economiza muito tempo. É um pouco como se você estivesse lendo um trabalho acadêmico ou algo assim. Às vezes, apenas obter uma essência ajuda a encontrar os detalhes exatos que você deseja. Acho que encontramos algo realmente bom lá, e esse é um dos recursos em que trabalhamos.

“É fácil sair com a máquina do hype; é fácil lançar comunicados à imprensa: 'Mudamos o mundo.' E na prática quem decide isso são os nossos clientes”

Vamos tentar ser realmente reais com as pessoas. Vamos ajudar nossos clientes a descobrir quais bits são brinquedos. Nem tudo o que construímos e colocamos na versão beta muda o jogo, mas o resumo é um dos que nos sentimos mais fortes. Está realmente pronto. Essa tecnologia faz algo transformador – é nova, empolgante e agrega valor real ao cliente.

Des: Uma coisa que sempre tentamos ser, no que se refere à IA, é sóbrio porque estamos tentando fazer um favor aos nossos clientes. É fácil sair com a máquina de hype; é fácil lançar comunicados à imprensa: “Mudamos o mundo”. E na prática quem decide isso são os nossos clientes. Então, quando lançamos o resumo, estamos aceitando a palavra deles de que é realmente valioso. Isso é o que importa, certo?

Fergal: Exatamente. E olha, isso é algo pelo qual agonizamos. Às vezes, você perde para pessoas que estão dispostas a exagerar. Estávamos tentando muito não fazer isso, porque uma vez que você começa a fazer isso, acaba acreditando em seu próprio hype.

Des: A narrativa fica à frente do software. Isso é um risco real.

Fergal: E você tenta evitar isso. Estamos muito conscientes disso com esse tipo de tecnologia, que quase funciona muito e chega muito perto de fazer algo mágico e transformador, mas às vezes falha. E então, estamos tentando nos manter honestos aqui sobre: ​​"Ok, isso já é bom o suficiente?" Sabemos que não é perfeito, mas já é bom o suficiente? E para que serve? E o resumo é algo com o qual nos sentimos bem. Esse é um recurso que acreditamos agregar valor real.

Você pode perder lançando algo que parece bom, mas na verdade não funciona na produção, e também pode perder por ser muito conservador. E no passado, com o Resolution Bot, tivemos momentos em que éramos muito conservadores. Nós pensamos, “oh, nós realmente não queremos que o tiro saia pela culatra, a menos que tenhamos certeza de que temos a resposta”. E então alguns clientes vieram até nós e nos disseram: “Ah, o usuário não está recebendo nenhuma ajuda por um tempo, dê a eles algo mesmo se você estiver errado”. E nós testamos A/B e ajustamos o fluxo de lixo e assim por diante. Houve momentos de ser muito conservador. E assim, estamos adotando uma abordagem aqui para obter rapidamente novos recursos beta para nossos clientes. Nossos clientes estão extremamente entusiasmados com esta tecnologia.

Edição de texto sem esforço

Des: Quantos recursos estão na versão beta? Cinco seis?

Fergal: Então, a primeira coisa que fizemos foi resumir. Fizemos isso porque era apenas um trabalho direto, fácil de integrar e bem compreendido. Depois disso, fomos ver o compositor. Como temos telemetria e métricas, sabemos que cerca de metade do tempo que um agente passa no Intercom, ele passa no compositor escrevendo ou editando o texto. Eles também estão organizando seus pensamentos, mas gastam muito tempo escrevendo e reformulando o texto. E quando olhamos para isso, pensamos: “Ok, isso é muito bom para editar e alterar o texto”. Começamos com alguns pequenos recursos lá, alguns como recursos MVP para colocá-los ao vivo e ver como isso funciona. E assim, começamos com recursos de edição e remodelação de texto. Talvez o mais simples de explicar seja a edição simples. Dizer: “Ei, torne este texto que acabei de escrever mais amigável” ou “mais formal”, porque essa tecnologia agora é boa em ajustar o tom. Anteriormente, não havia realmente nada que você pudesse usar para ajustar o tom de forma confiável. Fizemos muitas iterações no UX e criamos um UX onde há uma barra de ferramentas e você pode apenas selecionar o texto. Em nossa primeira versão, você não podia selecionar o texto e nós o iterávamos. O cliente nos disse que era inútil – eles não queriam mudar o tom de tudo no compositor. Agora, você pode selecionar um pouco.

“Parece-me saber que podemos estar olhando para um mundo onde o novo menu de contexto é como 'expandir', 'resumir', 'torná-lo mais feliz' e 'torná-lo mais formal'”

É quase como editar uma imagem. E começamos a pensar que há um paradigma emergente aqui. Lembro-me que era uma vez, um processador de texto onde você poderia colocar negrito e itálico no texto era como “uau”. E nos perguntamos se, no futuro, as pessoas vão pensar nisso em termos de tom. É como, “Oh, claro, eu quero ir e editar rapidamente o tom.” Se você está cansado no final do dia, escreveu um rascunho e pensa: "Não fui amigável o suficiente, isso afetará meu CSAT", basta clicar em um botão e editar o tom e fica mais amigável. E é mais fácil apertar aquele botão uma ou duas vezes do que ir e-

Des: Vá e reescreva.

Fergal: Reescrever texto é trabalho.

Des: Me surpreende saber que podemos estar olhando para um mundo onde o novo menu de contexto é como “expandir”, “resumir”, “torná-lo mais feliz” e “torná-lo mais formal”. Essas serão as transformações que você está tentando fazer. Não é tanto que você está focado na ótica do texto tanto quanto no tom.

Fergal: Totalmente. Olha, quando vamos para frente e para trás nisso, pensamos: “isso é um brinquedo? Construímos um brinquedo legal ou é algo incrível?” E acho que vai variar de acordo com o cliente, mas o argumento ousado para esse recurso específico é: “Ei, estou cansado no final do dia e me preocupo muito com o tom porque meu CSAT é uma grande métrica para mim e esta é uma maneira de fazer isso.” É uma forma de proporcionar uma experiência mais agradável ao cliente.

Des: Pegue “desculpe, aqui está o seu reembolso.” Você diria “por favor, faça esse som parecer mais empático” ou o que quer que seja.

Fergal: Experimentamos a empatia. Na verdade, mudamos para “tornar as coisas mais formais, tornar as coisas mais amigáveis”. Esse é o tipo de espectro que parece funcionar muito bem, então optamos por ele. E acho que combina com o Intercom. Muitas pessoas estão tentando oferecer uma experiência de suporte muito pessoal e amigável.

“Muitas vezes, quando você escreve algo, sai errado. Então você pode apenas dizer: 'Ei, reformule isso'”

Para ser completamente transparente, ainda não temos certeza de onde exatamente ele se encaixa no espectro de brinquedo a valioso. Alguns clientes dizem que é muito valioso e por isso continuamos a avaliar isso. Mas temos isso em beta. Queremos dizer aos nossos clientes que esse é o tipo de coisa que estamos construindo e investigando.

Essa é uma característica. A próxima coisa que começamos a olhar é um recurso de reformulação. E, novamente, esses modelos de linguagem são muito bons para pegar um pedaço de texto restrito e editá-lo ou alterá-lo. Você começa a ver isso com o resumo. Muitas vezes, quando você escreve algo, sai errado. Então você pode apenas dizer: “Ei, reformule isso.” E, novamente, é esse tipo de UX rápido em que você apenas o destaca e clica nele. É um pouco mais fácil do que reescrever você mesmo. Há um pouco de latência quando você faz isso. Então, ainda estamos avaliando. Mas alguns clientes, novamente, realmente gostam disso, realmente funciona para eles em seus negócios e esperamos que a latência diminua com o tempo, à medida que esses modelos ficam cada vez melhores. Isso é reformulação de texto. Esses são os primeiros recursos que buscamos no compositor.

Agora, as coisas com ingressos maiores vêm a seguir, e estamos começando a investigar as coisas que são potencialmente mais revolucionárias. Uma coisa que estamos tentando fazer com isso é o que chamamos de recurso de expansão. Fomos inspirados por coisas como co-piloto para programadores. No co-piloto, você pode escrever um comentário e ele preenche a função completa e economiza muito tempo. E nós pensamos: “Oh, podemos construir algo um pouco parecido com o suporte ao cliente?” E a ideia é que talvez você escreva um breve resumo do que deseja e, em seguida, destaque isso, diga expandir, e seu compositor preenche isso. Fizemos isso, despachamos e os clientes veem claramente que isso é valioso e não um brinquedo – se funcionar. Mas funciona muito melhor em alguns domínios do que em outros. Se você está respondendo a perguntas, informações genéricas da Internet fariam um bom trabalho

Des: Como se você tivesse que redefinir seu telefone ou algo assim.

Fergal: Sim, exatamente. Funciona muito bem para isso. No entanto, se você está tentando fazer algo em que está escrevendo uma abreviação e, na verdade, há muito contexto específico para o seu negócio sobre como responder a esse tipo de pergunta, ele pode alucinar e dizer algo que você precisa editar Fora. Ainda assim, alguns clientes realmente gostam e funciona muito bem para eles. Mas realmente achamos que essa é uma versão um. Se você estiver usando isso, precisará verificá-lo e ver como funciona para você e sua empresa. No entanto, temos um projeto que está constantemente avaliando coisas novas para isso, onde é como: “Ei, podemos aceitar as respostas anteriores que você deu sobre os mesmos tópicos?” Então, você nos fornece resumos de três palavras sobre o que deseja fazer, como “reembolsar os agradecimentos ao cliente”, e encontraremos as últimas cinco coisas que você disse sobre reembolsos. Também veremos se você tem uma macro sobre reembolsos. Também veremos o contexto da conversa de antemão.

“O que estamos experimentando é: podemos superar o obstáculo? Podemos começar a fazer algo realmente transformador inserindo esse contexto?”

Des: Se houver alguma coisa no centro de ajuda, todo esse tipo de coisa.

Fergal: Ainda não chegamos a extrair artigos e outras coisas do centro de ajuda. Acabamos de ver o que você e o usuário disseram há dois turnos, colocamos tudo em um prompt que dirá: “Ok, com todas essas informações, pegue essa abreviação de três palavras e resuma isso, transformá-lo em uma grande coisa.”

Des: Sim, totalmente. Portanto, será necessário: “Desculpe, aqui está o reembolso, obrigado” em “Pedimos desculpas pelo inconveniente. Emitimos um reembolso e você deve recebê-lo em três a quatro dias. E lamentamos…”

Fergal: No estilo que você costuma usar – você pessoalmente, o agente individual – e incluindo todas as macros relevantes que você possui. Isso é realmente onde estamos. E essa última peça ainda não está em produção. O V1 está em produção. O V1 tem sido usado por centenas de clientes beta. Mas o que estamos experimentando é: podemos superar o obstáculo? Podemos começar a fazer algo realmente transformador inserindo esse contexto? E isso ainda está em andamento. Eu diria que estamos otimistas, mas ainda não temos certeza. Isso está mudando semana a semana para nós, então estamos muito animados com isso. E essa é a versão de recurso de expansão um no momento. Mas podemos ver a versão dois e a versão três chegando.

Eficiência do suporte de direção

Fergal: O último recurso que experimentamos em nossa versão beta foi dar aos nossos clientes acesso direto ao GPT. Portanto, sem prompt, sem dizer nada ao modelo, apenas dizendo: "Ei, coloque o que você quiser aí". E realmente fizemos isso como um experimento beta em movimento rápido. Não demos aos nossos clientes na versão beta muita orientação sobre como usar isso. Confundimos alguns deles e não deu muito certo, mas alguns clientes encontraram novos casos de uso, incluindo tradução, em que estava agregando valor real a eles. Agora, esses modelos não são os melhores na tradução, mas talvez seja uma tática interessante de desenvolvimento de produto de IA, que é como, “Ei, se você tem clientes beta, talvez dê a eles um pouco mais de poder do que você pode esperar e eles dirão o que precisam.

Des: Veja o que está surgindo. Veja o que se espera mesmo.

Fergal: Exatamente. E as expectativas, eu acho, vão mudar rapidamente nisso. Talvez isso nos diga que precisamos de tradução porque existem modelos de tradução muito bem compreendidos por aí.

“Talvez tenha uma fonte ao lado e, de repente, aqueles cinco minutos de busca pela resposta se tornam instantâneos. E é aí que começa a realmente mudar o jogo ”

Des: Parece que todos esses recursos maximizam a eficiência das equipes de suporte. Eles reduzem muito o indiferenciado, sejam as introduções e encerramentos ou apenas reescrevendo algo que talvez não tenham energia para fazer para torná-lo mais feliz ou mais formal. São todas maneiras diferentes de economizar muito tempo dos agentes de suporte da linha de frente. Em última análise, dando-lhes mais tempo para se concentrar nas partes mais difíceis da conversa, que são as pesquisas técnicas ou os mergulhos profundos. É onde isso será melhor implantado? Esse é o nosso melhor pensamento até agora? Quando você pensa em onde mais podemos implementar essa tecnologia estilo GPT na experiência de suporte, no que mais você pensa?

Fergal: Nossos clientes maiores têm muitos representantes de suporte que passam dia após dia no compositor. E assim, se pudermos torná-los mais rápidos e eficientes – um ganho de eficiência de 10% ou 20% é absolutamente enorme.

Des: Claro que sim. Temos clientes com milhares de licenças, por isso é genuinamente transformador.

Fergal: Exatamente. Mudança de jogo. E essa é uma área pela qual nos sentimos muito atraídos. E esta tecnologia está ficando cada vez melhor. Não é o único lugar, mas estamos muito otimistas sobre isso. Alguns de nossos clientes compartilharão muito bem vídeos conosco do seu dia-a-dia real. E você vê esse fluxo de trabalho como: “Ei, estou tentando responder a uma pergunta e não sei a resposta. Preciso procurar um artigo interno de suporte técnico ou encontrar uma conversa semelhante e estou navegando por aí.” Se pudermos causar um curto-circuito a ponto de dizer: “Ei, aqui está a IA. Talvez você dê algumas palavras…” Ou talvez nós vamos além disso. Temos outros protótipos sobre os quais falarei em alguns minutos, onde talvez a resposta esteja apenas esperando por você. Talvez tenha uma fonte ao lado e, de repente, aqueles cinco minutos de busca pela resposta se tornam instantâneos. E é aí que começa a realmente mudar o jogo. Acho que é para lá que iremos em breve.

Des: Sim, isso faz sentido. Pequenos ganhos em grandes equipes ainda são enormes e, obviamente, grandes ganhos em qualquer fluxo de trabalho específico, o resumo, também são enormes. Acho que algumas pessoas têm esse estranho mundo binário onde, até automatizarmos todo o suporte, não fizemos nada. Minha opinião pessoal é que acho que nunca iremos realmente automatizar todo o suporte. O que eu acho que vamos fazer é literalmente estripar a parte indiferenciada do suporte, o “clique pontudo”, “intro-y outro-y” em que você está fazendo a mesma coisa todos os dias.

Fergal: E espero que você se livre de suas partes frustrantes. Você está navegando, está tentando pesquisar e sabe que a resposta está aqui em algum lugar. Você sabe que respondeu a esta pergunta cinco vezes no mês passado, mas não consegue encontrá-la.

“Honestamente, esses recursos estão cruzando o limiar da utilidade muito mais rápido do que eu esperava”

O último recurso que estava ativo na versão beta é um expansor baseado em artigos. Isso é algo que estamos vendo quase se tornando um recurso padrão muito rapidamente. Onde quer que você esteja escrevendo um artigo de texto, vai se tornar padrão que você deseja a capacidade de chamar um grande modelo de linguagem e dizer: “Ei, me ajude a concluir isso, expandir isso. Aqui estão meus pontos principais. E assim, nós enviamos isso em nosso beta para o produto de artigos Intercom. Mais uma vez, ainda é cedo. Tudo isso é cedo – já se passaram de seis a oito semanas, mas às vezes é mágico. Às vezes, você pode escrever quatro ou cinco marcadores para descrever o conteúdo de um artigo e, no prompt, damos a ele o formato padrão de um artigo da Intercom, para que ele saiba como colocá-los nos títulos e em breve. É mágico quando funciona e com que frequência funciona e como funciona bem para as pessoas. Você ainda precisa verificar o conteúdo. Pode colocar coisas lá, mas achamos que há maneiras de diminuir isso. E, honestamente, esses recursos estão cruzando o limiar da utilidade muito mais rápido do que eu esperava. Então, sim, estamos experimentando isso.

A última fronteira

Des: Então, mais longe, qual é a sua opinião sobre a trajetória de tudo isso? Para onde daqui?

Fergal: Essas são as coisas que tivemos na versão beta. Temos centenas de clientes usando-os e temos um sinal real do valor do cliente. Vou lhe dizer exatamente onde estamos agora em produção com aprendizado de máquina. Nos últimos dois dias, tivemos um recurso que nossa própria equipe interna de CS está usando: no passado, tínhamos um recurso de respostas inteligentes em que minerávamos suas saudações comuns. Essas são as coisas que não têm informações, que não estão respondendo à pergunta do usuário – elas estão apenas lubrificando as rodas, tornando rápido, rápido e fácil dizer: “Oh, obrigado. De nada. Há algo mais que eu possa fazer?" E essa tecnologia é maravilhosa para esse tipo de coisa. Os linguistas as chamam de expressões fáticas.

Nos últimos dias, enviamos uma versão disso para nossa equipe Intercom CS, onde eles veem esse texto acinzentado pré-preenchido no compositor, mas é relevante para a conversa específica. Portanto, se eles dissessem anteriormente: "Oi, posso ajudá-lo" e o usuário dissesse: "Ah, sim, quero ajuda com o produto dos artigos", ele sugeriria: "Ah, sim, deixe-me procurar os artigos produto para você.” Ainda não vai procurar para você, mas faremos isso. Três ou quatro dias atrás, pensávamos: “Ok, vou enviar isso internamente. Não temos certeza se vai ficar chato e se as pessoas vão ficar cegas porque veem com frequência e só está ajudando um subconjunto”, e sempre tomamos muito cuidado com isso. Mas até agora, a resposta interna de nossa equipe de CS tem sido ótima. E assim, pretendemos continuar trabalhando nisso. Talvez precisemos colocar outro sistema que limite a frequência de exibição. Isso é uma coisa em que estamos trabalhando.

Mencionei a parte de expansão anteriormente e agora estamos trabalhando em: "Ei, podemos fazer isso mesmo sem a abreviação?" Podemos descobrir o que você está prestes a digitar a seguir com base no que os usuários acabaram de dizer? E vamos procurar em sua base de conhecimento, tentar encontrar um contexto relevante e fornecer isso ao modelo. O modelo em si não é bom o suficiente para fazer isso. Ele não conhece o seu negócio, mas talvez possamos aumentá-lo. Talvez possamos usar uma combinação de texto de aprendizado de máquina mais tradicional com o modelo e obter algo bom. Temos protótipos e estamos trabalhando nisso, mas ainda não os enviamos para nossos clientes, mesmo em uma versão beta, porque ainda estamos avaliando se isso é bom o suficiente para ser transformador ou se fica chato e irritante. Onde esse limite é não está claro. Somos um pouco mais otimistas sobre o estilo de expansão em que você precisa avisá-lo porque o usuário pode aprender quando fazê-lo. Eles podem aprender como consultá-lo. Todos nós tivemos que aprender a usar o Google e esperamos que os usuários também fiquem muito melhores em lidar com esses sistemas.

É mais ou menos onde estamos. Estamos nos movendo rapidamente e enviando coisas rapidamente aos clientes para realmente verificar e obter valor real aqui. Estamos tentando ser cuidadosos para evitar cair na armadilha do hype. Acreditamos que há um enorme potencial aqui, mas é muito fácil criar uma página de destino e dizer: “Pegue aqui. Ele responderá a tudo. E isso não é bom. As pessoas simplesmente ficarão cegas e desligarão.

“Todo mundo já viu isso e disse: 'ChatGPT é muito bom. Se eu pudesse obter uma tecnologia como essa para ajudar no meu suporte ao cliente, isso seria ótimo.' Mas não vai fazê-lo fora da prateleira. Não conhece o seu negócio”

Des: Acho que você prejudica sua reputação se disser “essa coisa faz alguma coisa” e claramente não faz, mas você fez isso por cliques ou o que quer que seja. Parece que o produto real que todos estão esperando neste novo espaço é o bot voltado para o usuário final que responde à maioria das perguntas corretamente o tempo todo. Pensamentos sobre isso? Semanas, meses, dias?

Fergal: Obviamente, é uma área enorme para todos. Eu também não subestimaria o compositor – uma parte das perguntas sempre fluirá para o compositor. E se pudermos reduzir esse tempo para eles, isso é enorme. Mas, com certeza, um dos grandes prêmios nessa área é se podemos pegar a experiência de compreensão conversacional que vimos com o ChatGPT e fazê-la funcionar para o seu negócio individual, evitando alucinações? Tem muita gente investigando isso. Estamos investigando isso também. Temos protótipos que são interessantes e promissores, mas ainda não sabemos ao certo se cruzamos o limiar em que as alucinações são tão raras que vale a pena fazer isso e é valioso. Estamos começando a ver algumas opiniões se cristalizando sobre isso internamente, mas ainda não estamos prontos para compartilhar onde estamos com isso.

Des: Totalmente justo. Bem, acho que vamos verificar novamente em mais seis semanas ou mais.

Fergal: Tem sido um tempo muito rápido. Olha, este é um campo muito empolgante para se trabalhar. As expectativas do cliente são muito altas. Todo mundo já viu isso e pensa: “ChatGPT é muito bom. Se eu pudesse obter uma tecnologia como essa para ajudar no meu suporte ao cliente, isso seria ótimo.” Mas não vai fazê-lo fora da prateleira. Ele não conhece o seu negócio. Você não pode realmente ajustá-lo hoje. Mesmo que você pudesse ajustá-lo para o seu negócio específico, provavelmente não funcionaria. Precisamos encontrar técnicas inteligentes e acho que empresas como a Intercom estão bem posicionadas para tentar fazer isso. E sim, existem muitos modelos interessantes de tecnologia e linguagem por aí. Estou muito animado para ver toda a inovação neste espaço.

Des: Legal. Muito obrigado.

Fergal: Obrigado. Obrigada.

Clique aqui para entrar na lista de espera beta de nossos recursos de IA ou receber notícias de IA da Intercom.