Il nostro grande esperimento con GPT e intelligenza artificiale generativa

Pubblicato: 2023-02-01

ChatGPT ha preso d'assalto il mondo e non potremmo essere più entusiasti. Oggi sveliamo le funzionalità del servizio clienti che abbiamo creato utilizzando questa rivoluzionaria intelligenza artificiale.

A dicembre, il nostro direttore dell'apprendimento automatico, Fergal Reid, e io ci siamo seduti a parlare del lancio di ChatGPT: il buono, il cattivo, la promessa, l'hype. Le possibilità di automatizzare e semplificare i processi per i rappresentanti dell'assistenza sembrano infinite, ma il successo dell'IA generativa in questo spazio dipenderà in ultima analisi dalla sua capacità di fornire valore reale sia ai team del servizio clienti che ai clienti. In caso contrario, beh, è ​​solo un giocattolo, divertente, ma comunque un giocattolo.

Per verificarlo, ci siamo subito messi al lavoro. Abbiamo abbozzato alcune funzionalità basate sull'intelligenza artificiale che pensavamo potessero essere utili, siamo entrate in produzione e abbiamo presentato una versione beta a 160 clienti. Puoi leggere tutto su queste nuove funzionalità qui.

Nell'episodio di oggi, Fergal e io condividiamo ciò che abbiamo imparato nelle ultime settimane, dove andremo dopo e come ha cambiato la nostra percezione di ciò che è possibile in questo spazio.

Fai clic qui per unirti alla lista d'attesa beta per le nostre funzionalità AI o ricevere notizie AI da Intercom.

Ecco alcuni dei punti chiave:

  • La capacità dei modelli ChatGPT di elaborare il linguaggio naturale nelle conversazioni composte da più frasi continua a migliorare e a sbloccare nuove possibilità.
  • Nello sviluppo del prodotto, i clienti sono sempre l'arbitro supremo: puoi creare una tecnologia straordinaria, ma se non risolve un problema per loro, non ne vale la pena.
  • La capacità di GPT-3.5 di modificare e modificare il testo lo rende molto prezioso per il servizio clienti e può già gestire attività come riassumere il testo e regolare il tono.
  • Con i progressi in ChatGPT, è possibile aggiungere più funzionalità per massimizzare l'efficienza e liberare gli agenti in prima linea per concentrarsi sui problemi più complessi che guidano la soddisfazione del cliente.
  • Mentre stiamo iniziando a indagare su usi potenzialmente rivoluzionari come le risposte intelligenti, il modello non ha ancora una comprensione del contesto aziendale affinché funzioni.

Assicurati di non perdere nessun momento saliente seguendo Inside Intercom su Apple Podcasts, Spotify, YouTube o recuperando il feed RSS nel tuo lettore preferito. Quella che segue è una trascrizione leggermente modificata dell'episodio.


Una svolta nella comprensione del linguaggio

Des Traynor: Salve ancora una volta, Fergal. Come stai?

Fergal Reid: Bene, grazie, Des. Le ultime sei o sette settimane qui a Intercom sono state impegnative, quindi sono molto entusiasta di parlarne oggi.

Des: Sì, solo sei o sette settimane fa ci siamo seduti a chiacchierare. Hai avuto, immagino, sei o sette settimane di tempo effettivo di ingegneria per costruire contro la rivoluzione dell'IA lanciata a fine novembre. Cosa hai imparato? Ha cambiato la tua percezione di ciò che sarà possibile nel mondo del servizio clienti?

Fergal: Sì, penso di sì. L'ultima volta che abbiamo parlato, abbiamo parlato molto di ChatGPT, forse una settimana dopo il suo lancio. Puoi dividere i capelli sul fatto che la grande differenza qui sia ChatGPT o la famiglia di modelli che OpenAI ha creato: abbiamo lavorato principalmente con GPT-3.5 o con Text-Davinci-003, per essere veramente specifici.

Des: Sono i nomi di questo modulo specifico.

Fergal: Sì, sono i nomi di questo modello specifico. E in realtà, c'è molta confusione su questi nomi e su quali siano le diverse cose. Ma fondamentalmente, riteniamo che la serie di modelli GPT-3.5, Davinci-002, Davinci-003, questo genere di cose, che sono uscite nell'ultimo anno, e poi Davinci-003, che è uscito esattamente nello stesso momento di ChatGPT, sono state scoperte e ci hanno davvero permesso di iniziare a provare a costruire funzionalità diverse e qualitativamente migliori.

"Questo è un grande sblocco perché ci sono così tante attività che vogliamo fare che sono meglio descritte nel linguaggio naturale"

Des: Qual è la tua convinzione su ciò che è possibile ora? Dove siamo diretti nel mondo del servizio clienti?

Fergal: Penso che nel servizio clienti, e anche oltre, questi modelli ci consentano di gestire il linguaggio naturale in un modo migliore di prima. Immagino di poter dare un po' di storia dell'elaborazione del linguaggio naturale. Sono state cose semplici come espressioni regolari e così via per molto tempo. Poi abbiamo avuto un testo che è diventato davvero bravo a guardare le parole chiave che erano molto nei dati. E poi forse tre, quattro anni fa, le reti neurali hanno iniziato a diventare davvero brave a capire: "Ehi, qual è il significato di questa frase?" Ma ora, direi che stanno iniziando a diventare davvero bravi a "Ehi, qual è il significato di quella frase in un modo più profondo..." avvicinandosi molto di più a come gli umani possono farlo e capendo cosa sta succedendo in una conversazione di più frasi . Di cosa sta parlando la persona? Unire il contenuto della frase uno con il contenuto della frase tre per capire che qualcuno ha appena detto: "Oh, ho una domanda su Salesforce". E il compagno di squadra dice: "Bene, qual è la tua domanda?" Come posso aiutarla?" E poi dice: "Sì, ho davvero bisogno di aiuto con la mia integrazione". E i sistemi stanno migliorando molto nel capire che quell'integrazione riguarda l'integrazione di Salesforce e hanno un'idea di dove dovrebbe andare la conversazione successiva.

"Improvvisamente, le macchine sono in grado di guardarle e dar loro molto più senso"

Il nostro Resolution Bot e la tecnologia di apprendimento automatico già implementata sono abbastanza bravi in ​​​​quelle cose all'interno di una determinata frase. Ma ora, la tecnologia sta migliorando al punto in cui è buona su più frasi e molto meglio nel contesto. Come esseri umani che comunicano e vogliono parlarsi in linguaggi naturali, per noi è così naturale. Questo è un grande sblocco perché ci sono così tante attività che vogliamo fare che sono meglio descritte nel linguaggio naturale. Ci sono così tanti documenti, istruzioni e articoli su come fare qualcosa che scriviamo e comunichiamo tra di noi in linguaggio naturale. E ora, improvvisamente, le macchine sono in grado di guardarle e dar loro molto più senso. E ogni volta che questa capacità migliora, un sacco di prodotti sbloccano un sacco di cose che prima non erano possibili. E sentiamo davvero che quello che è successo è una cosa importante. Questa è la nostra opinione fino a quando non costruiamo cose e le mettiamo di fronte ai nostri clienti e vediamo cosa ne pensano i nostri clienti.

Des: E quindi è quello che vogliamo.

Fergal: Voglio dire, è quello che abbiamo cercato di fare.

Des: Cos'è il software se non opinioni codificate, giusto?

Fergale: Esatto.

Sta ai clienti

Des: Allora, cosa abbiamo costruito? Su cosa hai lavorato? Parliamone.

Fergal: Quindi, nello sviluppo del prodotto, vuoi sempre controllare la tua opinione. I tuoi clienti sono sempre l'ultimo arbitro del fatto che qualcosa sia buono o meno. Potresti pensare di avere la tecnologia più straordinaria e l'esperienza di prodotto più straordinaria, ma se non risolve un problema e se non viene utilizzata, ti sbagli. E quindi, volevamo davvero superare l'hype qui e convincerci: "Okay, cosa possiamo costruire rapidamente per i clienti, cosa possiamo mettere di fronte a loro, lavorare con loro per vedere qual è il valore?" E così, abbiamo abbozzato le funzionalità che avremmo potuto costruire e mettere in produzione rapidamente che avrebbero utilizzato parte di questa nuova tecnologia e ci avrebbero aiutato a capire se fosse preziosa o se fosse un giocattolo.

"Potresti semplicemente premere un pulsante o usare una scorciatoia da tastiera per dire fondamentalmente: 'Ehi, voglio un riepilogo di questa funzione, mettilo sul mio compositore in modo da poterlo aggiungere leggermente'"

La prima cosa che abbiamo deciso di fare è stata creare una funzionalità che essenzialmente facesse il riepilogo. E c'è un motivo per cui abbiamo deciso di farlo. Il mio team, il team di machine learning qui a Intercom, il team di Inbox, ha scoperto che c'erano due lavori comuni per i clienti che stiamo vedendo molto spesso. In molte aziende, prima che un rappresentante dell'assistenza consegni la conversazione, deve scrivere un riassunto di quella conversazione. Se non lo fanno, l'utente finale deve ripetere se stesso o il rappresentante ricevente deve andare a scorrere verso l'alto e leggere un sacco di cose. E così, il rappresentante dell'assistenza che consegna deve scrivere un riassunto e questo è un vero lavoro.

Circa un anno e mezzo o due anni fa, il mio team ha cercato di esaminare le migliori reti neurali in quel momento, T5 e tutte queste grandi reti, e capire se potevamo usarle per costruire una funzione di riepilogo adeguata. E sfortunatamente, abbiamo concluso che non c'era proprio modo. Le conversazioni sono semplicemente troppo nodose. Il flusso di una conversazione si snoda tra queste diverse parti in un modo che è stato davvero positivo per gli umani: gli umani possono cercarlo facilmente ed è veloce e possono scansionarlo, ma anche le reti neurali piuttosto grandi che abbiamo nel Resolution Bot hanno faticato su quel tipo di compito. E una delle prime cose che abbiamo visto quando stavamo giocando con il recente modello DaVinci-003, GPT-3.5, è stata che all'improvviso sembra essere eccezionale nel riepilogo. E noi siamo tipo "Wow, sembra fantastico".

“Cercheremo di essere davvero sinceri con le persone. Aiuteremo i nostri clienti a capire quali sono i pezzi dei giocattoli"

E così, abbiamo creato una funzionalità e fatto un paio di cicli di iterazione con una funzione di riepilogo nella posta in arrivo. Potresti semplicemente premere un pulsante o utilizzare una scorciatoia da tastiera per dire sostanzialmente: "Ehi, voglio un riepilogo di questa funzione, mettilo sul mio compositore in modo da poterlo aggiungere leggermente". Non è perfetto. Potrebbe essere necessario aggiungerne un po', ma è un enorme risparmio di tempo. E abbiamo avuto oltre 160 clienti nella nostra versione beta che utilizzavano queste funzionalità e hanno ritenuto che i riepiloghi fossero un vero vincitore. Non cambia ancora completamente il gioco per un rappresentante di supporto; seleziona un lavoro principale, ma fornisce quell'unico lavoro principale.

Des: E lo riduce. Cosa diresti che è la riduzione? Se normalmente ci vorrebbero tre minuti per scrivere, ci sono voluti solo 10 secondi per aggiungere il riepilogo o qualcosa del genere?

Fergale: Sì.

Des: È come se il 90% del lavoro fosse stato rimosso.

Fergale: Esattamente. E abbiamo avuto alcuni clienti estremamente entusiasti perché potrebbero avere un thread di posta elettronica molto lungo o una cronologia delle conversazioni davvero molto lunga, e questo fa risparmiare un sacco di tempo. È un po' come se stessi leggendo un articolo accademico o qualcosa del genere. A volte solo ottenere un'idea ti aiuta a trovare i dettagli esatti che desideri. Penso che abbiamo raggiunto qualcosa di veramente buono lì, e questa è una delle caratteristiche su cui abbiamo lavorato.

“È facile uscire con la macchina dell'hype; è facile dichiararsi con comunicati stampa: "Abbiamo cambiato il mondo". E in pratica chi decide chi sono i nostri clienti”

Cercheremo di essere davvero sinceri con le persone. Aiuteremo i nostri clienti a capire quali pezzi sono giocattoli. Non tutto ciò che abbiamo costruito e che abbiamo messo in beta è rivoluzionario, ma il riepilogo è uno di quelli su cui ci sentiamo più forti. È davvero pronto. Questa tecnologia fa qualcosa di trasformativo: è nuova, è entusiasmante e offre un vero valore per il cliente.

Des: Una cosa che abbiamo sempre cercato di essere, per quanto riguarda l'intelligenza artificiale, è sobrio perché stiamo cercando di fare un favore ai nostri clienti. È facile uscire con la macchina dell'hype; è facile uscire con comunicati stampa: "Abbiamo cambiato il mondo". E in pratica, la persona che decide che sono i nostri clienti. Quindi, quando pubblichiamo il riepilogo, crediamo che sia davvero prezioso. Questa è la cosa che conta, giusto?

Fergale: Esattamente. E guarda, è qualcosa per cui ci tormentiamo. A volte perdi contro persone che sono disposte solo a fare pubblicità. Stavamo cercando di non farlo perché una volta che inizi a farlo, finisci per credere al tuo stesso clamore.

Des: La narrazione anticipa il software. Questo è un rischio reale.

Fergal: E cerchi di evitarlo. Ne siamo stati davvero consapevoli con questo tipo di tecnologia, ovvero che funziona quasi molto, e si avvicina molto a fare qualcosa di magico e trasformativo, ma a volte fallisce. E quindi, stiamo cercando di mantenerci onesti qui su "Okay, è davvero abbastanza buono?" Sappiamo che non è perfetto, ma è già abbastanza buono? E a cosa serve? E la sintesi è qualcosa per cui ci sentiamo bene. Questa è una caratteristica che riteniamo offra un valore reale.

Puoi perdere lanciando qualcosa che sembra buono ma in realtà non funziona nella produzione, e puoi anche perdere essendo troppo conservatore. E in passato, con Resolution Bot, abbiamo avuto momenti in cui eravamo troppo prudenti. Eravamo tipo "oh, non vogliamo davvero che questo si ritorni contro a meno che non siamo abbastanza sicuri che abbia la risposta". E poi alcuni clienti sono venuti da noi e ci hanno detto: "Oh, l'utente non riceve alcun aiuto per un po', dagli qualcosa anche se ti sbagli". E testiamo A / B e ottimizziamo quel flusso di spazzatura e così via. Ci sono stati momenti in cui sono stato troppo conservatore. E così, stiamo adottando un approccio qui per fornire rapidamente nuove funzionalità beta ai nostri clienti. I nostri clienti sono estremamente entusiasti di questa tecnologia.

Modifica del testo senza sforzo

Des: Quante funzioni ci sono nella beta? Cinque sei?

Fergal: Quindi, la prima cosa che abbiamo fatto è stata la sintesi. Lo abbiamo fatto perché era solo un lavoro semplice, facile da integrare e ben compreso. Successivamente, siamo andati a vedere il compositore. Poiché disponiamo di telemetria e metriche, sappiamo che circa la metà del tempo che un agente trascorre in Intercom, trascorre nel compositore scrivendo testo o modificandolo. Stanno anche organizzando i loro pensieri, ma passano molto tempo a scrivere e rimodellare il testo. E quando l'abbiamo guardato, ci siamo detti: "Okay, questo è molto bravo a modificare e cambiare il testo". Abbiamo iniziato con alcune piccole funzionalità lì, alcune come le funzionalità MVP per metterle in diretta e vedere come va. E così, abbiamo iniziato con la modifica del testo e le funzionalità di rimodellamento del testo. Forse il più semplice da spiegare è il semplice editing. Dire: "Ehi, rendi questo testo che ho appena scritto più amichevole" o "più formale", perché questo tecnico ora è bravo a regolare il tono. In precedenza, non c'era davvero nulla che potevi usare per regolare in modo affidabile il tono. Abbiamo fatto molte iterazioni sulla UX e abbiamo creato una UX in cui c'è una barra degli strumenti e puoi semplicemente selezionare il testo. Nella nostra prima versione, non potevi selezionare il testo e lo abbiamo iterato. Il cliente ci ha detto che era inutile: non voleva cambiare il tono di tutto nel compositore. Ora puoi selezionare un po '.

"Mi colpisce sapere che potremmo trovarci di fronte a un mondo in cui il nuovo menu contestuale è come 'espandi', 'riassumi', 'rendilo più felice' e 'rendilo più formale'"

È quasi come modificare un'immagine. E abbiamo iniziato a pensare che qui ci fosse un paradigma emergente. Ricordo che una volta un elaboratore di testi in cui potevi scrivere in grassetto e in corsivo era come "wow". E ci chiediamo se, in futuro, le persone ci penseranno in termini di tono. È come "Oh, certo, voglio andare a modificare rapidamente il tono". Se alla fine della giornata sei stanco, hai scritto una bozza e dici: "Non sono stato abbastanza gentile, questo influenzerà il mio CSAT", basta andare a fare clic su un pulsante e modificare il tono e diventa più amichevole. Ed è più facile premere quel pulsante una o due volte piuttosto che andare e...

Des: Vai e riscrivilo.

Fergal: Riscrivere il testo è un lavoro.

Des: Mi colpisce sapere che potremmo guardare a un mondo in cui il nuovo menu contestuale è come "espandi", "riassumi", "rendilo più felice" e "rendilo più formale". Quelle saranno le trasformazioni che stai cercando di fare. Non è tanto che ti concentri sull'ottica del testo quanto sul tono.

Fergal: Assolutamente. Guarda, quando andiamo avanti e indietro in questo, diciamo, “è un giocattolo? Abbiamo costruito un bel giocattolo o è qualcosa di straordinario?" E penso che varierà a seconda del cliente, ma il caso audace per quella particolare caratteristica è: "Ehi, sono stanco alla fine della giornata e mi interessa molto il tono perché il mio CSAT è una grande metrica per me e questo è un modo per farlo. È un modo per offrire al cliente un'esperienza più piacevole.

Des: Prendi "scusa, ecco il tuo rimborso". Diresti "per favore, rendilo più empatico" o qualsiasi altra cosa.

Fergal: Abbiamo sperimentato l'empatia. Ciò a cui siamo effettivamente passati è "rendere le cose più formali, rendere le cose più amichevoli". Questo è il tipo di spettro che sembra funzionare davvero bene, quindi ci siamo andati. E immagino che si adatti a Intercom. Molte persone stanno cercando di offrire un'esperienza di supporto molto personale e amichevole.

“Molte volte, quando scrivi qualcosa, risulta sbagliato. Quindi puoi semplicemente dire: 'Ehi, riformulalo'"

Per essere completamente trasparenti, non siamo ancora sicuri di dove si trovi nello spettro dal giocattolo al prezioso. Alcuni clienti affermano che è molto prezioso e quindi continuiamo a valutarlo. Ma lo abbiamo in versione beta. Vogliamo dire ai nostri clienti che questo è il tipo di cose che stiamo costruendo e studiando.

Questa è una caratteristica. La prossima cosa che abbiamo iniziato a guardare è una funzione di riformulazione. E ancora, questi modelli linguistici sono molto bravi a prendere un pezzo di testo vincolato e modificarlo o cambiarlo. Inizi a vederlo con il riepilogo. Molte volte, quando scrivi qualcosa, risulta sbagliato. Quindi puoi semplicemente dire: "Ehi, riformulalo". E ancora, è quel tipo di UX veloce in cui devi solo evidenziarlo e fare clic su di esso. È solo un po' più facile che riscriverlo da soli. C'è un po' di latenza quando lo fai. Quindi, stiamo ancora valutando. Ma ad alcuni clienti, ancora una volta, piace molto, funziona davvero per loro nella loro attività e prevediamo che la latenza diminuirà nel tempo man mano che questi modelli migliorano sempre di più. Quindi questa è la riformulazione del testo. Queste sono una specie delle prime caratteristiche che abbiamo cercato nel compositore.

Ora, la questione dei biglietti più grandi viene dopo e stiamo iniziando a indagare sulle cose che potenzialmente cambiano di più il gioco. Una cosa che stiamo cercando di fare è ciò che chiamiamo la funzione di espansione. Siamo stati ispirati da cose come il copilota per programmatori. In copilota, puoi scrivere un commento e questo riempie l'intera funzione e ti fa risparmiare un sacco di tempo. E ci siamo detti, "Oh, possiamo costruire qualcosa che sia un po' così per l'assistenza clienti?" E l'idea è che forse scrivi un breve riassunto di ciò che vuoi e poi lo evidenzi, diciamo espandi, e il tuo compositore lo riempie. L'abbiamo fatto, l'abbiamo spedito ei clienti vedono chiaramente che si tratta di un oggetto prezioso e non di un giocattolo, se funziona. Ma funziona molto meglio in alcuni domini rispetto ad altri. Se stai rispondendo a domande che le informazioni generiche da Internet farebbero un buon lavoro di-

Des: Come se dovessi resettare il tuo telefono o altro.

Fergal: Sì, esattamente. Funziona molto bene per questo. Tuttavia, se stai cercando di fare qualcosa in cui stai scrivendo una scorciatoia e in realtà c'è molto contesto specifico per la tua attività su come rispondi a questo tipo di domanda, allora può avere allucinazioni e dirà qualcosa che devi modificare fuori. Tuttavia, ad alcuni clienti piace molto e funziona davvero bene per loro. Ma pensiamo davvero che sia una specie di versione uno. Se stai usando questo, devi controllarlo e vedere come funziona per te e la tua azienda. Tuttavia, abbiamo un progetto che valuta costantemente nuove cose per questo, dove è come "Ehi, possiamo prendere le risposte precedenti che hai dato sugli stessi argomenti?" Quindi ci fornisci riassunti di tre parole di ciò che vuoi fare, come "rimborsare i ringraziamenti del cliente", e andremo a cercare le ultime cinque cose che hai detto sui rimborsi. Andremo anche a vedere se magari hai una macro sui rimborsi. Vedremo anche il contesto della conversazione in anticipo.

“Quello che stiamo sperimentando è: possiamo superare la gobba? Possiamo iniziare a creare qualcosa di veramente trasformativo inserendo quel contesto?

Des: Se c'è qualcosa nel centro assistenza, tutto quel genere di cose.

Fergal: Non siamo andati così lontano da estrarre articoli e roba dal centro assistenza. Abbiamo appena esaminato ciò che tu e l'utente avete detto due turni fa, li abbiamo inseriti tutti in un prompt che poi dirà: "Okay, con tutte queste informazioni, per favore vai e prendi quella scorciatoia di tre parole e anti-riassumi trasformalo in una grande cosa.

Des: Sì, totalmente. Quindi ci vorrà "Scusa, ecco un rimborso, grazie" in "Ci scusiamo davvero per l'inconveniente. Abbiamo emesso un rimborso e dovresti vederlo entro tre o quattro giorni. E ci dispiace…”

Fergal: Nello stile che usi di solito – tu personalmente, il singolo agente – e tenendo conto anche di tutte le macro rilevanti che hai. Questo è davvero dove siamo. E quell'ultimo pezzo non è ancora in produzione. Il V1 è in produzione. Il V1 è stato utilizzato da centinaia di clienti beta. Ma quello che stiamo sperimentando è: possiamo superare la gobba? Possiamo iniziare a creare qualcosa di veramente trasformativo inserendo quel contesto? E questo è ancora in corso. Direi che siamo ottimisti ma non ancora certi. Questo sta cambiando di settimana in settimana per noi, quindi ne siamo molto entusiasti. E questa è la versione della funzione di espansione uno al momento. Ma possiamo vedere la versione due e la versione tre in arrivo.

Efficienza del supporto alla guida

Fergal: L'ultima funzionalità che abbiamo sperimentato nella nostra versione beta è stata quella di offrire ai nostri clienti l'accesso diretto a GPT. Quindi, nessuna richiesta, non dire nulla alla modella, solo dire: "Ehi, metti quello che vuoi lì dentro". E l'abbiamo fatto davvero come un esperimento beta in rapido movimento. Non abbiamo fornito ai nostri clienti in beta molte indicazioni su come usarlo. Ne abbiamo confusi alcuni e non è andata così bene, ma alcuni clienti hanno trovato nuovi casi d'uso, inclusa la traduzione, in cui stava offrendo loro un valore reale. Ora, questi modelli non sono i migliori nella traduzione, ma forse questa è un'interessante tattica di sviluppo del prodotto AI, che è come, "Ehi, se hai clienti beta, forse dai loro un po' più potere di quanto potresti aspettarti e ti diranno di cosa hanno bisogno.

Des: Guarda cosa sta emergendo. Guarda anche cosa ci si aspetta.

Fergale: Esattamente. E le aspettative, penso, cambieranno velocemente in questo. Forse questo ci dice che abbiamo bisogno di traduzione perché ci sono modelli di traduzione molto ben compresi là fuori.

“Forse ha una fonte accanto, e all'improvviso, quei cinque minuti di ricerca della risposta diventano istantanei. Ed è qui che inizia a cambiare davvero il gioco "

Des: Quindi sembra che tutte queste funzionalità massimizzino l'efficienza per i team di supporto. Riducono molto l'indifferenziato, sia che si tratti di intro e outro o che si tratti semplicemente di riscrivere qualcosa che potrebbero non avere l'energia per renderlo più felice o più formale. Sono tutti modi diversi per far risparmiare molto tempo agli agenti dell'assistenza in prima linea. Alla fine dando loro più tempo per concentrarsi sulle parti più difficili della conversazione, che sono le ricerche tecniche o le immersioni profonde. È lì che sarà meglio distribuito? È questa la nostra idea migliore finora? Quando pensi a dove altro possiamo implementare questa tecnologia in stile GPT nell'esperienza di supporto, a cos'altro stai pensando?

Fergal: I nostri clienti più grandi hanno molti rappresentanti di supporto che trascorrono giorno dopo giorno nel compositore. E quindi, se riusciamo a renderli più veloci ed efficienti, un guadagno di efficienza del 10% o del 20% è assolutamente enorme.

Des: Certo, sì. Abbiamo clienti con migliaia di postazioni, quindi è davvero trasformativo.

Fergale: Esattamente. Rivoluzionario. E questa è un'area da cui siamo stati molto attratti. E questa tecnologia sta migliorando sempre di più. Non è l'unico posto, ma siamo davvero ottimisti al riguardo. Alcuni dei nostri clienti condivideranno molto bene i video con noi della loro vita quotidiana. E vedi questo flusso di lavoro in cui è come, “Ehi, sto cercando di rispondere a una domanda e non conosco la risposta. Devo andare a cercare un articolo dell'help desk interno o trovare una conversazione simile e sto navigando". Se riusciamo a cortocircuitarlo al punto in cui è come, “Ehi, ecco l'IA. Forse gli dici qualche parola…” O forse andiamo oltre. Abbiamo altri prototipi di cui parlerò tra qualche minuto in cui forse la risposta è lì che ti aspetta. Forse ha una fonte accanto, e all'improvviso, quei cinque minuti di ricerca della risposta diventano istantanei. Ed è qui che inizia a cambiare davvero il gioco. Penso che sia lì che andremo molto presto.

Des: Sì, ha senso. Piccoli guadagni su grandi team sono ancora enormi, e quindi ovviamente anche grandi guadagni in un particolare flusso di lavoro, la cosa del riepilogo, sono enormi. Penso che alcune persone abbiano questo strano mondo binario in cui finché non abbiamo automatizzato tutto il supporto, non abbiamo fatto nulla. La mia opinione personale è che non credo che automatizzeremo mai tutto il supporto. Quello che penso che faremo è letteralmente sventrare la parte indifferenziata del supporto, il "clic appuntito", le cose "intro-y outro-y" in cui fai la stessa cosa ogni giorno.

Fergal: E si spera che ti libererai delle loro parti frustranti. Stai navigando, stai cercando di cercare, e sai che la risposta è qui da qualche parte. Sai di aver risposto a questa domanda cinque volte il mese scorso, ma non riesci a trovarla.

"Onestamente, queste funzionalità stanno superando la soglia dell'utilità molto più velocemente di quanto mi sarei aspettato"

L'ultima funzionalità disponibile in versione beta è un espansore basato su articoli. Questo è qualcosa che stiamo vedendo diventare quasi una funzionalità standard molto rapidamente. Ovunque tu stia scrivendo un articolo di testo, diventerà standard che desideri la possibilità di richiamare un modello linguistico di grandi dimensioni e dire: “Ehi, aiutami a completare questo, espandere questo. Ecco i miei punti elenco. E così, lo spediamo nella nostra versione beta per il prodotto degli articoli Intercom. Di nuovo, è ancora presto. Tutta questa roba è in anticipo: sono passate da sei a otto settimane, ma a volte è magico. A volte puoi andare a scrivere quattro o cinque punti elenco per descrivere il contenuto di un articolo, e poi, nel prompt, gli diamo il formato standard di un articolo Intercom, così sa come andare e metterli nei titoli e presto. È magico quando funziona e quanto spesso funziona e quanto bene funziona per le persone. Devi ancora controllare il contenuto. Può mettere cose lì dentro, ma pensiamo che ci siano modi per ridurlo. E onestamente, queste funzionalità stanno superando la soglia dell'utilità molto più velocemente di quanto mi sarei aspettato. Quindi sì, lo stiamo sperimentando.

L'ultima frontiera

Des: Allora, più lontano, qual è la tua opinione sulla traiettoria di tutto questo? Dove da qui?

Fergal: Queste sono le cose che abbiamo avuto in beta. Abbiamo avuto centinaia di clienti che li utilizzano e abbiamo un segnale reale sul valore del cliente. Ti dirò esattamente dove siamo ora in produzione con l'apprendimento automatico. Negli ultimi due giorni, abbiamo avuto una funzione che il nostro team CS interno sta utilizzando: in passato, abbiamo avuto una funzione di risposte intelligenti in cui estrarrà i tuoi saluti comuni. Queste sono le cose che non hanno informazioni, che non rispondono alla domanda dell'utente – stanno solo oliando le ruote, rendendolo veloce, scattante e facile da dire: “Oh, grazie. Prego. C'è qualcos'altro che posso fare?" E questa tecnologia è meravigliosa per quel genere di cose. I linguisti le chiamano espressioni fatiche.

Negli ultimi giorni, ne abbiamo inviato una versione al nostro team Intercom CS in cui vedono questo testo in grigio precompilato nel compositore, ma è rilevante per la conversazione specifica. Quindi, se in precedenza hanno detto "Ciao, posso aiutarti" e l'utente ha detto "Oh sì, voglio aiuto con il prodotto degli articoli", allora suggerirebbe: "Oh sì, fammi cercare gli articoli prodotto per te.” Non lo cercherà ancora per te, ma lo faremo. Tre o quattro giorni fa, ci siamo detti, “Okay, lo spedirò internamente. Non siamo sicuri se diventerà fastidioso e se le persone diventeranno cieche perché lo vedono spesso e aiuta solo per un sottoinsieme "e siamo sempre molto cauti al riguardo. Ma finora, la risposta interna del nostro team CS è stata eccezionale. E così, intendiamo continuare a lavorare su questo. Forse dobbiamo mettere un altro sistema che limiti la frequenza con cui si mostra. Questa è una cosa su cui stiamo lavorando.

Ho menzionato prima il pezzo di espansione, e ora stiamo lavorando su "Ehi, possiamo farlo anche senza la scorciatoia?" Possiamo capire cosa stai per digitare dopo in base a ciò che gli utenti hanno appena detto? E andremo a cercare nella tua base di conoscenza, proveremo a trovare un contesto pertinente e lo daremo al modello. Il modello in sé non è abbastanza buono per farlo. Non conosce i tuoi affari, ma forse possiamo potenziarlo. Forse possiamo usare una combinazione di testo di apprendimento automatico più tradizionale con il modello e ottenere qualcosa di buono. Abbiamo prototipi e ci stiamo lavorando, ma non li abbiamo ancora spediti ai nostri clienti, nemmeno in forma beta, perché stiamo ancora valutando se è abbastanza buono da essere trasformativo o se diventa noioso e fastidioso. Dove sia quella soglia non è chiaro. Siamo un po' più ottimisti riguardo allo stile di espansione in cui devi richiederlo perché l'utente può imparare quando farlo. Possono imparare a interrogarlo. Tutti abbiamo dovuto imparare a utilizzare Google e prevediamo che anche gli utenti diventeranno molto più bravi a gestire questi sistemi.

Questo è più o meno dove siamo. Ci stiamo muovendo velocemente e spediamo rapidamente le cose ai clienti per verificare davvero e ottenere un valore reale qui. Stiamo cercando di stare attenti a non cadere nella trappola dell'hype. Crediamo che ci sia un enorme potenziale qui, ma è troppo facile attaccare una pagina di destinazione e dire: “Prendila qui. Risponderà a tutto. E questo non va bene. Le persone diventeranno cieche e si spegneranno.

"Tutti l'hanno visto e dicono, 'ChatGPT è davvero buono. Se potessi ottenere una tecnologia del genere per aiutare con il mio supporto clienti, sarebbe enorme.' Ma non lo farà dallo scaffale. Non conosce i tuoi affari”

Des: Penso che danneggi la tua reputazione se dici "questa cosa fa qualcosa" e chiaramente non lo fa, ma l'hai fatto per i clic o altro. Sembra che il vero prodotto che tutti stanno aspettando in questo nuovo spazio sia il bot rivolto all'utente finale che risponde sempre correttamente alla maggior parte delle domande. Pensieri in merito? Settimane, mesi, giorni?

Fergal: Ovviamente, è un'area enorme per tutti. Non sottovaluterei anche il compositore – una parte delle domande scorrerà sempre al compositore. E se riusciamo a ridurre quel tempo per quelli, è enorme. Ma assolutamente, uno degli enormi premi in quest'area è se possiamo prendere l'esperienza di comprensione conversazionale che abbiamo visto con ChatGPT e farla funzionare per la tua attività individuale evitando allucinazioni? Ci sono molte persone che stanno indagando su questo. Stiamo indagando anche su questo. Abbiamo prototipi interessanti e promettenti, ma non sappiamo ancora con certezza se abbiamo varcato quella soglia in cui le allucinazioni sono abbastanza rare da valere la pena farlo ed è prezioso. Stiamo iniziando a vedere alcune opinioni cristallizzarsi internamente, ma non siamo ancora pronti a condividere a che punto siamo con questo.

Des: Assolutamente giusto. Bene, immagino che faremo di nuovo il check-in tra altre sei settimane o giù di lì.

Fergal: È stato un periodo molto veloce. Guarda, questo è un campo molto eccitante in cui lavorare. Le aspettative dei clienti sono molto alte. Tutti l'hanno visto e dicono: "ChatGPT è davvero buono. Se potessi ottenere una tecnologia del genere per aiutare con il mio supporto clienti, sarebbe enorme. Ma non lo farà dallo scaffale. Non conosce i tuoi affari. Non puoi davvero metterlo a punto oggi. Anche se potessi perfezionarlo sulla tua attività specifica, probabilmente non lo farebbe. Dobbiamo trovare tecniche intelligenti e penso che aziende come Intercom siano ben posizionate per provare a farlo. E sì, ci sono molti modelli tecnologici e linguistici interessanti là fuori. Sono davvero entusiasta di vedere tutta l'innovazione in questo spazio.

Des: Fantastico. Grazie mille.

Fergal: Grazie. Grazie.

Fai clic qui per unirti alla lista d'attesa beta per le nostre funzionalità AI o ricevere notizie AI da Intercom.