Avvio della conversazione: una chiacchierata sul nostro rivoluzionario nuovo chatbot AI
Pubblicato: 2023-03-15Il mondo dell'IA si sta muovendo velocemente e noi di Intercom stiamo aiutando a stabilire quel ritmo. Oggi siamo lieti di presentare Fin, il nostro nuovo chatbot alimentato da GPT-4 di OpenAI e dalla tecnologia proprietaria di machine learning di Intercom.
Solo poche settimane fa, abbiamo annunciato le nostre prime funzionalità basate su GPT in Intercom, una gamma di strumenti utili per i rappresentanti del servizio clienti, e i nostri clienti hanno apprezzato molto l'efficienza extra offerta da queste funzionalità.
Il grande obiettivo, tuttavia, era creare un chatbot basato su GPT in grado di rispondere direttamente alle domande dei clienti. Per fare questo, doveva essere in grado di sfruttare la potenza dei grandi modelli linguistici ma senza gli inconvenienti posti dalle "allucinazioni". Inizialmente, non eravamo sicuri di quanto tempo ci sarebbe voluto per risolvere questo problema, ma ora, con il rilascio di GPT-4 da parte di OpenAI, possiamo rivelare che abbiamo creato un chatbot in grado di rispondere in modo affidabile alle domande dei clienti secondo uno standard elevato . L'abbiamo chiamato Fin.
Nell'episodio di oggi del podcast Inside Intercom, mi sono seduto con il nostro direttore dell'apprendimento automatico, Fergal Reid, per discutere del nostro nuovo chatbot basato sull'intelligenza artificiale, di come l'abbiamo costruito, cosa fa e quali sono i prossimi passi per questa straordinaria svolta.
Ecco alcuni dei punti chiave:
- Il nostro nuovo chatbot AI può conversare in modo naturale utilizzando la più recente tecnologia GPT.
- Fin acquisisce le informazioni dal tuo centro assistenza esistente e utilizza solo tali conoscenze, dandoti il controllo su come risponde alle domande sulla tua attività.
- In Intercom, crediamo che il futuro del supporto sia un mix di robot e umani. Fin non sarà in grado di rispondere a tutte le domande dei clienti e, in tali situazioni, può passare senza problemi domande più difficili ai team di supporto umano.
- Abbiamo ridotto le allucinazioni di circa 10 volte, costruendo vincoli che limitano Fin alle domande relative alla tua attività, sulla base di una base di conoscenza di cui ti fidi.
Se ti piace la nostra discussione, dai un'occhiata ad altri episodi del nostro podcast. Puoi seguire su Apple Podcasts, Spotify, YouTube o prendere il feed RSS nel tuo lettore preferito. Quella che segue è una trascrizione leggermente modificata dell'episodio.
Un bot con qualsiasi altro nome
Des Traynor: Benvenuto in un emozionante episodio del podcast Intercom. Sono ancora una volta raggiunto da Fergal Reid, il nostro direttore del Machine Learning, e ci parlerà del lancio di qualcosa che ci è stato chiesto praticamente ogni giorno dal lancio di ChatGPT.
"Questo sarà in realtà un bot che puoi utilizzare per la tua attività che ha la capacità di elaborazione del linguaggio naturale di ChatGPT ma risponderà a domande specifiche sulla tua attività"
Fergal Reid: Sì, grazie Des. Da quando è uscito ChatGPT, le persone dicevano: "Ehi, posso usarlo per rispondere alle mie domande di supporto per la mia attività?" E noi dicevamo sempre, 'Oh, non lo sappiamo. Non siamo sicuri delle allucinazioni». Ma oggi penso che siamo davvero entusiasti di annunciare che siamo davvero entusiasti di questo prodotto perché pensiamo di averlo fatto. Pensiamo di aver creato qualcosa: questo sarà in realtà un bot che puoi utilizzare per la tua azienda che ha la capacità di elaborazione del linguaggio naturale di ChatGPT ma risponderà a domande specifiche sulla tua attività e lo abbiamo creato utilizzando il tuo centro assistenza in modo che non risponderà a domande casuali da Internet o altro. Puoi controllare cosa dice. Il tasso di precisione è salito molto. Siamo riusciti ad aumentare notevolmente il tasso di precisione utilizzando il nuovo modello GPT-4 di OpenAI e a cui hai accesso in versione beta. Quindi sono davvero entusiasta di questo.
Des: Quindi l'idea è che ciò che le persone hanno sperimentato e di cui si sono innamorate in ChatGPT, che è effettivamente questo bot a cui puoi chiedere qualsiasi cosa e che dà una buona pugnalata alla risposta. Puoi farlo per la tua azienda?
Fergale: Sì. Una specie di. Quindi l'abbiamo fatto deliberatamente in modo che tu non possa chiedergli nulla. L'idea è quella di creare qualcosa che abbia lo stesso tipo di comprensione della conversazione che abbiamo visto con ChatGPT, ma che risponda specificamente solo alle domande sulla tua attività. Puoi chiedergli qualcosa di selvaggio come, chi era il 22esimo presidente d'America? E sarà come, 'Ehi, sono qui solo per rispondere alle domande dell'assistenza clienti su questa attività specifica.'
Des: Fantastico. Quindi in realtà sa effettivamente cosa dovrebbe e cosa non dovrebbe tentare?
Fergal: Sì, esattamente. Questa è l'idea.
Una svolta bot
Des: Mi sembra che sette o otto settimane fa hai detto che non l'avremmo fatto perché non era possibile o non sarebbe stato facile o qualcosa del genere?
“Tutti i clienti ce lo chiedevano”
Fergal: Quindi, sei o sette settimane fa, quando abbiamo iniziato a esaminare questa tecnologia, inizialmente quando l'abbiamo esaminata per la prima volta ci siamo detti, 'Wow, possiamo costruirla? Possiamo creare ChatGPT per la tua azienda?' Era in cima alle menti di tutti. Ogni cliente ce lo chiedeva. Lo stavamo guardando e stavamo dicendo, accidenti, questo ha molte allucinazioni, questo ti darà risultati imprecisi. Risultati selvaggiamente imprecisi, cose totalmente inventate, dicevamo "È una tecnologia molto eccitante, ma non siamo sicuri di poterla effettivamente limitare e impedire che sia abbastanza allucinante". E abbiamo passato molto tempo a giocare con GPT, ChatGPT, GPT-3.5.
“Quando abbiamo iniziato a giocarci, abbiamo pensato, wow, sembra molto meglio. Può ancora avere allucinazioni a volte, ma allucinazioni molto meno, forse 10 volte meno”
Non potremmo mai fargli sapere quando non sa qualcosa. Ma recentemente abbiamo avuto accesso a una nuova beta di OpenAI del loro nuovo modello GPT-4. E una delle cose che ci hanno detto è stata: "Ehi, questo è progettato per avere allucinazioni molto meno rispetto ad alcuni degli altri modelli che abbiamo visto in passato". E così, sai, ci siamo detti, 'Wow, sembra molto interessante. Sembra molto eccitante, GPT-4, cosa farà?' E abbiamo fatto uno sforzo per guardare questo e sottoporlo ad alcuni dei nostri banchi di prova per controllare ed esaminare le allucinazioni. E quando abbiamo iniziato a giocarci, abbiamo pensato, wow, sembra molto meglio. Può ancora avere allucinazioni a volte, ma ne ha molte meno, forse 10 volte meno, qualcosa del genere. E quindi eravamo estremamente entusiasti. Eravamo tipo, 'Wow, okay, improvvisamente sembra che questo sia qualcosa. Questo è abbastanza buono per costruire un bot, questa è una generazione avanti rispetto al GPT-3.5 che stiamo usando. È solo molto più avanti, in termini di affidabilità.
Des: Emozionante. Cosa fa il test: ci sono test di tortura a cui sottoponiamo questi robot per vedere esattamente se sanno che stanno facendo cazzate, in pratica?
Fergal: Quindi non siamo così avanti. Per la nostra precedente generazione di modelli, ad esempio per i bot di risoluzione, avevamo questo set di benchmark di test testati in battaglia davvero, davvero ben sviluppato che avevamo costruito nel corso degli anni. Tutta questa nuova tecnologia è vecchia di mesi, quindi non abbiamo dei principi così. Ma abbiamo identificato una serie di casi limite, solo cose specifiche. Abbiamo un foglio di calcolo in cui teniamo traccia di tipi specifici di modalità di errore che stiamo vedendo con questi nuovi modelli. E così quando è arrivato GPT-4, sei tipo, okay, proviamolo. Vediamo cosa succede quando gli fai una domanda che non è affatto contenuta in un articolo o in una knowledge base. Oppure gli fai una domanda simile, ma non del tutto uguale a quello che c'è realmente.
E sai, con GPT-3.5 e con ChatGPT, se non sa qualcosa, è quasi come se volesse farti piacere, darti quello che vuoi. E così si inventa qualcosa. E con GPT-4, ovviamente hanno fatto un sacco di lavoro per ridurlo. E questo è davvero ovvio per noi. Quindi, quando lo sottoponiamo ai nostri test, è possibile che dica "Non lo so" o che esprima molto di più l'incertezza. Questo è stato un vero punto di svolta per noi.
"In Intercom, crediamo che il futuro del supporto sia un mix di robot e umani"
Des: E se il bot non lo sa, può passare a un essere umano?
Fergale: Assolutamente. Noi di intercom crediamo che il futuro del supporto sia un mix di robot e umani. Abbiamo molta esperienza con il bot di risoluzione nel fare un bel passaggio di consegne dal bot al rappresentante dell'assistenza umana, sperando di ottenere quel rappresentante dell'assistenza prima della conversazione e pensiamo che dobbiamo ancora farlo con questo bot. Ci saranno sempre problemi in cui, ad esempio, qualcuno chiede un rimborso. Forse vuoi che un essere umano lo approvi. Quindi ci dovrà sempre essere un percorso di approvazione umana. In Intercom abbiamo un'ottima piattaforma per i flussi di lavoro e sarai in grado di usarla per controllare quando il bot consegna e come consegna. Faremo in modo che questo nuovo bot si integri con la nostra piattaforma esistente proprio come ha fatto il nostro bot esistente.
Des: E presumo che il bot avrà disambiguato o qualificato una query in qualche modo, forse riassunta, anche mentre la consegna?
Fergal: Al momento non abbiamo alcuna funzione di riepilogo, ma il bot tenterà di disambiguare e ottenere una risposta del cliente. Il nostro bot di risoluzione esistente fa un po' di questo. Questo nuovo bot, poiché è molto più efficace nell'elaborazione del linguaggio naturale, può farlo in modo più efficace. Quindi ciò potrebbe significare che il tempo di gestione diminuisce per il tuo rappresentante, per le domande che il bot ha toccato. Quindi sì, anche piuttosto entusiasta di questo.
L'arte della conversazione
Des: Gli ascoltatori del nostro podcast Intercom On Product saprebbero che mi piace spesso dire che avere una capacità, anche una nuova capacità utile, non è sufficiente per avere un ottimo prodotto. Come hai realizzato un prodotto? Quali erano i tuoi obiettivi? Quali sono gli obiettivi di progettazione per la creazione di un prodotto reale attorno a questa funzionalità GPT-4?
Fergal: Quindi ci siamo resi conto abbastanza presto che c'era davvero una serie di obiettivi di progettazione verso cui stavamo cercando di dirigerci. Prima di tutto, con ChatGPT volevamo catturare la comprensione del linguaggio naturale che le persone vedevano e da cui erano molto colpite. Volevamo ottenere una generazione al di sopra di ciò che era, di ciò che c'era prima. Quindi, se fai una domanda piuttosto complicata o fai una domanda, allora fai una domanda successiva, che capisca che la seconda domanda deve essere interpretata alla luce di quella precedente. Il nostro bot precedente non lo faceva. E la maggior parte dei robot là fuori, semplicemente non lo fanno. Era semplicemente troppo difficile. Sai, le conversazioni sono ambienti molto complicati per gli algoritmi di apprendimento automatico. C'è molta sottigliezza, interazione e una sorta di conversazione di supporto, ma questa nuova tecnologia sembra funzionare alla grande. Quindi il nostro primo obiettivo è catturarlo.
"C'è molta sottigliezza, interazione e una sorta di conversazione di supporto, ma questa nuova tecnologia sembra funzionare alla grande in questo"
Des: Quindi, ad esempio, potresti fare una domanda e dire "Hai un'app per Android?" Beh, che mi dici dell'iPhone?' Mi piace, per chiedere, 'E l'iPhone?' non ha senso a meno che tu non l'abbia analizzato in precedenza con "Hai un'app per Android?", come esempio. Quindi si tratta di incollare le cose insieme per capire la continuità e il contesto della conversazione.
Fergale: Esattamente. E con ciò, scorre in modo più naturale. Lo notiamo in modo specifico con il nuovo bot quando gli fai una domanda e ottieni una risposta e non è esattamente quello che hai chiesto, puoi semplicemente dire "Oh, ma no, volevo davvero chiedere i prezzi". E in un certo senso lo capisce e ti darà la risposta più pertinente. Riteniamo che sia una vera tecnologia rivoluzionaria.
Des: Può respingerti e dire: 'Di' di più?' Può farti domande successive per qualificare le tue domande? Quindi, se ti viene in mente qualcosa di vago, come, 'Ehi, questa cosa funziona?' Cercherebbe di risolverlo? Oppure risponderebbe con: "Ho bisogno di qualcosa di più".
"Per costruire effettivamente una buona esperienza di prodotto, è quasi come se avessimo un sacco di flessibilità e un sacco di potenza, ma ora ciò di cui abbiamo bisogno è la capacità di limitarlo e controllarlo"
Fergal: Quindi, nativamente, gli algoritmi faranno una certa quantità di questo, ma con questo tipo di tecnologia, otteniamo questa capacità molto avanzata e quindi in realtà quello che stiamo cercando di fare è cercare di limitarla molto. Stiamo effettivamente cercando di dire: "Va bene, puoi fare tutto questo fuori dagli schemi, ma abbiamo bisogno di più controllo". In realtà, come hai accennato prima, per costruire una buona esperienza di prodotto, è quasi come se avessimo un sacco di flessibilità e un sacco di potenza, ma ora ciò di cui abbiamo bisogno è la capacità di limitarlo e controllarlo. Quindi abbiamo costruito esperienze del genere. Abbiamo creato un'esperienza di disambiguazione in cui, se fai una domanda e non ci sono abbastanza informazioni, cerchiamo di chiarirla, ma la controlliamo.
Abbiamo progettato prompt in cui hai applicazioni per scopi speciali con la tecnologia per eseguire ogni attività nella conversazione. Quindi abbiamo una richiesta per farti fare una domanda; un altro per disambiguare una domanda; un altro per verificare se una domanda ha ricevuto una risposta completa per te. E così iniziamo con questo modello linguistico molto potente, ma in realtà vogliamo solo usarlo come elemento costitutivo. Vogliamo controllarlo. Raggiungiamo quel controllo suddividendolo in moduli speciali che fanno ogni cosa separatamente.
Con un ottimo prodotto derivano grandi responsabilità
Des: Quindi, a livello fondamentale, diciamo che può conversare in modo naturale. Il più grande vantaggio di questo, a mio avviso, come prodotto è che ti sentirai a tuo agio nel metterlo come prima linea di soluzione di fronte ai tuoi clienti. Stavo per dire difesa, ma non è un'operazione militare. Ma ti sentiresti a tuo agio a metterlo là fuori come per dire: "Ehi, la maggior parte delle conversazioni va qui". E il fatto che possa avere un avanti e indietro, possa mantenere il contesto, possa disambiguare significa che è ben attrezzato per farlo. Cos'altro hai aggiunto? Non è solo seduto lì a chiacchierare, quindi cos'altro fa?
Fergal: La prima cosa che direi è che le diverse aziende probabilmente avranno diversi livelli di comfort in termini di come lo implementano. Alcune persone probabilmente diranno: "Bene, ho un centro assistenza davvero eccezionale", e questo bot che abbiamo creato trae tutte le sue informazioni dal tuo centro assistenza. Tornerò su questo. Ma alcune persone potrebbero dire: "Ho un ottimo centro assistenza". È molto ben curato. Nel tempo ho inserito molti articoli e voglio che il bot dialoghi e risponda a tutte queste domande.' Ci saranno altri clienti che vorranno che il bot entri in modo più opportunistico e si ritiri [da solo], e stiamo lavorando alla creazione di impostazioni per consentire alle persone di controllare il loro livello di comfort con quello.
Des: Una sorta di soglia per quando il bot dovrebbe entrare.
"Stiamo integrando il bot con tutti i nostri flussi di lavoro esistenti per aiutarti a ottenere quel controllo su quando vuoi che entri e, cosa più importante, quando vuoi che lasci in modo da poter passare al tuo team di supporto esistente quando viene raggiunto la sua fine”
Fergale: Esattamente. E al momento abbiamo una capacità di flussi di lavoro piuttosto ampia che puoi utilizzare. E stiamo integrando il bot con tutti i nostri flussi di lavoro esistenti per aiutarti a ottenere quel controllo su quando vuoi che entri e, cosa più importante, quando vuoi che se ne vada in modo da poterlo consegnare al tuo team di supporto esistente quando viene raggiunto la sua fine.
Des: Quindi, se non ci sono agenti di supporto online, o se l'utente è libero, basta inviarli direttamente al bot. Se si tratta di un cliente VIP e gli agenti sono inattivi, inviali direttamente all'agente.

Fergale: Esattamente. Quindi quello che stiamo cercando di fare qui è prendere questa nuova tecnologia e poi integrarla con la nostra piattaforma esistente, che ha tutte quelle funzionalità di cui le persone hanno bisogno per costruire quella che sarebbe considerata una distribuzione di bot standard del settore.
"Il prossimo grande obiettivo di progettazione che avevamo era evitare le allucinazioni"
Quindi il prossimo grande obiettivo di progettazione che avevamo era evitare le allucinazioni. Abbiamo parlato della riduzione delle allucinazioni e di come fosse un nostro obiettivo di progettazione far dialogare il bot in modo naturale. Ma volevamo davvero dare ai nostri clienti il controllo sul tipo di domande a cui poteva rispondere. Ora questi bot, questa nuova tecnologia di intelligenza artificiale, hanno accesso a un modello linguistico di grandi dimensioni ed è stato addestrato sull'intero testo di Internet. Quindi ha tutta quella conoscenza lì dentro. E un modo, più o meno il modo più semplice, per implementarlo è dire: "Ehi, farò in modo che il bot risponda alle domande utilizzando tutte le sue informazioni su Internet". Ma il problema è che se non sa qualcosa, può inventarsela. O se sa qualcosa, forse non vuoi che parli con i tuoi clienti di un argomento potenzialmente delicato di cui sai di avere informazioni. Potresti pensare: "Non sono sicuro di come si senta la mia attività o il mio marchio, sai, qualunque informazione, è uscita da uno strano sito web". Non voglio che abbia quella conversazione con il mio cliente.'
“Abbiamo lavorato molto per utilizzare il modello del linguaggio esteso per essere conversazionale; per usarlo per comprendere un articolo del Centro assistenza che hai; ma per costringerlo a fornire solo informazioni che si trovano in un vero articolo del centro assistenza che controlli e che puoi aggiornare e puoi cambiare e modificare "
Quindi abbiamo lavorato molto per utilizzare il modello del linguaggio ampio per essere conversazionale; per usarlo per comprendere un articolo del Centro assistenza che hai; ma per costringerlo a fornire solo informazioni che si trovano in un vero articolo del Centro assistenza che controlli e che puoi aggiornare e puoi cambiare e modificare. E quindi questo è stato uno dei principali obiettivi di progettazione per noi, cercare di rendere questo bot affidabile, prendere i modelli linguistici di grandi dimensioni, ma costruire un bot che sia vincolato a usarli solo per rispondere alle domande sulla tua attività e sul centro assistenza della tua azienda.
È stato un sacco di lavoro e ne siamo molto orgogliosi. Pensiamo di avere qualcosa di veramente buono perché ottieni quel pezzo di conversazione. Ottieni l'intelligenza del modello AI per ottenere una risposta effettiva da un articolo del centro assistenza, ma è limitato. Quindi non comincerà ad avere conversazioni casuali con gli utenti finali.
Questi bot, questi modelli, è sempre possibile - se li fai jailbreak - in qualche modo indurli a dire qualcosa che è off-brand o che non vorresti. E probabilmente è ancora possibile, ma sentiamo davvero di essere arrivati a un punto in cui ciò richiederebbe un determinato tentativo di hacking per farlo funzionare davvero. Non andrà radicalmente fuori copione solo nelle normali conversazioni.
Penso che una cosa molto importante da chiarire sia che questi grandi modelli linguistici sono probabilistici. Le allucinazioni sono diminuite molto e pensiamo che ora sia accettabile per molte aziende, ma non è zero. Occasionalmente forniranno informazioni irrilevanti. Di tanto in tanto forniscono informazioni errate quando hanno letto il tuo articolo del Centro assistenza, non hanno compreso appieno e quindi rispondono in modo sbagliato a una domanda. Forse anche un agente di supporto commetterà errori...
Des: Si sa che gli esseri umani...
Fergal: Di tanto in tanto anche gli umani sono noti per commettere errori. E così, questi robot, sai, è una nuova era della tecnologia. Ha un compromesso diverso da quello che avevamo prima. Forse alcuni dei nostri clienti diranno: "Voglio aspettare". Non voglio ancora implementarlo.' Ma pensiamo che, per molti, molti clienti, questo supererà la soglia, dove il vantaggio di [poter dire] 'Non ho bisogno di fare la cura, non ho bisogno di fare la configurazione che io' ho avuto a che fare in passato con il bot di risoluzione, posso semplicemente attivarlo, il primo giorno, e improvvisamente tutta la conoscenza che è nel mio centro assistenza, il bot ce l'ha, il bot può provare a rispondere alle domande con esso.' Non sarà perfetto, ma sarà veloce. Pensiamo che sarà un compromesso utile per molte aziende.
Des: In termini di installazione, se sei un cliente con una buona base di conoscenza, quanto tempo impieghi per passare da quella a un buon bot? Quanta formazione è coinvolta? Quanta configurazione?
Fergal: Pochissimo tempo. Fondamentalmente nessuna formazione. Puoi semplicemente prendere il nuovo sistema che abbiamo creato e indirizzarlo al tuo Centro assistenza esistente. È un po 'di tempo di elaborazione in cui dobbiamo tirarlo dentro e grattarlo e preparare gli articoli per essere serviti.
Des: Minuti? Secondi?
Fergal: Ci stiamo ancora lavorando. Siamo tra pochi minuti in questo momento, ma pensiamo - forse quando andrà in onda - sarà molto più basso di così. Non c'è nessun collo di bottiglia di ingegneria difficile per renderlo molto, molto basso. E quindi ne siamo molto entusiasti.
Un riepilogo del prodotto
Des: Quindi, in sintesi, dacci i punti elenco di questo prodotto. Cosa dovremmo dire al mercato a riguardo?
“Parlerà con te in modo naturale, come hai visto con ChatGPT. La seconda cosa è che tu, come azienda, puoi controllare ciò che dice "
Fergal: La prima cosa che direi è che parlerà con te in modo naturale, come hai visto con ChatGPT. La seconda cosa è che tu, come azienda, puoi controllare ciò che dice. Puoi limitare le cose di cui parlerà ai contenuti della tua knowledge base. La terza cosa che direi è che le allucinazioni sono molto al di sotto di dove erano. E la quarta cosa che direi è che è davvero facile da configurare. Prendi questo, lo indichi al tuo set di conoscenze esistente e non hai bisogno di fare un sacco di cure.
Des: Dato che siamo Intercom, non è probabile che chiacchieriamo di merda e ci impegniamo in un sacco di clamore senza almeno alcune qualifiche. Quali aree stiamo ancora lavorando per migliorare?
Fergal: Immagino che la prima cosa che direi sia che il pezzo di precisione non è perfetto. Questo è un nuovo tipo di tecnologia. È un nuovo tipo di compromesso nell'ingegneria del software. Quindi, con il bot di risoluzione, il bot di risoluzione a volte arrivava e dava una risposta irrilevante, ma potevi sempre capire di cosa stava parlando, potresti dire: "Non è del tutto rilevante". Questo è un po' diverso. Questo a volte darà risposte irrilevanti, ma a volte può anche dare risposte errate. Potrebbe aver frainteso le informazioni nella tua base di conoscenza. Un esempio specifico di questo è a volte, diciamo, se hai un elenco di volte in cui qualcosa può accadere e un utente lo chiede [al bot], potrebbe presumere che l'elenco sia esaustivo. Potrebbe presumere che quell'elenco fosse tutte le volte e quindi ipotizzare: "Oh no, non era nell'elenco dell'articolo". Quindi dirò che la risposta è no, non può succedere. Questa cosa non può succedere quest'altra volta».
Des: Quindi, potresti avere un articolo basato sulla conoscenza che cita esempi di quando non rimborseremo il tuo pagamento, con un elenco di due o tre esempi. E il modello linguistico lo leggerà e concluderà che ci sono tre condizioni in cui ciò accade. Ed è un errore, non vedere che questi sono solo esempi dimostrativi, piuttosto che l'elenco esaustivo. È questo che vuoi dire?
Fergale: Esattamente. La sua conoscenza generale e la sua comprensione generale sono ancora un po' limitate qui. Quindi può guardare elenchi di cose e fare ipotesi che sono nelle vicinanze dell'essere ok, ma non del tutto corrette. Sì. Quindi, la maggior parte delle volte, quando lo vediamo commettere un errore, l'errore sembra abbastanza ragionevole, ma comunque sbagliato. Ma devi essere d'accordo con quello. Questa è una limitazione. Devi essere d'accordo con l'idea che a volte potrebbe dare risposte leggermente sbagliate.
"Stiamo costruendo questa esperienza in cui puoi prendere il tuo centro assistenza esistente e ottenere molto rapidamente l'accesso a una demo del bot, pre-acquistarlo, per giocarci tu stesso e capire come funziona bene per il tuo centro assistenza specifico"
Des: È quantificabile? La mia ipotesi è che non sia perché sarà diverso per domanda, per base di conoscenza, per cliente, per accettabilità... Quindi, quando qualcuno dice: "Ehi, quanto è buono il bot?", come puoi rispondere al meglio?
Fergal: La cosa migliore da fare è andare a giocare con una demo nel tuo centro assistenza. Stiamo costruendo questa esperienza in cui puoi prendere il tuo centro assistenza esistente e ottenere molto rapidamente l'accesso a una demo del bot, pre-acquistarlo, per giocarci tu stesso e capire come funziona bene per il tuo centro assistenza specifico.
Des: E suggeriresti, diciamo, di ripetere le ultime 20 conversazioni che hai avuto, o le tue domande di supporto più comuni? Come fa un individuo a prendere una decisione informata? Perché sono sicuro che farà tutto, 'Ciao? Sei un bot?' 'Sì, sono' cosa.
Fergal: Pensiamo che, solo interagendo con esso, puoi farti un'idea molto rapidamente del livello di accuratezza. Se fai le tue 20 domande principali, il tipo di domande che le persone ti fanno giorno dopo giorno ... le esamini, chiedi chiarimenti. Hai un'idea abbastanza chiara di dove questo è buono e dove sono i punti di rottura. Per noi, questo è un nuovo fantastico prodotto e ne siamo davvero entusiasti, ma è ancora la prima generazione. Ora miglioreremo tutti i pezzi di machine learning. Miglioreremo anche tutti quei pezzi di misurazione nel tempo.
Des: Con la risoluzione bot uno, il nostro bot precedente, lo addestreresti, quindi diresti: "Ehi, questa è la risposta sbagliata". Ecco cosa voglio che tu dica', eccetera. Non lo farai questa volta. Quindi, se lo rilevi dando una risposta imprecisa, o pensi che potrebbe fare di meglio, qual è la cosa migliore da fare? Scrivi un articolo migliore? Ne guardi la fonte?
Fergal: Siamo ancora all'inizio e probabilmente svilupperemo funzionalità per consentirti di avere un controllo più preciso su di esso. Ma in questo momento, la risposta a questa domanda è: "Ehi, puoi rendere più chiaro il tuo articolo della knowledge base?" In realtà, sviluppando questo bot, abbiamo visto che ci sono molti articoli ambigui basati sulla conoscenza là fuori nel mondo, dove piccole parti potrebbero essere più chiare.
Evoluzione
Des: Quali altre aree pensi che si evolveranno nei prossimi mesi?
Fergal: C'è molto lavoro da fare da parte nostra. Abbiamo la prima versione al momento. Per migliorarlo, vogliamo farlo vivere con i clienti, vogliamo ottenere un feedback effettivo, basato sull'utilizzo. Qualsiasi prodotto di machine learning su cui abbia mai lavorato, c'è sempre un sacco di iterazioni e un sacco di miglioramenti da fare nel tempo. Vogliamo anche migliorare il livello di integrazione con il nostro bot di risoluzione esistente. Il nostro bot di risoluzione esistente richiede tale cura, ma se lo fai, è eccellente. Può fare cose come intraprendere azioni. Puoi collegarlo alla tua API in modo che si renda conto che qualcuno sta chiedendo di rivendere una password e effettivamente attiverà la reimpostazione della password.
“L'ultimo pezzo di cui sono estremamente entusiasta è l'idea che possiamo prendere questa nuova tecnologia AI e usarla per generare contenuti di supporto notevolmente più numerosi di quanto siamo stati in grado di fare in passato. Molto rapidamente, questo nuovo bot, se il contenuto è nel tuo centro assistenza, sarà in grado di rispondere utilizzando il tuo contenuto"
Per noi è davvero importante che questo tipo di bot di nuova generazione sia in grado di fare anche tutte queste cose. Quindi inizialmente sarà come "Ehi, rispondi a domande informative dalla tua base di conoscenza". Zero setup il primo giorno: scaricalo dal vivo, è fantastico. Ma alla fine - e lo abbiamo visto in ogni ricerca che abbiamo fatto - vuoi passare al livello successivo. Successivamente, le persone vorranno la possibilità di utilizzare quella tecnologia e capacità che già abbiamo per intraprendere azioni per risolvere le domande. E siamo entusiasti di poterlo vedere molto di più costruito su questa piattaforma di nuova generazione basata sul linguaggio.
Quindi, l'ultimo pezzo di cui sono estremamente entusiasta è l'idea che possiamo prendere questa nuova tecnologia AI e usarla per generare contenuti di supporto notevolmente più numerosi di quanto siamo stati in grado di fare in passato. Molto rapidamente, questo nuovo bot, se il contenuto è nel tuo centro assistenza, sarà in grado di rispondere utilizzando il tuo contenuto. E pensiamo che sia fantastico. Ci sono molte persone in grado di scrivere articoli del centro assistenza che in passato sarebbero rimaste bloccate nel tentativo di curare bot o intent. Quindi ne siamo molto entusiasti. Ma pensiamo che ci siano nuovi strumenti da costruire qui, per rendere notevolmente più facile scrivere il contenuto dell'articolo del Centro assistenza. Ad esempio, prendendo le tue conversazioni di supporto e utilizzando questa IA di nuova generazione per avviare quel processo.
Des: Quindi una visione di cui abbiamo parlato forse solo due mesi fa era l'idea che il team di supporto avrebbe risposto a domande che sono ... penso, all'epoca, ho detto, di rispondere alle tue domande per la prima volta e l'ultima volta . Quindi, se una domanda si fa strada, è perché non l'abbiamo mai vista prima. E una volta che l'abbiamo visto, non lo vediamo più. È così che vedi che sta accadendo?
"Pensiamo di poter vedere un percorso verso ciò in cui possiamo avere un'esperienza di cura che sia abbastanza semplice da consentire a un rappresentante dell'assistenza in una casella di posta in arrivo di rispondere a una conversazione e dire: 'Sì, ho approvato questa risposta per entrare nel bot '”
Fergal: Penso che, per la prima volta, posso vedere un percorso per questo. Quando siamo passati alla risoluzione bot 1.0, la richiesta di funzionalità che ricevevamo sempre era: "Ehi, posso avere il mio rappresentante dell'assistenza nella posta in arrivo?" Posso fargli rispondere a una domanda e poi inserire quella domanda nel bot?' E ogni volta che abbiamo provato a farlo, non ha funzionato perché porre una domanda e curare una domanda per essere abbastanza buona da progettare un intento era solo un sacco di lavoro. In tutto il settore, ci sono molti robot di supporto diversi. Non ho mai visto nessuno che sia riuscito a inchiodarlo e farlo funzionare davvero. Ma ora con i modelli avanzati di linguaggi di grandi dimensioni, pensiamo di poter vedere un percorso verso quello in cui possiamo avere un'esperienza di cura che è abbastanza semplice che un rappresentante dell'assistenza in una casella di posta può semplicemente finire di rispondere a una conversazione ed essere come "Sì, io ha approvato questa risposta per entrare nel bot.'
Deve esserci un po' di approvazione umana perché non può essere che Fergal chieda al robot: "Ehi, qual è il numero della carta di credito di Des?" Il bot dirà: "Beh, conosco la risposta perché era in quest'altra conversazione in cui si trova Des". Sarebbe inaccettabile. Deve esserci un passaggio di approvazione tra conversazioni private e conoscenze di supporto durature. Ma pensiamo di vedere lì un percorso per un processo di approvazione molto migliore di quanto non abbiamo mai avuto prima. E potenzialmente un mondo in cui forse non tutti i problemi, ma per molti problemi, possono essere risolti solo una volta. Pensiamo che ci sia qualcosa di interessante in arrivo.
Des: Fantastico. Beh, è un rilascio entusiasmante: è disponibile per tutti?
Fergal: Al momento si sta andando verso la beta privata, con la nuova versione di GPT-4 da OpenAI.
Des: Emozionante. Bene, controllerò tra qualche settimana e vedrò come va.
Fergale: Sì. Tempi eccitanti.