Privacy, sicurezza, precisione: come i chatbot con intelligenza artificiale gestiscono le tue preoccupazioni più profonde sui dati

Pubblicato: 2023-08-24

ChatGPT è uno strumento straordinario: milioni di persone lo utilizzano per fare qualsiasi cosa, dalla scrittura di saggi e la ricerca di vacanze alla preparazione di programmi di allenamento e persino alla creazione di app. Il potenziale dell’IA generativa sembra infinito.

Ma quando si tratta di utilizzare l’intelligenza artificiale generativa per il servizio clienti, il che significa condividere i dati, le domande e le conversazioni dei clienti, quanto puoi davvero fidarti dell’intelligenza artificiale? I chatbot con intelligenza artificiale generativa sono alimentati da modelli linguistici di grandi dimensioni (LLM) addestrati su un vasto numero di set di dati estratti da Internet. Sebbene le possibilità derivanti dall’accesso a così tanti dati siano rivoluzionarie, ciò solleva una serie di preoccupazioni in merito a regolamentazione, trasparenza e privacy.

Da quando abbiamo lanciato Fin, il nostro bot basato sull'intelligenza artificiale, abbiamo riscontrato livelli di entusiasmo senza precedenti per il potenziale dell'intelligenza artificiale nel servizio clienti. Ma abbiamo anche riscontrato molte domande, molte delle quali rientrano in due temi generali:

  1. La sicurezza e la privacy delle informazioni fornite dai clienti al chatbot AI.
  2. L'accuratezza e l'affidabilità delle informazioni che il chatbot AI fornisce ai clienti.

Qui tratteremo gli aspetti più importanti da comprendere su come i chatbot basati sull'intelligenza artificiale influiscono sulla sicurezza e sulla privacy dei dati in tutti i settori e sul modo in cui affrontiamo questi problemi quando si tratta di Fin.

Sicurezza e privacy dei dati

Nessuna azienda può permettersi di correre rischi con i dati dei clienti. La fiducia è il fondamento di ogni rapporto azienda-cliente e i clienti devono avere la certezza che le loro informazioni vengono trattate con cura e protette al massimo grado . L’intelligenza artificiale generativa offre infinite opportunità, ma solleva anche importanti domande sulla sicurezza dei dati dei clienti. Come sempre, la tecnologia si sta evolvendo più velocemente delle linee guida e delle migliori pratiche, e i regolatori globali si stanno affrettando per tenere il passo.

L’UE e il GDPR

Prendiamo ad esempio l’UE. Il Regolamento generale sulla protezione dei dati (GDPR) è una delle forze normative più rigorose in materia di dati personali al mondo. Ora che l’intelligenza artificiale generativa ha cambiato le regole del gioco, dove si colloca nel quadro del GDPR? Secondo uno studio sull’impatto del GDPR sull’intelligenza artificiale condotto dal Servizio del Parlamento europeo, esiste una certa tensione tra il GDPR e strumenti come ChatGPT, che elaborano enormi quantità di dati per scopi non esplicitamente spiegati alle persone che originariamente li hanno forniti .

Detto questo, il rapporto ha rilevato che esistono modi per applicare e sviluppare i principi esistenti in modo che siano coerenti con l’uso crescente dell’intelligenza artificiale e dei big data. Per raggiungere pienamente questa coerenza, la legge sull’intelligenza artificiale è attualmente in discussione nell’UE, e per la fine del 2023 – più di un anno dopo ChatGPT è stato rilasciato nel novembre 2022.

“Mentre la regolamentazione si adegua al rapido progresso dell’intelligenza artificiale generativa, spetta ai fornitori di chatbot di intelligenza artificiale l’onere di garantire che la sicurezza dei dati sia la loro massima priorità”

Nel frattempo, negli Stati Uniti

Gli Stati Uniti sono ancora nelle fasi iniziali della regolamentazione e del processo legislativo per quanto riguarda l’intelligenza artificiale, ma le discussioni sono in corso e sette delle più grandi aziende tecnologiche si sono impegnate a sottoscrivere accordi volontari riguardanti aree come la condivisione delle informazioni, i test e la trasparenza. Un esempio è l’impegno ad aggiungere una filigrana ai contenuti generati dall’intelligenza artificiale: un passaggio semplice, ma importante per il contesto e la comprensione dell’utente.

Sebbene questi passi segnino alcuni progressi, per settori come quello sanitario le incognite potrebbero rappresentare un ostacolo all’adozione dell’IA. Un articolo sul Journal of American Medical Association suggerisce che la tecnologia può ancora essere utilizzata purché l’utente eviti di inserire informazioni sanitarie protette (PHI). Come passo ulteriore, fornitori come OpenAI stanno ora sviluppando accordi di società in affari che consentirebbero ai clienti con questi casi d’uso di conformarsi a normative come HIPAA e SOC-2 durante l’utilizzo dei loro prodotti.

In breve, mentre la regolamentazione si adegua al rapido progresso dell’intelligenza artificiale generativa, spetta ai fornitori di chatbot di intelligenza artificiale l’onere di garantire che mantengano la sicurezza dei dati come massima priorità e siano onesti e trasparenti con i propri clienti.

Come Fin gestisce la sicurezza e la privacy dei dati

Qui a Intercom prendiamo la protezione dei dati incredibilmente sul serio ed è stata una componente importante di ogni decisione che abbiamo preso da quando abbiamo iniziato a costruire il nostro chatbot AI. Ecco le domande più urgenti che riceviamo dai team del servizio clienti sul modo in cui i loro dati e quelli dei loro clienti verranno raccolti, gestiti e archiviati.

In che modo Fin gestirà i miei contenuti di supporto?

Fin è alimentato da un mix di modelli tra cui GPT-4 di OpenAI ed elaborerà i tuoi contenuti di supporto tramite questi LLM a intervalli specificati per fornire risposte alle domande dei clienti.

In che modo Fin gestirà i dati sulle conversazioni dei clienti?

Durante ogni conversazione con il cliente, tutti i dati della conversazione verranno inviati parola per parola a OpenAI, comprese tutte le informazioni di identificazione personale all'interno della conversazione.

I miei contenuti di supporto o i dati sulle conversazioni dei clienti verranno utilizzati per addestrare o migliorare i modelli?

Questa è una domanda comune. Molti robot IA incorporano i dati con cui lavorano per addestrare nuovi modelli o migliorare quelli esistenti e i fornitori lo citano come un punto di forza. Noi di Intercom non siamo fermamente d'accordo con questa prospettiva: le conversazioni sicure e il feedback dei tuoi clienti non verranno mai utilizzati per addestrare nessuno dei modelli di terze parti che utilizziamo per potenziare Fin.

Sicurezza della privacy dei dati di Eric Fitzgerald (1)

I miei dati verranno conservati da OpenAI?

No, abbiamo aderito alla politica di conservazione zero dei dati, il che significa che nessuno dei tuoi dati verrà conservato da OpenAI per nessun periodo di tempo.

La mia regione di hosting dei dati influenzerà la mia capacità di utilizzare Fin?

Attualmente, Fin può essere utilizzato solo dai clienti che ospitano i propri dati negli Stati Uniti. Secondo i termini di hosting dati UE di Intercom , accettiamo di archiviare i dati dei nostri clienti (inclusi eventuali dati personali) all'interno dell'UE. OpenAI attualmente non offre hosting nell'UE, quindi qualsiasi informazione personale inviata come parte della loro integrazione con Intercom deve essere elaborata negli Stati Uniti e potrebbe non essere conforme ai termini di hosting dei dati UE o AU di Intercom. Stiamo lavorando per rendere Fin accessibile a più regioni in futuro.

Precisione e affidabilità delle risposte del bot AI

Diversi modelli linguistici di grandi dimensioni hanno punti di forza diversi, ma al momento GPT-4 di OpenAI è generalmente considerato uno dei migliori LLM disponibili in termini di affidabilità. In Intercom, abbiamo iniziato a sperimentare ChatGPT di OpenAI non appena è stato rilasciato, riconoscendone il potenziale per trasformare totalmente il modo in cui funziona il servizio clienti. In quella fase le "allucinazioni", la tendenza di ChatGPT a inventare semplicemente una risposta plausibile quando non conosceva la risposta a una domanda, erano un rischio troppo grande da mettere di fronte ai clienti.

"Un chatbot AI è valido quanto lo sono i dati su cui è stato addestrato"

Abbiamo visto centinaia di esempi di queste allucinazioni disseminati sui social media in seguito al rilascio di ChatGPT, che vanno dal divertente al leggermente terrificante. Considerando che la fonte dei dati di formazione di ChatGPT era "tutta Internet prima del 2021", non sorprende che alcuni dettagli fossero errati.

In sostanza, un chatbot AI è valido quanto lo sono i dati su cui è stato addestrato. In un contesto di servizio clienti, un set di dati di bassa qualità esporrebbe i clienti a risposte che potrebbero danneggiare il marchio della tua azienda, siano esse imprecise, irrilevanti o inappropriate, portando alla frustrazione del cliente, diminuendo il valore che il cliente ottiene dal tuo prodotto e in definitiva, incidendo sulla fedeltà alla marca.

Il rilascio di GPT-4 nel marzo 2023 ha finalmente offerto una soluzione. Come ha affermato il nostro direttore senior del machine learning, Fergal Reid, in un'intervista con econsultancy.com: “Abbiamo dato una prima occhiata a GPT-4 e siamo rimasti immediatamente colpiti dalle maggiori protezioni contro le allucinazioni e dalle capacità di linguaggio naturale più avanzate. Ritenevamo che la tecnologia avesse oltrepassato la soglia in cui poteva essere utilizzata di fronte ai clienti”.

"Le aziende hanno bisogno di controllare le informazioni che ricevono i clienti per garantire che siano accurate, aggiornate e pertinenti al loro prodotto"

Nonostante l’incredibile precisione di GPT-4, inizialmente non è adatto per il servizio clienti “out of the box”. Le aziende hanno bisogno di controllare le informazioni ricevute dai clienti per garantire che siano accurate, aggiornate e pertinenti al loro prodotto. Aggiungendo il nostro software proprietario a GPT-4, abbiamo creato dei guardrail che limitavano le informazioni disponibili del bot a una fonte specifica nominata dai team dei nostri clienti.

Pertanto, una volta che ti sei assicurato che i dati dei tuoi clienti siano al sicuro con Fin, vorrai essere totalmente sicuro che Fin estrarrà informazioni da fonti attendibili che controlli, per fornire le informazioni giuste ai tuoi clienti.

Da quale LLM è alimentato Fin?

Fin è alimentato da un mix di modelli linguistici di grandi dimensioni, incluso GPT-4 di OpenAI , il più accurato sul mercato e molto meno incline alle allucinazioni rispetto ad altri.

Posso scegliere il contenuto da cui Fin trae le risposte?

Fin trae le risposte dalle fonti da te specificate , che si tratti del tuo centro assistenza, della libreria di contenuti di supporto o di qualsiasi URL pubblico che rimandi ai tuoi contenuti. In questo modo, puoi essere sicuro dell'accuratezza di tutte le informazioni che Fin utilizza per rispondere alle domande dei tuoi clienti e, mentre monitori le prestazioni di Fin, puoi espandere, migliorare o elaborare il contenuto che alimenta il bot AI.

Cosa farà Fin se non conosce la risposta a una domanda?

Fin è come ogni buon agente dell'assistenza: se non riesce a trovare la risposta a una domanda, i nostri guardrail di machine learning assicurano che ammetta di non saperlo e passi senza problemi la conversazione a un rappresentante dell'assistenza per garantire una qualità costantemente elevata esperienza di supporto. A differenza di ChatGPT o di altri chatbot del servizio clienti AI, Fin non inventerà mai una risposta e fornirà sempre le fonti per le risposte fornite dai tuoi contenuti di supporto.

I miei clienti possono accedere a un rappresentante dell'assistenza umana, se lo desiderano?

Il tuo team di supporto conosce i tuoi clienti meglio di chiunque altro ed è fondamentale che i tuoi clienti possano accedervi facilmente. Fin offre ai clienti la possibilità di indirizzare immediatamente la loro richiesta a un rappresentante dell'assistenza umana. Se il cliente è felice di provare Fin, ma non conosce la risposta alla sua domanda, abbiamo costruito guardrail di machine learning per spingere Fin a porre domande chiarificatrici, classificare la query e trasmetterla al team giusto per risolverla. .

Scopri di più su come funziona Fin o consulta il nostro centro assistenza per ulteriori informazioni sulle nostre misure di sicurezza e privacy dei dati.

CTA demo Fin