Confidențialitate, securitate, acuratețe: cum abordează chatbot-urile AI cele mai profunde preocupări legate de date

Publicat: 2023-08-24

ChatGPT este un instrument uimitor – milioane de oameni îl folosesc pentru a face orice, de la scrierea de eseuri și cercetarea sărbătorilor până la pregătirea programelor de antrenament și chiar crearea de aplicații. Potențialul AI generativ se simte nesfârșit.

Dar când vine vorba de utilizarea AI generativă pentru serviciul clienți, ceea ce înseamnă partajarea datelor, interogărilor și conversațiilor clienților tăi, cât de mult poți avea încredere în AI? Chatbot-urile generative AI sunt alimentate de modele de limbaj mari (LLM) instruite pe un număr mare de seturi de date extrase de pe internet. Deși posibilitățile care vin din accesul la atât de multe date sunt inovatoare, provoacă o serie de preocupări în ceea ce privește reglementarea, transparența și confidențialitatea.

De când am lansat Fin, botul nostru bazat pe inteligență artificială, am observat niveluri fără precedent de entuziasm pentru potențialul AI în serviciul clienți. Dar ne-am confruntat și cu o mulțime de întrebări, multe dintre ele care se încadrează în două teme generale:

  1. Securitatea și confidențialitatea informațiilor pe care clienții le oferă chatbot-ului AI.
  2. Acuratețea și credibilitatea informațiilor pe care chatbot-ul AI le oferă clienților.

Aici, vom acoperi cele mai importante lucruri de înțeles despre modul în care chatbot-urile AI afectează securitatea și confidențialitatea datelor în diverse industrii și modul în care abordăm aceste probleme atunci când vine vorba de Fin.

Securitatea datelor și confidențialitatea

Nicio companie nu își poate permite să-și asume riscuri cu datele clienților. Încrederea este fundamentul oricărei relații între afaceri și client, iar clienții trebuie să se simtă încrezători că informațiile lor sunt tratate cu grijă și protejate la cel mai înalt grad . AI generativ oferă oportunități nesfârșite, dar ridică și întrebări importante cu privire la siguranța datelor clienților. Ca întotdeauna, tehnologia evoluează mai repede decât liniile directoare și cele mai bune practici, iar autoritățile globale de reglementare se străduiesc să țină pasul.

UE și GDPR

Luați UE, de exemplu. Regulamentul general privind protecția datelor (GDPR) este una dintre cele mai stricte forțe de reglementare care acoperă datele cu caracter personal din lume. Acum că AI generativă a schimbat jocul, unde se află în cadrul GDPR? Potrivit unui studiu privind impactul GDPR asupra inteligenței artificiale, realizat de Serviciul Parlamentar European, există o anumită tensiune între GDPR și instrumente precum ChatGPT, care prelucrează cantități masive de date în scopuri neexplicate în mod explicit persoanelor care au furnizat inițial acele date. .

Acestea fiind spuse, raportul a constatat că există modalități de aplicare și dezvoltare a principiilor existente, astfel încât acestea să fie în concordanță cu utilizarea în expansiune a AI și a datelor mari. Pentru a atinge pe deplin această consecvență, Actul AI este în prezent dezbătut în UE, iar la sfârșitul anului 2023 este așteptat un set ferm de reglementări, care se aplică implementatorilor de sisteme AI atât din interiorul, cât și din afara UE, la mai mult de un an după ChatGPT a fost lansat în noiembrie 2022.

„În timp ce reglementările ajung din urmă cu progresul rapid al IA generativă, sarcina revine furnizorilor de chatbot AI pentru a se asigura că mențin securitatea datelor ca prioritate principală”

Între timp, în SUA

SUA se află în stadiile incipiente ale reglementării și legiferării în ceea ce privește inteligența artificială, dar discuțiile sunt în desfășurare și șapte dintre cele mai mari companii de tehnologie s-au angajat să încheie acorduri voluntare în domenii precum schimbul de informații, testarea și transparența. Un exemplu este angajamentul de a adăuga un filigran la conținutul generat de AI – un pas simplu, dar important pentru contextul și înțelegerea utilizatorului.

Deși acești pași marchează unele progrese, pentru sectoare precum industria sănătății, necunoscutele pot reprezenta un obstacol în calea adoptării AI. Un articol din Jurnalul Asociației Medicale Americane a sugerat că tehnologia poate fi folosită în continuare atâta timp cât utilizatorul evită introducerea informațiilor de sănătate protejate (PHI). Ca un pas suplimentar, furnizori precum OpenAI dezvoltă acum acorduri de parteneri de afaceri care le-ar permite clienților cu aceste cazuri de utilizare să respecte reglementări precum HIPAA și SOC-2 în timp ce își folosesc produsele.

Pe scurt, în timp ce reglementările ajung din urmă cu progresul rapid al AI generativă, sarcina revine furnizorilor de chatbot AI să se asigure că mențin securitatea datelor ca prioritate principală și că sunt sinceri și transparenți cu clienții lor.

Cum gestionează Fin securitatea și confidențialitatea datelor

Aici, la Intercom, luăm protecția datelor incredibil de în serios și a fost o componentă majoră a fiecărei decizii pe care am luat-o de când am început să construim chatbot-ul nostru AI. Iată cele mai presante întrebări pe care le primim de la echipele de servicii pentru clienți cu privire la modul în care datele lor și datele clienților lor vor fi colectate, tratate și stocate.

Cum va gestiona Fin conținutul meu de asistență?

Fin este alimentat de o combinație de modele, inclusiv GPT-4 de la OpenAI, și vă va procesa conținutul de asistență prin aceste LLM-uri la intervale specificate pentru a oferi răspunsuri la întrebările clienților.

Cum va gestiona Fin datele conversațiilor cu clienții?

În timpul fiecărei conversații cu clientul, toate datele conversației vor fi trimise textual către OpenAI, inclusiv orice informații de identificare personală din cadrul conversației.

Conținutul meu de asistență sau datele despre conversațiile cu clienții vor fi folosite pentru a instrui sau îmbunătăți modelele?

Aceasta este o întrebare comună. O mulțime de roboți AI încorporează datele cu care lucrează pentru a antrena noi modele sau pentru a le îmbunătăți pe cele existente, iar furnizorii îl citează ca un punct forte. La Intercom, nu suntem ferm de acord cu această perspectivă – conversațiile și feedbackul sigur ale clienților tăi nu vor fi niciodată folosite pentru a antrena niciunul dintre modelele terțe pe care le folosim pentru a alimenta Fin.

Eric Fitzgerald securitatea confidențialității datelor (1)

Datele mele vor fi păstrate de OpenAI?

Nu – ne-am înscris la politica de reținere a datelor zero, ceea ce înseamnă că niciuna dintre datele dumneavoastră nu va fi reținută de OpenAI pentru nicio perioadă de timp.

Regiunea mea de găzduire a datelor va afecta capacitatea mea de a folosi Fin?

În prezent, Fin poate fi folosit doar de clienții care își găzduiesc datele în SUA. În conformitate cu condițiile de găzduire a datelor în UE ale Intercom , suntem de acord să stocăm datele clienților noștri (inclusiv orice date cu caracter personal) în UE. OpenAI nu oferă în prezent găzduire în UE, așa că orice informații personale care le sunt trimise ca parte a integrării lor cu Intercom trebuie procesate în SUA și este posibil să nu fie în conformitate cu termenii Intercom UE sau AU pentru găzduirea datelor. Ne străduim să facem Fin accesibil pentru mai multe regiuni în viitor.

Acuratețea și încrederea răspunsurilor robotului AI

Diferite modele de limbaj mari au puncte forte diferite, dar în prezent, GPT-4 de la OpenAI este în general considerat unul dintre cele mai bune LLM disponibile în ceea ce privește încrederea. La Intercom, am început să experimentăm cu ChatGPT de la OpenAI de îndată ce a fost lansat, recunoscând potențialul său de a transforma total modul în care funcționează serviciul pentru clienți. În acel stadiu, „halucinațiile”, tendința ChatGPT de a inventa pur și simplu un răspuns plauzibil atunci când nu cunoștea răspunsul la o întrebare, erau un risc prea mare pentru a fi pus în fața clienților.

„Un chatbot AI este la fel de bun ca datele pe care este antrenat”

Am văzut sute de exemple ale acestor halucinații răspândite pe rețelele sociale în urma lansării ChatGPT, variind de la hilar la ușor terifiant. Având în vedere că sursa de date de instruire a ChatGPT era „întregul internet înainte de 2021”, nu este surprinzător că unele detalii erau incorecte.

În esență, un chatbot AI este la fel de bun ca datele pe care este antrenat. Într-un context de servicii pentru clienți, un set de date de calitate scăzută ar expune clienții la răspunsuri care ar putea deteriora marca companiei dvs. – indiferent dacă sunt inexacte, irelevante sau inadecvate – ducând la frustrarea clienților, scăzând valoarea pe care clientul o primește de la produsul dvs. și în cele din urmă, impactând loialitatea mărcii.

Lansarea lui GPT-4 în martie 2023 a oferit în sfârșit o soluție. După cum a spus directorul nostru principal de învățare automată, Fergal Reid într-un interviu pentru econsultancy.com, „Am primit o privire devreme în GPT-4 și am fost imediat impresionați de protecția sporită împotriva halucinațiilor și de capabilitățile mai avansate ale limbajului natural. Am simțit că tehnologia a depășit pragul în care ar putea fi folosită în fața clienților.”

„Companiile au nevoie de control asupra informațiilor pe care clienții lor le primesc pentru a se asigura că sunt exacte, actualizate și relevante pentru produsul lor”

În ciuda acurateței incredibile a lui GPT-4, nu este potrivit la început pentru serviciul clienți „din cutie”. Companiile au nevoie de control asupra informațiilor pe care clienții lor le primesc pentru a se asigura că sunt exacte, actualizate și relevante pentru produsul lor. Adăugând propriul nostru software proprietar la GPT-4, am creat balustrade care au limitat informațiile disponibile ale botului la o anumită sursă nominalizată de echipele clienților noștri.

Așadar, odată ce v-ați asigurat că datele clienților dvs. sunt în siguranță cu Fin, veți dori să fiți total încrezător că Fin va extrage informații din surse de încredere pe care le controlați, pentru a oferi informațiile corecte clienților dvs.

Din ce LLM este alimentat Fin?

Fin este alimentat de o combinație de modele mari de limbaj, inclusiv GPT-4 de la OpenAI , cel mai precis de pe piață și mult mai puțin predispus la halucinații decât altele.

Pot alege conținutul din care Fin își trage răspunsurile?

Fin își extrage răspunsurile din sursele pe care le specificați , fie că este vorba despre centrul dvs. de ajutor, biblioteca de conținut de asistență sau orice adresă URL publică care indică propriul conținut. În acest fel, puteți avea încredere în acuratețea tuturor informațiilor pe care Fin le folosește pentru a răspunde la întrebările clienților dvs. și, pe măsură ce monitorizați performanța lui Fin, puteți extinde, îmbunătăți sau elabora conținutul care alimentează botul AI.

Ce va face Fin dacă nu știe răspunsul la o întrebare?

Fin este ca orice agent de asistență bun – dacă nu poate găsi răspunsul la o întrebare, paravanele noastre de învățare automată se asigură că recunoaște că nu știe și transmite fără probleme conversația unui reprezentant de asistență pentru a asigura o calitate constantă. experiență de sprijin. Spre deosebire de ChatGPT sau de alți chatbot de servicii pentru clienți AI, Fin nu va inventa niciodată un răspuns și va oferi întotdeauna surse pentru răspunsurile pe care le oferă din conținutul dvs. de asistență.

Pot clienții mei să acceseze un reprezentant uman de asistență dacă doresc?

Echipa dvs. de asistență vă cunoaște clienții mai bine decât oricine și este esențial ca clienții dvs. să aibă acces ușor la ei. Fin oferă clienților opțiunea de a-și direcționa imediat interogarea către un reprezentant de asistență umană. Dacă clientul este mulțumit să încerce Fin, dar nu știe răspunsul la întrebarea lor, am construit balustrade de învățare automată pentru a-i determina pe Fin să pună întrebări clarificatoare, să trieze interogarea și să o predea echipei potrivite pentru a o rezolva. .

Aflați mai multe despre cum funcționează Fin sau consultați centrul nostru de ajutor pentru mai multe informații despre măsurile noastre de securitate și confidențialitate a datelor.

Demo Fin CTA