Prywatność, bezpieczeństwo, dokładność: jak chatboty AI radzą sobie z Twoimi największymi problemami dotyczącymi danych

Opublikowany: 2023-08-24

ChatGPT to niesamowite narzędzie – miliony ludzi używają go do wszystkiego, od pisania esejów i wyszukiwania informacji o urlopach, po przygotowywanie programów treningowych, a nawet tworzenie aplikacji. Potencjał generatywnej sztucznej inteligencji wydaje się nieograniczony.

Ale jeśli chodzi o wykorzystanie generatywnej sztucznej inteligencji do obsługi klienta, co oznacza udostępnianie danych, zapytań i rozmów klientów, jak bardzo można naprawdę ufać sztucznej inteligencji? Generacyjne chatboty AI działają w oparciu o duże modele językowe (LLM) szkolone na ogromnej liczbie zbiorów danych pobieranych z Internetu. Chociaż możliwości, jakie daje dostęp do tak dużej ilości danych, są przełomowe, rodzi to szereg obaw związanych z regulacjami, przejrzystością i prywatnością.

Odkąd uruchomiliśmy Fin, naszego bota opartego na sztucznej inteligencji, zaobserwowaliśmy bezprecedensowy poziom ekscytacji potencjałem sztucznej inteligencji w obsłudze klienta. Jednak napotkaliśmy także wiele pytań, a wiele z nich mieści się w dwóch nadrzędnych tematach:

  1. Bezpieczeństwo i prywatność informacji, które klienci przekazują chatbotowi AI.
  2. Dokładność i wiarygodność informacji, które chatbot AI dostarcza klientom.

W tym miejscu omówimy najważniejsze kwestie, które należy zrozumieć, w jaki sposób chatboty AI wpływają na bezpieczeństwo danych i prywatność w różnych branżach oraz sposób, w jaki podchodzimy do tych kwestii w przypadku Fin.

Bezpieczeństwo danych i prywatność

Żadna firma nie może sobie pozwolić na podejmowanie ryzyka związanego z danymi klientów. Zaufanie jest podstawą każdej relacji firma-klient, a klienci muszą mieć pewność, że ich informacje są traktowane z ostrożnością i chronione w najwyższym stopniu . Generatywna sztuczna inteligencja oferuje nieograniczone możliwości, ale rodzi także ważne pytania o bezpieczeństwo danych klientów. Jak zawsze technologia ewoluuje szybciej niż wytyczne i najlepsze praktyki, a światowe organy regulacyjne starają się dotrzymać kroku.

UE i RODO

Weźmy na przykład UE. Ogólne rozporządzenie o ochronie danych (RODO) jest jednym z najbardziej rygorystycznych przepisów regulujących dane osobowe na świecie. Teraz, gdy generatywna sztuczna inteligencja zmieniła zasady gry, jakie jest jej miejsce w ramach RODO? Według badania wpływu RODO na sztuczną inteligencję przeprowadzonego przez Służbę Parlamentu Europejskiego istnieje pewne napięcie pomiędzy RODO a narzędziami takimi jak ChatGPT, które przetwarzają ogromne ilości danych w celach, które nie są wyraźnie wyjaśnione osobom, które pierwotnie dostarczyły te dane .

To powiedziawszy, w raporcie stwierdzono, że istnieją sposoby zastosowania i rozwinięcia istniejących zasad, tak aby były spójne z rosnącym wykorzystaniem sztucznej inteligencji i dużych zbiorów danych. Aby w pełni osiągnąć tę spójność, ustawa o sztucznej inteligencji jest obecnie przedmiotem debaty w UE, a sztywny zestaw przepisów mających zastosowanie do podmiotów wdrażających systemy sztucznej inteligencji zarówno w UE, jak i poza nią, ma pojawić się pod koniec 2023 r. – ponad rok po ChatGPT został wydany w listopadzie 2022 r.

„Chociaż przepisy nadążają za szybkim postępem generatywnej sztucznej inteligencji, na dostawcach chatbotów AI spoczywa obowiązek zapewnienia, że ​​bezpieczeństwo danych będzie dla nich najwyższym priorytetem”

Tymczasem w USA

Stany Zjednoczone pozostają na wczesnym etapie regulacji i stanowienia prawa w odniesieniu do sztucznej inteligencji, ale dyskusje toczą się i siedem największych firm technologicznych zobowiązało się do dobrowolnych porozumień dotyczących takich obszarów, jak udostępnianie informacji, testowanie i przejrzystość. Przykładem jest zobowiązanie do dodania znaku wodnego do treści generowanych przez sztuczną inteligencję – prosty krok, ale ważny dla kontekstu i zrozumienia użytkownika.

Chociaż te kroki oznaczają pewien postęp, w przypadku sektorów takich jak przemysł zdrowotny niewiadome mogą stanowić przeszkodę w przyjęciu sztucznej inteligencji. Artykuł w czasopiśmie Journal of the American Medical Association sugeruje, że z tej technologii można nadal korzystać, o ile użytkownik będzie unikał wprowadzania chronionych informacji zdrowotnych (PHI). Kolejnym krokiem jest to, że dostawcy tacy jak OpenAI opracowują obecnie umowy o partnerstwie biznesowym, które umożliwią klientom korzystającym z tych przypadków użycia przestrzeganie przepisów takich jak HIPAA i SOC-2 podczas korzystania z ich produktów.

Krótko mówiąc, choć przepisy nadążają za szybkim postępem generatywnej sztucznej inteligencji, na dostawcach chatbotów AI spoczywa obowiązek zapewnienia, że ​​bezpieczeństwo danych jest dla nich najwyższym priorytetem oraz że będą oni kontaktować się z klientami bezpośrednio i przejrzyście.

Jak Fin dba o bezpieczeństwo i prywatność danych

W Intercom podchodzimy do ochrony danych niezwykle poważnie i stanowi ona główny element każdej decyzji, którą podjęliśmy, odkąd zaczęliśmy budować naszego chatbota AI. Oto najpilniejsze pytania, jakie otrzymujemy od zespołów obsługi klienta na temat sposobu, w jaki ich dane oraz dane ich klientów będą gromadzone, obsługiwane i przechowywane.

W jaki sposób Fin poradzi sobie z moją treścią pomocy technicznej?

Fin jest zasilany przez różne modele, w tym GPT-4 OpenAI, i będzie przetwarzać zawartość pomocy technicznej za pośrednictwem tych LLM w określonych odstępach czasu, aby zapewnić odpowiedzi na zapytania klientów.

W jaki sposób Fin będzie obsługiwał dane rozmów z klientami?

Podczas każdej rozmowy z klientem wszystkie dane konwersacji będą przesyłane dosłownie do OpenAI, łącznie ze wszystkimi danymi osobowymi zawartymi w rozmowie.

Czy moje treści pomocy technicznej lub dane rozmów z klientami będą wykorzystywane do szkolenia lub ulepszania modeli?

To częste pytanie. Wiele botów AI rzeczywiście wykorzystuje dane, z którymi pracują, do szkolenia nowych modeli lub ulepszania istniejących, a dostawcy wymieniają to jako mocną stronę. W Intercom zdecydowanie nie zgadzamy się z tą perspektywą – bezpieczne rozmowy i opinie Twoich klientów nigdy nie zostaną wykorzystane do szkolenia żadnego z zewnętrznych modeli, których używamy do zasilania Fin.

Bezpieczeństwo prywatności danych Erica Fitzgeralda (1)

Czy moje dane będą przechowywane przez OpenAI?

Nie – podpisaliśmy się pod polityką Zero Data Retention, co oznacza, że ​​żadne Twoje dane nie będą przechowywane przez OpenAI przez żaden okres czasu.

Czy mój region hostingu danych wpłynie na moją możliwość korzystania z Fin?

Obecnie z Fin mogą korzystać wyłącznie klienci hostujący swoje dane w USA. Zgodnie z warunkami EU Data Hosting firmy Intercom wyrażamy zgodę na przechowywanie danych naszych klientów (w tym wszelkich danych osobowych) na terenie UE. OpenAI nie oferuje obecnie hostingu w UE, więc wszelkie dane osobowe przesyłane do nich w ramach integracji z firmą Intercom muszą być przetwarzane w USA i mogą nie być zgodne z warunkami hostingu danych Intercom w UE lub Australii. Pracujemy nad udostępnieniem Fina większej liczbie regionów w przyszłości.

Dokładność i wiarygodność odpowiedzi bota AI

Różne duże modele językowe mają różne mocne strony, ale w tej chwili GPT-4 OpenAI jest ogólnie uważany za jeden z najlepszych dostępnych LLM pod względem wiarygodności. W Intercom zaczęliśmy eksperymentować z ChatGPT OpenAI zaraz po jego wydaniu, uznając jego potencjał do całkowitej zmiany sposobu działania obsługi klienta. Na tym etapie „halucynacje”, czyli tendencja ChatGPT do wymyślania wiarygodnie brzmiących odpowiedzi, gdy nie znała odpowiedzi na pytanie, stanowiły zbyt duże ryzyko, aby wystawiać je klientom.

„Chatbot AI jest tak dobry, jak dane, na których jest szkolony”

Po wydaniu ChatGPT w mediach społecznościowych widzieliśmy setki przykładów takich halucynacji, od zabawnych po nieco przerażające. Biorąc pod uwagę, że źródłem danych szkoleniowych ChatGPT był „cały Internet przed 2021 rokiem”, nie jest zaskakujące, że niektóre szczegóły były nieprawidłowe.

Zasadniczo chatbot AI jest tak dobry, jak dane, na których jest szkolony. W kontekście obsługi klienta zbiór danych niskiej jakości naraziłby klientów na odpowiedzi, które mogłyby zaszkodzić marce Twojej firmy – niezależnie od tego, czy byłyby one niedokładne, nieistotne czy nieodpowiednie – co prowadziłoby do frustracji klientów, zmniejszenia wartości, jaką klient uzyskuje z Twojego produktu i ostatecznie wpływając na lojalność wobec marki.

Wydanie GPT-4 w marcu 2023 r. wreszcie zaproponowało rozwiązanie. Jak powiedział nasz starszy dyrektor ds. uczenia maszynowego Fergal Reid w wywiadzie dla econsultancy.com: „Wcześnie zajrzeliśmy do GPT-4 i od razu byliśmy pod wrażeniem zwiększonych zabezpieczeń przed halucynacjami i bardziej zaawansowanych możliwości języka naturalnego. Czuliśmy, że technologia przekroczyła próg, w którym można ją wykorzystać na oczach klientów”.

„Firmy potrzebują kontroli nad informacjami otrzymywanymi przez klientów, aby mieć pewność, że są one dokładne, aktualne i istotne dla ich produktu”

Pomimo niesamowitej dokładności GPT-4, na początku nie nadaje się on do obsługi klienta „od razu po wyjęciu z pudełka”. Firmy muszą mieć kontrolę nad informacjami otrzymywanymi przez klientów, aby mieć pewność, że są one dokładne, aktualne i istotne dla ich produktów. Dodając do GPT-4 własne, autorskie oprogramowanie, stworzyliśmy bariery ograniczające dostępne informacje o bocie do konkretnego źródła wyznaczonego przez zespoły naszych klientów.

Kiedy więc upewnisz się, że dane Twoich klientów są bezpieczne w Fin, chcesz mieć całkowitą pewność, że Fin będzie pobierał informacje z zaufanych źródeł, które kontrolujesz, aby zapewnić Twoim klientom właściwe informacje.

Z jakiego LLM korzysta Fin?

Fin jest zasilany przez mieszankę dużych modeli językowych, w tym GPT-4 OpenAI , najdokładniejszy na rynku i znacznie mniej podatny na halucynacje niż inne.

Czy mogę wybrać treść, z której Fin będzie czerpał odpowiedzi?

Fin czerpie odpowiedzi z określonych przez Ciebie źródeł , niezależnie od tego, czy jest to Twoje centrum pomocy, biblioteka treści pomocy technicznej, czy dowolny publiczny adres URL wskazujący na Twoje własne treści. W ten sposób możesz mieć pewność co do dokładności wszystkich informacji, których Fin używa do odpowiadania na pytania klientów, a monitorując wydajność Fin, możesz rozszerzać, ulepszać lub udoskonalać treść, na której opiera się bot AI.

Co zrobi Fin, jeśli nie będzie znał odpowiedzi na pytanie?

Fin jest jak każdy dobry agent wsparcia — jeśli nie może znaleźć odpowiedzi na pytanie, nasze zabezpieczenia oparte na uczeniu maszynowym zapewniają, że przyznaje, że nie wie, i płynnie przekazuje rozmowę przedstawicielowi wsparcia, aby zapewnić niezmiennie wysoką jakość wspierać doświadczenie. W przeciwieństwie do ChatGPT lub innych chatbotów obsługi klienta AI, Fin nigdy nie będzie wymyślał odpowiedzi i zawsze będzie podawać źródła odpowiedzi, których udziela, na podstawie treści pomocy.

Czy moi klienci mogą uzyskać dostęp do przedstawiciela pomocy technicznej, jeśli chcą?

Twój zespół wsparcia zna Twoich klientów lepiej niż ktokolwiek inny i niezwykle ważne jest, aby Twoi klienci mieli do nich łatwy dostęp. Fin oferuje klientom możliwość natychmiastowego skierowania zapytania do przedstawiciela pomocy technicznej. Jeśli klient jest zadowolony z wypróbowania Fina, ale nie zna odpowiedzi na swoje pytanie, zbudowaliśmy bariery uczenia maszynowego, aby skłonić Fina do zadania wyjaśniających pytań, selekcji zapytania i przekazania go właściwemu zespołowi do rozwiązania .

Dowiedz się więcej o tym, jak działa Fin, lub odwiedź nasze centrum pomocy, aby uzyskać więcej informacji na temat naszych środków bezpieczeństwa danych i prywatności.

Demo Fin CTA