Privasi, keamanan, akurasi: Bagaimana chatbot AI menangani permasalahan data terdalam Anda

Diterbitkan: 2023-08-24

ChatGPT adalah alat yang luar biasa – jutaan orang menggunakannya untuk melakukan segalanya mulai dari menulis esai dan meneliti liburan hingga menyiapkan program olahraga dan bahkan membuat aplikasi. Potensi AI generatif rasanya tidak ada habisnya.

Namun ketika menggunakan AI generatif untuk layanan pelanggan, yang berarti membagikan data, pertanyaan, dan percakapan pelanggan Anda, seberapa besar Anda bisa mempercayai AI? Chatbot AI generatif didukung oleh model bahasa besar (LLM) yang dilatih pada sejumlah besar kumpulan data yang diambil dari internet. Meskipun peluang yang didapat dari akses terhadap data sebanyak itu merupakan sebuah terobosan, hal ini menimbulkan sejumlah kekhawatiran seputar regulasi, transparansi, dan privasi.

Sejak kami meluncurkan Fin, bot kami yang didukung AI, kami telah melihat tingkat antusiasme yang belum pernah terjadi sebelumnya terhadap potensi AI dalam layanan pelanggan. Namun kami juga menemukan banyak pertanyaan, banyak di antaranya terbagi dalam dua tema umum:

  1. Keamanan dan privasi informasi yang diberikan pelanggan kepada chatbot AI.
  2. Keakuratan dan kepercayaan informasi yang diberikan chatbot AI kepada pelanggan.

Di sini, kami akan membahas hal-hal paling penting untuk dipahami seputar bagaimana chatbot AI memengaruhi keamanan data dan privasi di seluruh industri, dan cara kami menangani masalah ini terkait Fin.

Keamanan dan privasi data

Tidak ada perusahaan yang mampu mengambil risiko dengan data pelanggan. Kepercayaan adalah fondasi setiap hubungan bisnis-pelanggan, dan pelanggan perlu merasa yakin bahwa informasi mereka diperlakukan dengan hati-hati dan dilindungi hingga tingkat tertinggi . AI Generatif menawarkan peluang tanpa batas, namun juga menimbulkan pertanyaan penting tentang keamanan data pelanggan. Seperti biasa, teknologi berkembang lebih cepat dibandingkan pedoman dan praktik terbaik, dan regulator global berusaha keras untuk mengikutinya.

UE dan GDPR

Ambil contoh Uni Eropa. Peraturan Perlindungan Data Umum (GDPR) adalah salah satu peraturan paling ketat yang mencakup data pribadi di dunia. Kini setelah AI generatif mengubah keadaan, di mana posisinya dalam kerangka GDPR? Menurut studi tentang dampak GDPR terhadap AI yang dilakukan oleh Layanan Parlemen Eropa, terdapat ketegangan tertentu antara GDPR dan alat seperti ChatGPT, yang memproses data dalam jumlah besar untuk tujuan yang tidak dijelaskan secara eksplisit kepada orang yang awalnya menyediakan data tersebut. .

Meskipun demikian, laporan tersebut menemukan bahwa terdapat cara untuk menerapkan dan mengembangkan prinsip-prinsip yang ada agar konsisten dengan meluasnya penggunaan AI dan data besar. Untuk sepenuhnya mencapai konsistensi ini, Undang-Undang AI saat ini sedang diperdebatkan di UE, dan serangkaian peraturan yang tegas, yang berlaku bagi penerapan sistem AI baik di dalam maupun di luar UE, diharapkan dapat dilaksanakan pada akhir tahun 2023 – lebih dari setahun setelahnya. ChatGPT dirilis pada November 2022.

“Meskipun regulasi mengejar kemajuan pesat AI generatif, tanggung jawab ada pada penyedia chatbot AI untuk memastikan mereka menjaga keamanan data sebagai prioritas utama mereka”

Sementara itu, di AS

Amerika Serikat masih dalam tahap awal pembuatan regulasi dan undang-undang terkait AI, namun diskusi masih berlangsung dan tujuh perusahaan teknologi terbesar telah berkomitmen terhadap perjanjian sukarela mengenai berbagai bidang seperti pembagian informasi, pengujian, dan transparansi. Contohnya adalah komitmen untuk menambahkan tanda air ke konten yang dihasilkan oleh AI – sebuah langkah sederhana, namun penting untuk konteks dan pemahaman pengguna.

Meskipun langkah-langkah ini menunjukkan beberapa kemajuan, namun bagi sektor-sektor seperti industri kesehatan, hal-hal yang belum diketahui mungkin merupakan hambatan dalam penerapan AI. Sebuah artikel di Journal of American Medical Association menyatakan bahwa teknologi tersebut masih dapat digunakan selama pengguna menghindari memasukkan Informasi Kesehatan yang Dilindungi (PHI). Sebagai langkah lebih lanjut, vendor seperti OpenAI kini mengembangkan perjanjian rekanan bisnis yang memungkinkan klien dengan kasus penggunaan ini mematuhi peraturan seperti HIPAA dan SOC-2 saat menggunakan produk mereka.

Singkatnya, meskipun regulasi mengikuti kemajuan pesat AI generatif, penyedia chatbot AI bertanggung jawab untuk memastikan bahwa mereka menjaga keamanan data sebagai prioritas utama mereka dan bersikap terbuka serta transparan kepada pelanggan mereka.

Bagaimana Fin menangani keamanan data dan privasi

Di sini, di Intercom, kami menangani perlindungan data dengan sangat serius, dan ini telah menjadi komponen utama dari setiap keputusan yang kami buat sejak kami mulai membangun chatbot AI kami. Berikut adalah pertanyaan paling mendesak yang kami dapatkan dari tim layanan pelanggan tentang cara data mereka, dan data pelanggan mereka, dikumpulkan, ditangani, dan disimpan.

Bagaimana Fin menangani konten dukungan saya?

Fin didukung oleh campuran model termasuk GPT-4 OpenAI, dan akan memproses konten dukungan Anda melalui LLM ini pada interval tertentu untuk memberikan jawaban atas pertanyaan pelanggan.

Bagaimana Fin menangani data percakapan pelanggan?

Selama setiap percakapan pelanggan, semua data percakapan akan dikirim kata demi kata ke OpenAI, termasuk informasi identitas pribadi apa pun dalam percakapan tersebut.

Apakah konten dukungan atau data percakapan pelanggan saya akan digunakan untuk melatih atau meningkatkan model?

Ini adalah pertanyaan umum. Banyak bot AI yang menggabungkan data yang mereka gunakan untuk melatih model baru atau menyempurnakan model yang sudah ada, dan penyedia menyebutnya sebagai kekuatan. Di Intercom, kami sangat tidak setuju dengan perspektif ini – percakapan dan umpan balik pelanggan Anda yang aman tidak akan pernah digunakan untuk melatih model pihak ketiga mana pun yang kami gunakan untuk mendukung Fin.

Keamanan privasi data Eric Fitzgerald (1)

Apakah data saya akan disimpan oleh OpenAI?

Tidak – kami telah menandatangani kebijakan Nol Retensi Data, yang berarti tidak ada data Anda yang akan disimpan oleh OpenAI untuk jangka waktu tertentu.

Apakah wilayah hosting data saya akan memengaruhi kemampuan saya menggunakan Fin?

Saat ini, Fin hanya dapat digunakan oleh pelanggan yang menghosting datanya di AS. Berdasarkan ketentuan Hosting Data UE Intercom , kami setuju untuk menyimpan data pelanggan kami (termasuk data pribadi apa pun) di dalam UE. OpenAI saat ini tidak menawarkan hosting UE, sehingga informasi pribadi apa pun yang dikirimkan kepada mereka sebagai bagian dari integrasi mereka dengan Intercom harus diproses di AS dan mungkin tidak mematuhi ketentuan hosting data UE atau AU Intercom. Kami berupaya membuat Fin dapat diakses oleh lebih banyak wilayah di masa depan.

Akurasi dan kepercayaan atas jawaban bot AI

Model bahasa besar yang berbeda memiliki kekuatan yang berbeda, namun saat ini, GPT-4 OpenAI secara umum dianggap sebagai salah satu LLM teratas yang tersedia dalam hal kepercayaan. Di Intercom, kami mulai bereksperimen dengan ChatGPT OpenAI segera setelah dirilis, menyadari potensinya untuk mengubah cara kerja layanan pelanggan secara total. Pada tahap “halusinasi”, kecenderungan ChatGPT untuk hanya memberikan respons yang masuk akal ketika tidak mengetahui jawaban atas sebuah pertanyaan, merupakan risiko yang terlalu besar untuk dihadapi pelanggan.

“Chatbot AI hanya akan berfungsi jika data yang dilatihnya”

Kami melihat ratusan contoh halusinasi ini tersebar di media sosial setelah ChatGPT dirilis, mulai dari yang lucu hingga yang sedikit menakutkan. Mengingat sumber data pelatihan ChatGPT “semuanya ada di internet sebelum tahun 2021”, tidak mengherankan jika beberapa detail salah.

Pada dasarnya, chatbot AI hanya akan berfungsi jika data yang dilatihnya berfungsi dengan baik. Dalam konteks layanan pelanggan, kumpulan data berkualitas rendah akan memaparkan pelanggan pada jawaban-jawaban yang dapat merusak merek perusahaan Anda – baik jawaban tersebut tidak akurat, tidak relevan, atau tidak pantas – sehingga menyebabkan frustrasi pelanggan, menurunkan nilai yang diperoleh pelanggan dari produk Anda, dan pada akhirnya, berdampak pada loyalitas merek.

Peluncuran GPT-4 pada Maret 2023 akhirnya menawarkan solusi. Fergal Reid, Direktur Senior Pembelajaran Mesin kami, mengatakan dalam sebuah wawancara dengan econsultancy.com, “Kami telah melihat sekilas GPT-4 dan langsung terkesan dengan peningkatan perlindungan terhadap halusinasi dan kemampuan bahasa alami yang lebih canggih. Kami merasa bahwa teknologi tersebut telah melewati ambang batas yang dapat digunakan di hadapan pelanggan.”

“Perusahaan memerlukan kendali atas informasi yang diterima pelanggan mereka untuk memastikan bahwa informasi tersebut akurat, terkini, dan relevan dengan produk mereka”

Meskipun GPT-4 memiliki akurasi yang luar biasa, pada awalnya GPT-4 tidak cocok untuk layanan pelanggan “out of the box”. Perusahaan memerlukan kendali atas informasi yang diterima pelanggannya untuk memastikan informasi tersebut akurat, terkini, dan relevan dengan produk mereka. Dengan menambahkan perangkat lunak milik kami sendiri ke GPT-4, kami menciptakan batasan yang membatasi informasi yang tersedia dari bot hanya pada sumber tertentu yang dinominasikan oleh tim pelanggan kami.

Jadi, setelah Anda memastikan data pelanggan Anda aman dengan Fin, Anda harus yakin sepenuhnya bahwa Fin akan mengambil informasi dari sumber tepercaya yang Anda kendalikan, untuk memberikan informasi yang benar kepada pelanggan Anda.

LLM apa yang didukung Fin?

Fin didukung oleh campuran model bahasa besar, termasuk GPT-4 OpenAI , yang paling akurat di pasar dan jauh lebih rentan terhadap halusinasi dibandingkan yang lain.

Bisakah saya memilih konten yang jawabannya diambil oleh Fin?

Fin mengambil jawabannya dari sumber yang Anda tentukan , apakah itu pusat bantuan Anda, pustaka konten dukungan, atau URL publik apa pun yang mengarah ke konten Anda sendiri. Dengan begitu, Anda dapat yakin dengan keakuratan semua informasi yang digunakan Fin untuk menjawab pertanyaan pelanggan Anda, dan, saat Anda memantau kinerja Fin, Anda dapat memperluas, meningkatkan, atau menguraikan konten yang mendukung bot AI.

Apa yang akan dilakukan Fin jika ia tidak mengetahui jawaban sebuah pertanyaan?

Fin sama seperti setiap agen dukungan yang baik – jika mereka tidak dapat menemukan jawaban atas sebuah pertanyaan, pagar pembatas pembelajaran mesin kami memastikan bahwa mereka mengakui bahwa mereka tidak mengetahuinya, dan dengan lancar meneruskan percakapan ke perwakilan dukungan untuk memastikan kualitas tinggi yang konsisten pengalaman pendukung. Tidak seperti ChatGPT, atau chatbot layanan pelanggan AI lainnya, Fin tidak akan pernah membuat jawaban, dan akan selalu memberikan sumber jawaban yang diberikannya dari konten dukungan Anda.

Dapatkah pelanggan saya mengakses perwakilan dukungan manusia jika mereka menginginkannya?

Tim dukungan Anda mengenal pelanggan Anda lebih baik daripada siapa pun, dan sangat penting bagi pelanggan Anda untuk memiliki akses mudah ke mereka. Fin menawarkan opsi bagi pelanggan untuk segera mengarahkan pertanyaan mereka ke perwakilan dukungan manusia. Jika pelanggan senang mencoba Fin, namun tidak mengetahui jawaban atas pertanyaannya, kami telah membuat pagar pembatas pembelajaran mesin untuk meminta Fin mengajukan pertanyaan klarifikasi, melakukan triase kueri, dan menyerahkannya kepada tim yang tepat untuk menyelesaikannya. .

Cari tahu lebih lanjut tentang cara kerja Fin, atau lihat pusat bantuan kami untuk informasi lebih lanjut tentang langkah-langkah keamanan data dan privasi kami.

Demo Sirip CTA