ความเป็นส่วนตัว ความปลอดภัย ความแม่นยำ: วิธีที่แชทบอท AI จัดการกับข้อกังวลด้านข้อมูลที่ลึกที่สุดของคุณ

เผยแพร่แล้ว: 2023-08-24

ChatGPT เป็นเครื่องมือที่น่าทึ่ง ผู้คนนับล้านใช้มันเพื่อทำทุกอย่างตั้งแต่การเขียนเรียงความและค้นคว้าข้อมูลในช่วงวันหยุด ไปจนถึงการเตรียมโปรแกรมการออกกำลังกาย หรือแม้แต่การสร้างแอป ศักยภาพของ generative AI รู้สึกไม่มีที่สิ้นสุด

แต่เมื่อพูดถึงการใช้ generative AI สำหรับการบริการลูกค้า ซึ่งหมายถึงการแบ่งปันข้อมูล คำค้นหา และการสนทนาของลูกค้า คุณจะเชื่อถือ AI ได้มากแค่ไหน แชทบอท Generative AI ขับเคลื่อนโดยโมเดลภาษาขนาดใหญ่ (LLM) ที่ได้รับการฝึกอบรมจากชุดข้อมูลจำนวนมหาศาลที่ดึงมาจากอินเทอร์เน็ต แม้ว่าความเป็นไปได้ที่มาจากการเข้าถึงข้อมูลจำนวนมากนั้นถือเป็นเรื่องแปลกใหม่ แต่ก็มีข้อกังวลหลายประการเกี่ยวกับกฎระเบียบ ความโปร่งใส และความเป็นส่วนตัว

นับตั้งแต่เราเปิดตัว Fin ซึ่งเป็นบอทที่ขับเคลื่อนด้วย AI เราได้เห็นความตื่นเต้นอย่างที่ไม่เคยมีมาก่อนสำหรับศักยภาพของ AI ในการบริการลูกค้า แต่เรายังพบคำถามมากมาย หลายคำถามอยู่ในสองประเด็นหลัก:

  1. ความปลอดภัยและความเป็นส่วนตัวของข้อมูลที่ลูกค้ามอบให้กับแชทบอท AI
  2. ความถูกต้องและความน่าเชื่อถือของข้อมูลที่แชทบอท AI มอบให้แก่ลูกค้า

ที่นี่ เราจะกล่าวถึงสิ่งที่สำคัญที่สุดเพื่อทำความเข้าใจว่าแชทบอท AI ส่งผลต่อความปลอดภัยของข้อมูลและความเป็นส่วนตัวในอุตสาหกรรมต่างๆ อย่างไร และวิธีที่เราจัดการกับปัญหาเหล่านี้เมื่อพูดถึง Fin

ความปลอดภัยของข้อมูลและความเป็นส่วนตัว

ไม่มีบริษัทใดสามารถกล้าเสี่ยงกับข้อมูลลูกค้าได้ ความไว้วางใจเป็นรากฐานของความสัมพันธ์ระหว่างลูกค้าธุรกิจและลูกค้า และลูกค้าต้องรู้สึกมั่นใจว่าข้อมูลของตนได้รับการปฏิบัติด้วยความเอาใจใส่และ ปกป้อง ในระดับสูงสุด Generative AI มอบโอกาสอันไม่มีที่สิ้นสุด แต่ยังทำให้เกิดคำถามสำคัญเกี่ยวกับความปลอดภัยของข้อมูลลูกค้าอีกด้วย เช่นเคย เทคโนโลยีมีการพัฒนาเร็วกว่าแนวทางปฏิบัติและแนวทางปฏิบัติที่ดีที่สุด และหน่วยงานกำกับดูแลระดับโลกก็พยายามดิ้นรนเพื่อให้ทัน

สหภาพยุโรปและ GDPR

ยกตัวอย่างเช่นสหภาพยุโรป กฎการคุ้มครองข้อมูลทั่วไป (GDPR) เป็นหนึ่งในหน่วยงานกำกับดูแลที่เข้มงวดที่สุดซึ่งครอบคลุมข้อมูลส่วนบุคคลในโลก ตอนนี้ generative AI ได้เปลี่ยนเกมไปแล้ว มันอยู่ตรงไหนในกรอบ GDPR จาก การศึกษาผลกระทบของ GDPR ต่อ AI ที่ดำเนินการโดย European Parliamentary Service มีความตึงเครียดบางอย่างระหว่าง GDPR และเครื่องมือเช่น ChatGPT ซึ่งประมวลผลข้อมูลจำนวนมหาศาลเพื่อวัตถุประสงค์ที่ไม่ได้อธิบายอย่างชัดเจนแก่ผู้ที่ให้ข้อมูลนั้นในตอนแรก .

อย่างไรก็ตาม รายงานพบว่ามีวิธีต่างๆ ที่จะนำไปใช้และพัฒนาหลักการที่มีอยู่ เพื่อให้สอดคล้องกับการใช้ AI และ Big Data ที่เพิ่มมากขึ้น เพื่อให้บรรลุความสอดคล้องนี้โดยสมบูรณ์ ขณะนี้ พระราชบัญญัติ AI กำลังถูกถกเถียงกันในสหภาพยุโรป และชุดกฎระเบียบที่เข้มงวดซึ่งนำไปใช้กับผู้ปรับใช้ระบบ AI ทั้งในและนอกสหภาพยุโรป คาดว่าจะในช่วงปลายปี 2566 - มากกว่าหนึ่งปีหลังจากนั้น ChatGPT เปิดตัวในเดือนพฤศจิกายน 2022

“ในขณะที่กฎระเบียบไล่ตามความก้าวหน้าอย่างรวดเร็วของ generative AI ความรับผิดชอบอยู่ที่ผู้ให้บริการแชทบอท AI เพื่อให้แน่ใจว่าพวกเขารักษาความปลอดภัยของข้อมูลเป็นสิ่งสำคัญที่สุด”

ในขณะเดียวกันในสหรัฐอเมริกา

สหรัฐอเมริกายังคงอยู่ใน ขั้นเริ่มต้น ของกฎระเบียบและการออกกฎหมายเมื่อพูดถึง AI แต่การหารือยังอยู่ระหว่างดำเนินการ และบริษัทเทคโนโลยีที่ใหญ่ที่สุดเจ็ดแห่งได้ให้คำมั่น สัญญาที่จะทำข้อตกลงโดยสมัครใจ ที่เกี่ยวข้องกับด้านต่างๆ เช่น การแบ่งปันข้อมูล การทดสอบ และความโปร่งใส ตัวอย่างคือความมุ่งมั่นที่จะเพิ่มลายน้ำให้กับเนื้อหาที่สร้างโดย AI ซึ่งเป็นขั้นตอนง่ายๆ แต่สำคัญสำหรับบริบทและความเข้าใจของผู้ใช้

แม้ว่าขั้นตอนเหล่านี้จะบ่งบอกถึงความก้าวหน้า แต่สำหรับภาคส่วนต่างๆ เช่น อุตสาหกรรมด้านสุขภาพ สิ่งที่ไม่ทราบอาจเป็นอุปสรรคต่อการนำ AI มาใช้ บทความ ในวารสาร American Medical Association แนะนำว่าเทคโนโลยีนี้ยังคงสามารถใช้งาน ได้ ตราบใดที่ผู้ใช้หลีกเลี่ยงการป้อนข้อมูลสุขภาพที่ได้รับการคุ้มครอง (PHI) ในขั้นตอนต่อไป ผู้จำหน่ายอย่าง OpenAI กำลังพัฒนาข้อตกลงร่วมธุรกิจซึ่งจะอนุญาตให้ลูกค้าที่มีกรณีการใช้งานเหล่านี้ปฏิบัติตามกฎระเบียบเช่น HIPAA และ SOC-2 ในขณะที่ใช้ผลิตภัณฑ์ของตน

กล่าวโดยสรุป แม้ว่ากฎระเบียบจะไล่ตามความก้าวหน้าอย่างรวดเร็วของ Generative AI แต่ความรับผิดชอบก็อยู่ที่ผู้ให้บริการแชทบอท AI เพื่อให้แน่ใจว่าพวกเขารักษาความปลอดภัยของข้อมูลเป็นความสำคัญสูงสุด และตรงไปตรงมาและโปร่งใสกับลูกค้าของพวกเขา

Fin จัดการกับความปลอดภัยของข้อมูลและความเป็นส่วนตัวอย่างไร

ที่ Intercom เราให้ความสำคัญกับการปกป้องข้อมูลอย่างจริงจัง และเป็นองค์ประกอบสำคัญของการตัดสินใจทุกครั้งตั้งแต่เราเริ่มสร้างแชทบอท AI ของเรา ต่อไปนี้เป็นคำถามเร่งด่วนที่สุดที่เราได้รับจากทีมบริการลูกค้าเกี่ยวกับวิธีการรวบรวม จัดการ และจัดเก็บข้อมูลของพวกเขา และข้อมูลของลูกค้าของพวกเขา

Fin จะจัดการกับเนื้อหาสนับสนุนของฉันอย่างไร?

Fin ขับเคลื่อนโดยโมเดลหลายรุ่น รวมถึง GPT-4 ของ OpenAI และจะประมวลผลเนื้อหาการสนับสนุนของคุณผ่าน LLM เหล่านี้ตามช่วงเวลาที่กำหนดเพื่อตอบคำถามของลูกค้า

Fin จะจัดการข้อมูลการสนทนาของลูกค้าอย่างไร?

ในระหว่างการสนทนากับลูกค้าแต่ละครั้ง ข้อมูลการสนทนาทั้งหมดจะถูกส่งแบบคำต่อคำไปยัง OpenAI รวมถึงข้อมูลที่สามารถระบุตัวบุคคลได้ภายในการสนทนา

เนื้อหาการสนับสนุนของฉันหรือข้อมูลการสนทนากับลูกค้าจะถูกนำมาใช้ในการฝึกอบรมหรือปรับปรุงโมเดลหรือไม่

นี่เป็นคำถามทั่วไป บอท AI จำนวนมากรวมข้อมูลที่พวกเขาทำงานด้วยเพื่อฝึกฝนโมเดลใหม่หรือปรับปรุงโมเดลที่มีอยู่ และผู้ให้บริการอ้างว่าเป็นจุดแข็ง ที่ Intercom เราไม่เห็นด้วยอย่างยิ่งกับมุมมองนี้ การสนทนาและคำติชมที่ปลอดภัยของลูกค้าจะไม่ถูกนำมาใช้ในการฝึกอบรมโมเดลของบริษัทอื่นที่เราใช้ในการขับเคลื่อน Fin

การรักษาความปลอดภัยความเป็นส่วนตัวของข้อมูลของ Eric Fitzgerald (1)

ข้อมูลของฉันจะถูกเก็บรักษาโดย OpenAI หรือไม่

ไม่ เราได้ลงชื่อสมัครใช้นโยบาย Zero Data Retention ซึ่งหมายความว่า OpenAI จะไม่มีการเก็บข้อมูลของคุณไว้ในช่วงเวลาใดๆ ก็ตาม

ภูมิภาคการโฮสต์ข้อมูลของฉันจะส่งผลต่อความสามารถในการใช้ Fin ของฉันหรือไม่

ปัจจุบัน Fin สามารถใช้งานได้โดยลูกค้าที่โฮสต์ข้อมูลของตนในสหรัฐอเมริกาเท่านั้น ภายใต้ ข้อกำหนด EU Data Hosting ของ Intercom เราตกลงที่จะจัดเก็บข้อมูลของลูกค้า (รวมถึงข้อมูลส่วนบุคคลใด ๆ ) ภายในสหภาพยุโรป ปัจจุบัน OpenAI ไม่ได้ให้บริการโฮสติ้งในสหภาพยุโรป ดังนั้นข้อมูลส่วนบุคคลใดๆ ที่ส่งถึงพวกเขาโดยเป็นส่วนหนึ่งของการบูรณาการกับ Intercom จะต้องได้รับการประมวลผลในสหรัฐอเมริกา และอาจไม่เป็นไปตามข้อกำหนดการโฮสต์ข้อมูลใน EU หรือ AU ของ Intercom เรากำลังดำเนินการเพื่อให้ Fin เข้าถึงได้ในภูมิภาคอื่นๆ มากขึ้นในอนาคต

ความแม่นยำและความน่าเชื่อถือของคำตอบของบอท AI

โมเดลภาษาขนาดใหญ่ที่แตกต่างกันมีจุดแข็งที่แตกต่างกัน แต่ในขณะนี้ GPT-4 ของ OpenAI โดยทั่วไปถือว่าเป็น หนึ่งใน LLM อันดับต้น ๆ ในแง่ของความน่าเชื่อถือ ที่ Intercom เราเริ่มทดลองใช้ ChatGPT ของ OpenAI ทันทีที่เปิดตัว โดยตระหนักถึงศักยภาพในการเปลี่ยนแปลงวิธีการทำงานของบริการลูกค้าโดยสิ้นเชิง ในช่วงนั้น “อาการประสาทหลอน” แนวโน้มของ ChatGPT ที่จะประดิษฐ์การตอบสนองที่ฟังดูน่าเชื่อถือโดยที่ไม่รู้คำตอบของคำถาม ถือเป็นความเสี่ยงที่มากเกินไปที่จะนำเสนอต่อหน้าลูกค้า

“แชทบอท AI จะดีก็ต่อเมื่อข้อมูลที่ฝึกฝนเท่านั้น”

เราเห็นตัวอย่างภาพหลอนเหล่านี้หลายร้อยตัวอย่างในโซเชียลมีเดียหลังจากการเปิดตัว ChatGPT มีตั้งแต่แบบตลกขบขันไปจนถึงน่ากลัวเล็กน้อย เมื่อพิจารณาว่าแหล่งข้อมูลการฝึกอบรมของ ChatGPT เป็น "อินเทอร์เน็ตทั้งหมดก่อนปี 2021" จึงไม่น่าแปลกใจที่รายละเอียดบางอย่างไม่ถูกต้อง

โดยพื้นฐานแล้ว แชทบอท AI จะดีพอๆ กับข้อมูลที่ฝึกฝนเท่านั้น ในบริบทการบริการลูกค้า ชุดข้อมูลคุณภาพต่ำจะทำให้ลูกค้าได้รับคำตอบที่อาจสร้างความเสียหายให้กับแบรนด์บริษัทของคุณ ไม่ว่าจะไม่ถูกต้อง ไม่เกี่ยวข้อง หรือไม่เหมาะสม ซึ่งนำไปสู่ความคับข้องใจของลูกค้า ลดมูลค่าที่ลูกค้าได้รับจากผลิตภัณฑ์ของคุณ และ ส่งผลต่อความภักดีต่อแบรนด์ในที่สุด

ในที่สุดการเปิดตัว GPT-4 ในเดือนมีนาคม 2023 ก็เสนอวิธีแก้ปัญหาได้ ในฐานะผู้อำนวยการอาวุโสฝ่าย Machine Learning ของเรา Fergal Reid กล่าวในการให้สัมภาษณ์กับ ecoconsultancy.com ว่า "เราได้ดู GPT-4 ตั้งแต่เนิ่นๆ และรู้สึกประทับใจในทันทีกับการป้องกันภาพหลอนที่เพิ่มขึ้นและความสามารถทางภาษาธรรมชาติขั้นสูงยิ่งขึ้น เรารู้สึกว่าเทคโนโลยีได้ก้าวข้ามเกณฑ์ที่สามารถนำไปใช้ต่อหน้าลูกค้าได้”

“บริษัทจำเป็นต้องควบคุมข้อมูลที่ลูกค้าได้รับเพื่อให้แน่ใจว่าถูกต้อง ทันสมัย ​​และเกี่ยวข้องกับผลิตภัณฑ์ของตน”

แม้ว่า GPT-4 จะมีความแม่นยำอย่างเหลือเชื่อ แต่ในตอนแรกก็ไม่เหมาะสำหรับการบริการลูกค้าแบบ “นอกกรอบ” บริษัทจำเป็นต้องควบคุมข้อมูลที่ลูกค้าได้รับเพื่อให้แน่ใจว่ามีความถูกต้อง เป็นปัจจุบัน และเกี่ยวข้องกับผลิตภัณฑ์ของตน ด้วยการเพิ่มซอฟต์แวร์ที่เป็นกรรมสิทธิ์ของเราเองลงใน GPT-4 เราได้สร้างรั้วที่จำกัดข้อมูลที่มีอยู่ของบอทให้อยู่เฉพาะแหล่งข้อมูลเฉพาะที่ได้รับการเสนอชื่อโดยทีมลูกค้าของเรา

ดังนั้น เมื่อคุณมั่นใจได้ว่าข้อมูลลูกค้าของคุณปลอดภัยด้วย Fin คุณจะต้องมั่นใจอย่างยิ่งว่า Fin จะดึงข้อมูลจากแหล่งที่เชื่อถือได้ซึ่งคุณควบคุม เพื่อมอบข้อมูลที่ถูกต้องให้กับลูกค้าของคุณ

Fin ขับเคลื่อนโดย LLM อะไร?

Fin ขับเคลื่อนโดยโมเดลภาษาขนาดใหญ่ผสมกัน ซึ่งรวมถึง GPT-4 ของ OpenAI ซึ่งมีความแม่นยำมากที่สุดในตลาดและมีแนวโน้มที่จะมีอาการประสาทหลอนน้อยกว่ารุ่นอื่นๆ มาก

ฉันสามารถเลือกเนื้อหาที่ Fin ดึงคำตอบออกมาได้หรือไม่?

Fin ดึงคำตอบจาก แหล่งที่คุณระบุ ไม่ว่าจะเป็นศูนย์ช่วยเหลือของคุณ ไลบรารีเนื้อหาที่สนับสนุน หรือ URL สาธารณะใดๆ ที่ชี้ไปยังเนื้อหาของคุณเอง ด้วยวิธีนี้ คุณจะมั่นใจในความถูกต้องของข้อมูลทั้งหมดที่ Fin ใช้เพื่อตอบคำถามของลูกค้า และเมื่อคุณตรวจสอบประสิทธิภาพของ Fin คุณสามารถขยาย ปรับปรุง หรืออธิบายรายละเอียดเกี่ยวกับเนื้อหาที่ขับเคลื่อนบอท AI ได้

ฟินจะทำยังไงถ้าไม่รู้คำตอบ?

Fin ก็เหมือนกับตัวแทนฝ่ายสนับสนุนที่ดีทุกคน หากไม่สามารถหาคำตอบสำหรับคำถามได้ รั้วการเรียนรู้ของเครื่องของเราจะรับรองว่ายอมรับว่าตนไม่ทราบ และส่งผ่านการสนทนาไปยังตัวแทนฝ่ายสนับสนุนได้อย่างราบรื่นเพื่อให้แน่ใจว่ามีคุณภาพสูงอย่างสม่ำเสมอ ประสบการณ์การสนับสนุน ไม่เหมือนกับ ChatGPT หรือแชทบอทบริการลูกค้า AI อื่นๆ Fin จะไม่สร้างคำตอบ และจะจัดหาแหล่งที่มาสำหรับคำตอบที่ได้รับจากเนื้อหาสนับสนุนของคุณเสมอ

ลูกค้าของฉันสามารถเข้าถึงตัวแทนฝ่ายสนับสนุนที่เป็นมนุษย์ได้หรือไม่หากต้องการ?

ทีมสนับสนุนของคุณรู้จักลูกค้าของคุณดีกว่าใครๆ และจำเป็นอย่างยิ่งที่ลูกค้าของคุณจะต้องเข้าถึงพวกเขาได้ง่าย Fin เสนอทางเลือกให้ลูกค้าส่งคำถามไปยังตัวแทนฝ่ายสนับสนุนที่เป็นมนุษย์ได้ทันที หากลูกค้ายินดีลองใช้ Fin แต่ไม่ทราบคำตอบสำหรับคำถามของพวกเขา เราได้สร้างรั้วการเรียนรู้ของเครื่องเพื่อแจ้งให้ Fin ถามคำถามเพื่อชี้แจง คัดแยกคำถาม และส่งต่อให้กับทีมที่เหมาะสมเพื่อแก้ไข .

ค้นหาข้อมูลเพิ่มเติมเกี่ยวกับวิธีการทำงานของ Fin หรือตรวจสอบศูนย์ช่วยเหลือของเราเพื่อดูข้อมูลเพิ่มเติมเกี่ยวกับมาตรการรักษาความปลอดภัยข้อมูลและความเป็นส่วนตัวของเรา

สาธิต Fin CTA