الخصوصية والأمان والدقة: كيف تتعامل روبوتات الدردشة المدعمة بالذكاء الاصطناعي مع أعمق مخاوفك المتعلقة بالبيانات

نشرت: 2023-08-24

ChatGPT هي أداة رائعة – يستخدمها الملايين من الأشخاص للقيام بكل شيء بدءًا من كتابة المقالات والبحث عن العطلات وحتى إعداد برامج التمارين الرياضية وحتى إنشاء التطبيقات. تبدو إمكانات الذكاء الاصطناعي التوليدي لا نهاية لها.

ولكن عندما يتعلق الأمر باستخدام الذكاء الاصطناعي التوليدي لخدمة العملاء، وهو ما يعني مشاركة بيانات عملائك واستفساراتهم ومحادثاتهم، إلى أي مدى يمكنك الوثوق حقًا في الذكاء الاصطناعي؟ يتم تشغيل روبوتات الدردشة التوليدية المستندة إلى الذكاء الاصطناعي بواسطة نماذج لغوية كبيرة (LLMs) مدربة على عدد كبير من مجموعات البيانات المأخوذة من الإنترنت. وفي حين أن الإمكانيات التي تأتي من الوصول إلى هذا القدر الكبير من البيانات تعتبر رائدة، فإنها تثير مجموعة من المخاوف حول التنظيم والشفافية والخصوصية.

منذ أن أطلقنا Fin، الروبوت الخاص بنا الذي يعمل بالذكاء الاصطناعي، شهدنا مستويات غير مسبوقة من الإثارة لإمكانات الذكاء الاصطناعي في خدمة العملاء. ولكننا واجهنا أيضًا الكثير من الأسئلة، والعديد منها يندرج تحت موضوعين رئيسيين:

  1. أمان وخصوصية المعلومات التي يقدمها العملاء لبرنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي.
  2. دقة وموثوقية المعلومات التي يقدمها برنامج الدردشة الآلي للعملاء.

سنغطي هنا أهم الأشياء التي يجب فهمها حول كيفية تأثير روبوتات الدردشة المدعمة بالذكاء الاصطناعي على أمن البيانات والخصوصية عبر الصناعات، والطريقة التي نتعامل بها مع هذه المشكلات عندما يتعلق الأمر بـ Fin.

أمن البيانات والخصوصية

لا تستطيع أي شركة تحمل المخاطر المتعلقة ببيانات العملاء. الثقة هي أساس كل علاقة بين الشركة والعملاء، ويحتاج العملاء إلى الشعور بالثقة بأن معلوماتهم يتم التعامل معها بعناية وحمايتها إلى أعلى درجة . يوفر الذكاء الاصطناعي التوليدي فرصًا لا حصر لها، ولكنه يثير أيضًا أسئلة مهمة حول سلامة بيانات العملاء. وكما هو الحال دائمًا، تتطور التكنولوجيا بشكل أسرع من المبادئ التوجيهية وأفضل الممارسات، وتسعى الهيئات التنظيمية العالمية جاهدة لمواكبة ذلك.

الاتحاد الأوروبي واللائحة العامة لحماية البيانات

خذ الاتحاد الأوروبي على سبيل المثال. تعد اللائحة العامة لحماية البيانات (GDPR) واحدة من أكثر القوى التنظيمية صرامة التي تغطي البيانات الشخصية في العالم. والآن بعد أن غيّر الذكاء الاصطناعي اللعبة قواعد اللعبة، فأين موقعه ضمن إطار اللائحة العامة لحماية البيانات؟ وفقًا لدراسة حول تأثير اللائحة العامة لحماية البيانات على الذكاء الاصطناعي أجرتها الخدمة البرلمانية الأوروبية، هناك توتر معين بين اللائحة العامة لحماية البيانات وأدوات مثل ChatGPT، التي تعالج كميات هائلة من البيانات لأغراض لم يتم شرحها صراحةً للأشخاص الذين قدموا تلك البيانات في الأصل. .

ومع ذلك، وجد التقرير أن هناك طرقًا لتطبيق المبادئ الحالية وتطويرها بحيث تكون متوافقة مع الاستخدام المتوسع للذكاء الاصطناعي والبيانات الضخمة. ولتحقيق هذا الاتساق بشكل كامل، تجري حاليًا مناقشة قانون الذكاء الاصطناعي في الاتحاد الأوروبي، ومن المتوقع صدور مجموعة صارمة من اللوائح، التي تنطبق على ناشري أنظمة الذكاء الاصطناعي داخل الاتحاد الأوروبي وخارجه، في نهاية عام 2023 - بعد أكثر من عام تم إصدار ChatGPT في نوفمبر 2022.

"في حين أن التنظيم يواكب التقدم السريع للذكاء الاصطناعي التوليدي، فإن المسؤولية تقع على عاتق مقدمي برامج الدردشة الآلية المدعمة بالذكاء الاصطناعي لضمان الحفاظ على أمن البيانات كأولوية قصوى لهم"

وفي الوقت نفسه، في الولايات المتحدة

لا تزال الولايات المتحدة في المراحل الأولى من التنظيم وسن القوانين عندما يتعلق الأمر بالذكاء الاصطناعي، ولكن المناقشات جارية وقد التزمت سبع من أكبر شركات التكنولوجيا باتفاقيات طوعية تتعلق بمجالات مثل تبادل المعلومات والاختبار والشفافية. ومن الأمثلة على ذلك الالتزام بإضافة علامة مائية إلى المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي - وهي خطوة بسيطة، ولكنها مهمة لسياق المستخدم وفهمه.

وفي حين تمثل هذه الخطوات بعض التقدم، بالنسبة لقطاعات مثل صناعة الصحة، فإن المجهول قد يمثل عقبة أمام اعتماد الذكاء الاصطناعي. اقترح مقال في مجلة الجمعية الطبية الأمريكية أنه لا يزال من الممكن استخدام هذه التكنولوجيا طالما أن المستخدم يتجنب إدخال المعلومات الصحية المحمية (PHI). وكخطوة أخرى، يقوم بائعون مثل OpenAI الآن بتطوير اتفاقيات شركاء الأعمال التي من شأنها أن تسمح للعملاء الذين لديهم حالات الاستخدام هذه بالامتثال للوائح مثل HIPAA و SOC-2 أثناء استخدام منتجاتهم.

باختصار، في حين أن التنظيم يواكب التقدم السريع للذكاء الاصطناعي التوليدي، فإن المسؤولية تقع على عاتق مقدمي برامج الدردشة الآلية المدعمة بالذكاء الاصطناعي لضمان الحفاظ على أمن البيانات كأولوية قصوى لهم وأن يكونوا صريحين وشفافين مع عملائهم.

كيف يتعامل Fin مع أمن البيانات والخصوصية

هنا في Intercom، نتعامل مع مسألة حماية البيانات على محمل الجد، وقد كانت عنصرًا رئيسيًا في كل قرار اتخذناه منذ أن بدأنا في إنشاء برنامج الدردشة الآلي الخاص بنا والذي يعمل بتقنية الذكاء الاصطناعي. فيما يلي الأسئلة الأكثر إلحاحًا التي نتلقاها من فرق خدمة العملاء حول الطريقة التي سيتم بها جمع بياناتهم وبيانات عملائهم ومعالجتها وتخزينها.

كيف سيتعامل Fin مع محتوى الدعم الخاص بي؟

يتم تشغيل Fin بواسطة مزيج من النماذج بما في ذلك OpenAI's GPT-4، وسوف يقوم بمعالجة محتوى الدعم الخاص بك من خلال LLMs على فترات زمنية محددة لتقديم إجابات لاستفسارات العملاء.

كيف ستتعامل Fin مع بيانات محادثة العملاء؟

أثناء كل محادثة مع العميل، سيتم إرسال جميع بيانات المحادثة حرفيًا إلى OpenAI، بما في ذلك أي معلومات تعريف شخصية داخل المحادثة.

هل سيتم استخدام محتوى الدعم الخاص بي أو بيانات محادثة العملاء لتدريب النماذج أو تحسينها؟

هذا سؤال شائع. تقوم الكثير من روبوتات الذكاء الاصطناعي بدمج البيانات التي تعمل معها لتدريب نماذج جديدة أو تحسين النماذج الحالية، ويعتبرها مقدمو الخدمة بمثابة نقطة قوة. في Intercom، نحن نختلف تمامًا مع هذا المنظور - لن يتم استخدام المحادثات والتعليقات الآمنة لعملائك مطلقًا لتدريب أي من نماذج الجهات الخارجية التي نستخدمها لتشغيل Fin.

أمن خصوصية البيانات إريك فيتزجيرالد (1)

هل سيتم الاحتفاظ ببياناتي بواسطة OpenAI؟

لا - لقد وقعنا على سياسة الاحتفاظ بالبيانات الصفرية، مما يعني أنه لن يتم الاحتفاظ بأي من بياناتك بواسطة OpenAI لأي فترة من الوقت.

هل ستؤثر منطقة استضافة البيانات الخاصة بي على قدرتي على استخدام Fin؟

حاليًا، لا يمكن استخدام Fin إلا من قبل العملاء الذين يستضيفون بياناتهم في الولايات المتحدة. بموجب شروط استضافة بيانات الاتحاد الأوروبي الخاصة بشركة Intercom ، فإننا نوافق على تخزين بيانات عملائنا (بما في ذلك أي بيانات شخصية) داخل الاتحاد الأوروبي. لا تقدم OpenAI حاليًا استضافة في الاتحاد الأوروبي، لذا فإن أي معلومات شخصية يتم إرسالها إليهم كجزء من تكاملها مع Intercom يجب معالجتها في الولايات المتحدة وقد لا تكون متوافقة مع شروط استضافة البيانات الخاصة بالاتحاد الأوروبي أو الاتحاد الأفريقي الخاصة بشركة Intercom. نحن نعمل على جعل Fin متاحًا لمزيد من المناطق في المستقبل.

دقة وموثوقية إجابات روبوت الذكاء الاصطناعي

تتمتع نماذج اللغات الكبيرة المختلفة بنقاط قوة مختلفة، ولكن في الوقت الحالي، يعتبر GPT-4 الخاص بـ OpenAI بشكل عام واحدًا من أفضل برامج LLM المتاحة من حيث الجدارة بالثقة. في Intercom، بدأنا تجربة ChatGPT من OpenAI بمجرد إصداره، مدركين لقدرته على إحداث تحول كامل في الطريقة التي تعمل بها خدمة العملاء. في تلك المرحلة، كانت "الهلوسة"، وهي ميل ChatGPT إلى اختراع استجابة معقولة عندما لا يعرف الإجابة على سؤال ما، بمثابة مخاطرة كبيرة جدًا بحيث لا يمكن وضعها أمام العملاء.

"إن جودة برنامج الدردشة الآلي الذي يعتمد على الذكاء الاصطناعي لا تقل جودة عن جودة البيانات التي تم تدريبه عليها"

لقد رأينا مئات الأمثلة على هذه الهلوسة المنتشرة عبر وسائل التواصل الاجتماعي في أعقاب إصدار ChatGPT، والتي تتراوح من المضحكة إلى المرعبة قليلاً. وبالنظر إلى أن مصدر بيانات تدريب ChatGPT كان "كل الإنترنت قبل عام 2021"، فليس من المستغرب أن تكون بعض التفاصيل غير صحيحة.

في الأساس، تكون جودة روبوت الدردشة المدعم بالذكاء الاصطناعي جيدة بقدر جودة البيانات التي تم تدريبه عليها. في سياق خدمة العملاء، ستعرض مجموعة البيانات منخفضة الجودة العملاء لإجابات يمكن أن تلحق الضرر بالعلامة التجارية لشركتك - سواء كانت غير دقيقة أو غير ذات صلة أو غير مناسبة - مما يؤدي إلى إحباط العملاء، وتقليل القيمة التي يحصل عليها العميل من منتجك، و وفي نهاية المطاف، التأثير على الولاء للعلامة التجارية.

لقد قدم إصدار GPT-4 في مارس 2023 حلاً أخيرًا. وكما قال مديرنا الأول للتعلم الآلي، فيرغال ريد في مقابلة مع موقع econsultancy.com، "لقد ألقينا نظرة خاطفة مبكرة على GPT-4 وأعجبنا على الفور بالضمانات المتزايدة ضد الهلوسة وقدرات اللغة الطبيعية الأكثر تقدمًا. لقد شعرنا أن التكنولوجيا قد تجاوزت الحد الذي يمكن استخدامه أمام العملاء.

"تحتاج الشركات إلى التحكم في المعلومات التي يتلقاها عملاؤها للتأكد من أنها دقيقة وحديثة وذات صلة بمنتجها"

على الرغم من دقة GPT-4 المذهلة، إلا أنه غير مناسب في البداية لخدمة العملاء "خارج الصندوق". تحتاج الشركات إلى التحكم في المعلومات التي يتلقاها عملاؤها للتأكد من أنها دقيقة وحديثة وذات صلة بمنتجها. من خلال إضافة برنامجنا الخاص إلى GPT-4، أنشأنا حواجز حماية تحصر المعلومات المتاحة للروبوت في مصدر محدد ترشحه فرق عملائنا.

لذلك، بمجرد التأكد من أن بيانات عملائك آمنة مع Fin، ستحتاج إلى أن تكون واثقًا تمامًا من أن Fin ستسحب المعلومات من المصادر الموثوقة التي تتحكم فيها، لتوفير المعلومات الصحيحة لعملائك.

ما هو LLM الذي تدعمه Fin؟

يتم تشغيل Fin بواسطة مزيج من نماذج اللغات الكبيرة، بما في ذلك OpenAI's GPT-4 ، الأكثر دقة في السوق والأقل عرضة للهلوسة من غيرها.

هل يمكنني اختيار المحتوى الذي يسحب Fin إجاباته منه؟

تستمد Fin إجاباتها من المصادر التي تحددها ، سواء كان ذلك مركز المساعدة الخاص بك، أو مكتبة محتوى الدعم، أو أي عنوان URL عام يشير إلى المحتوى الخاص بك. وبهذه الطريقة، يمكنك أن تكون واثقًا من دقة جميع المعلومات التي يستخدمها Fin للإجابة على أسئلة عملائك، وأثناء مراقبة أداء Fin، يمكنك توسيع المحتوى الذي يدعم روبوت الذكاء الاصطناعي أو تحسينه أو تفصيله.

ماذا سيفعل فين إذا لم يعرف إجابة السؤال؟

يشبه Fin كل وكيل دعم جيد - إذا لم يتمكن من العثور على إجابة لسؤال ما، فإن حواجز التعلم الآلي الخاصة بنا تضمن اعترافه بعدم معرفته، وتمرير المحادثة بسلاسة إلى مندوب الدعم لضمان جودة عالية باستمرار تجربة الدعم. على عكس ChatGPT، أو بعض روبوتات الدردشة الأخرى لخدمة العملاء التي تعمل بالذكاء الاصطناعي، لن تقدم Fin إجابة أبدًا، وستوفر دائمًا مصادر للإجابات التي تقدمها من محتوى الدعم الخاص بك.

هل يمكن لعملائي الوصول إلى مندوب الدعم البشري إذا أرادوا ذلك؟

يعرف فريق الدعم عملائك بشكل أفضل من أي شخص آخر، ومن المهم أن يتمكن عملاؤك من الوصول إليهم بسهولة. يوفر Fin للعملاء خيار توجيه استعلامهم على الفور نحو مندوب الدعم البشري. إذا كان العميل سعيدًا بتجربة Fin، لكنه لا يعرف الإجابة على سؤاله، فقد قمنا ببناء حواجز حماية للتعلم الآلي لمطالبة Fin بطرح أسئلة توضيحية وفرز الاستعلام وتسليمه إلى الفريق المناسب لحله .

تعرف على المزيد حول كيفية عمل Fin، أو قم بزيارة مركز المساعدة الخاص بنا للحصول على مزيد من المعلومات حول إجراءات أمان البيانات والخصوصية لدينا.

عرض الزعانف CTA