بداية المحادثة: دردشة حول روبوت الدردشة الآلي الجديد الرائد لدينا
نشرت: 2023-03-15يتحرك عالم الذكاء الاصطناعي بسرعة ، وهنا في Intercom ، نساعد في ضبط هذه الوتيرة. اليوم ، يسعدنا أن نقدم Fin ، روبوت الدردشة الجديد الخاص بنا والمدعوم من OpenAI's GPT-4 وتكنولوجيا التعلم الآلي الخاصة بـ Intercom.
قبل بضعة أسابيع فقط ، أعلنا عن أول ميزاتنا التي تدعم GPT في الاتصال الداخلي - وهي مجموعة من الأدوات المفيدة لممثلي خدمة العملاء - وكان عملاؤنا يتمتعون حقًا بالكفاءة الإضافية التي توفرها هذه الميزات.
ومع ذلك ، كان الهدف الأكبر هو إنشاء روبوت محادثة مدعوم من GPT يمكنه الإجابة على استفسارات العملاء مباشرة. للقيام بذلك ، يجب أن تكون قادرة على تسخير قوة النماذج اللغوية الكبيرة ولكن بدون العيوب التي تشكلها "الهلوسة". في البداية ، لم نكن متأكدين من الوقت الذي سيستغرقه حل هذه المشكلة ، ولكن الآن ، مع إصدار GPT-4 بواسطة OpenAI ، يمكننا الكشف عن أننا قمنا ببناء روبوت محادثة يمكنه الإجابة بشكل موثوق على أسئلة العملاء بمستوى عالٍ . لقد أطلقنا عليه اسم Fin.
في حلقة اليوم من بودكاست Inside Intercom ، جلست مع مدير التعلم الآلي لدينا ، Fergal Reid ، لمناقشة روبوت الدردشة الآلي الجديد الخاص بنا ، وكيف قمنا ببنائه ، وماذا يفعل ، وكيف تبدو الخطوات التالية لهذا الإنجاز الرائع.
فيما يلي بعض النقاط الرئيسية:
- يمكن أن يتحدث روبوت الدردشة الآلي الجديد الخاص بنا بشكل طبيعي باستخدام أحدث تقنيات GPT.
- تستوعب Fin المعلومات من مركز المساعدة الموجود لديك وتستخدم تلك المعرفة فقط ، مما يمنحك التحكم في كيفية إجابتها على الأسئلة المتعلقة بعملك.
- في Intercom ، نعتقد أن مستقبل الدعم هو مزيج من الروبوتات والبشر. لن تتمكن Fin من الإجابة على جميع استفسارات العملاء ، وفي هذه المواقف ، يمكنها تمرير أسئلة أصعب إلى فرق الدعم البشري بسلاسة.
- لقد قللنا الهلوسة بنحو 10x ، مما أدى إلى وضع قيود تقصر Fin على الاستفسارات المتعلقة بعملك ، بناءً على قاعدة معرفية تثق بها.
إذا كنت تستمتع بمناقشتنا ، فاطلع على المزيد من حلقات البودكاست الخاص بنا. يمكنك متابعة Apple Podcasts أو Spotify أو YouTube أو الحصول على موجز RSS في المشغل الذي تختاره. ما يلي هو نسخة منقحة قليلاً من الحلقة.
روبوت بأي اسم آخر
Des Traynor: مرحبًا بكم في حلقة مثيرة من بودكاست Intercom. انضم إلينا مرة أخرى Fergal Reid ، مدير التعلم الآلي لدينا ، وسيخبرنا عن إطلاق شيء طُلب منا كثيرًا كل يوم منذ إطلاق ChatGPT.
"سيكون هذا في الواقع برنامجًا آليًا يمكنك استخدامه لعملك الذي يتمتع بقدرة معالجة اللغة الطبيعية في ChatGPT ولكنه سيجيب على الأسئلة المتعلقة بعملك تحديدًا"
فيرغال ريد: نعم ، شكرًا ديس. منذ ظهور ChatGPT ، كان الناس مثل ، "مرحبًا ، هل يمكنني استخدام ذلك للإجابة على أسئلة الدعم الخاصة بعملي؟" وكنا دائمًا مثل ، "أوه ، لا نعرف. لسنا متأكدين من الهلوسة. لكن اليوم أعتقد أننا متحمسون حقًا للإعلان عن سعادتنا بهذا المنتج لأننا نعتقد أننا فعلناه. نعتقد أننا أنشأنا شيئًا ما - سيكون هذا في الواقع روبوتًا يمكنك استخدامه لعملك الذي يتمتع بقدرة معالجة اللغة الطبيعية لـ ChatGPT ولكنه سيجيب على الأسئلة المتعلقة بعملك على وجه التحديد وقمنا ببنائه باستخدام مركز المساعدة الخاص بك لذلك لن يجيب على الأسئلة بشكل عشوائي من جميع أنحاء الإنترنت أو أي شيء. يمكنك التحكم في ما يقوله. ارتفع معدل الدقة كثيرًا. لقد تمكنا من رفع معدل الدقة كثيرًا من خلال استخدام نموذج GPT-4 الجديد من OpenAI والذي يمكنك الوصول إليه في النسخة التجريبية. لذلك أنا متحمس جدًا بشأن هذا الأمر.
ديس: الفكرة هي أن ما اختبره الناس ووقعوا في حبه نوعًا ما في ChatGPT ، وهو بالفعل هذا الروبوت الذي يمكنك أن تطلب منه أي شيء ويمنحك طعنة جيدة في الإجابة. يمكنك أن تفعل ذلك لعملك؟
فيرغال: نعم. نوعا ما. لذا فقد صنعناها عن عمد لذا لا يمكنك أن تطلب منها أي شيء. الفكرة هي بناء شيء لديه نفس النوع من فهم المحادثة الذي رأيناه مع ChatGPT ولكنه يجيب على وجه التحديد فقط عن الأسئلة المتعلقة بعملك. يمكنك أن تسأله شيئًا جامحًا مثل ، من كان الرئيس الثاني والعشرين لأمريكا؟ وسيكون الأمر مثل ، "مرحبًا ، أنا هنا فقط للإجابة على أسئلة دعم العملاء حول هذا العمل المحدد."
ديس: رائع. إذن فهو يعرف فعليًا ما يجب عليه وما لا يجب أن يحاوله؟
فيرغال: أجل ، بالضبط. هذه هي الفكرة.
اختراق الروبوت
ديس: أشعر منذ سبعة أو ثمانية أسابيع أنك قلت إننا لن نفعل ذلك لأنه لم يكن ممكنًا أو لن يكون سهلاً أو شيء من هذا القبيل؟
"كان يسألنا كل عميل عن ذلك"
فيرغال: إذن ، منذ ستة أو سبعة أسابيع ، عندما بدأنا في النظر إلى هذه التكنولوجيا ، عندما نظرنا إليها أولاً ، كنا مثل ، "واو ، هل يمكننا بناء هذا؟ هل يمكننا بناء ChatGPT لعملك؟ ' كان هذا على رأس أذهان الجميع. كان كل زبون يسألنا عنها. كنا ننظر إلى الأمر نوعًا ما وكنا نذهب ، يا إلهي ، هذا يهلوس كثيرًا ، وهذا سيعطيك نتائج غير دقيقة. نتائج غير دقيقة إلى حد كبير ، مكونة تمامًا من الأشياء ، كنا مثل "إنها تقنية مثيرة للغاية ، لكننا لسنا متأكدين مما إذا كان بإمكاننا تقييدها بالفعل ومنعها من الهلوسة بدرجة كافية. وقضينا الكثير من الوقت في اللعب باستخدام GPT و ChatGPT و GPT-3.5.
"عندما بدأنا اللعب بها ، اعتقدنا ، رائع ، أن هذا يبدو أفضل بكثير. لا يزال بإمكانها الهلوسة في بعض الأحيان ، لكنها أقل بكثير ، وربما أقل بعشر مرات "
لا يمكننا أبدًا التعرف عليه عندما لا يعرف شيئًا. لكن في الآونة الأخيرة ، حصلنا على إمكانية الوصول إلى إصدار تجريبي جديد من OpenAI من طراز GPT-4 الجديد. وأحد الأشياء التي أخبرونا بها كانت ، "مرحبًا ، هذا مصمم للهلوسة أقل بكثير من بعض النماذج الأخرى التي رأيناها في الماضي." وهكذا ، كما تعلم ، كنا مثل ، "واو ، هذا يبدو ممتعًا للغاية. هذا يبدو مثيرا للغاية ، GPT-4 ، ماذا ستفعل؟ وقد بذلنا جهدًا في البحث عن هذا الأمر ووضعه في بعض أسِرَّة الاختبار لدينا لفحص الهلوسة وفحصها. وعندما بدأنا اللعب بها ، اعتقدنا ، رائع ، أن هذا يبدو أفضل كثيرًا. لا يزال بإمكانه الهلوسة في بعض الأحيان ، لكنه يهلوس أقل بكثير ، ربما أقل بعشر مرات ، شيء من هذا القبيل. ولذا كنا متحمسين للغاية. كنا مثل ، "واو ، حسنًا ، هذا يبدو فجأة وكأن هذا شيء ما. هذا جيد بما يكفي لبناء روبوت ، هذا جيل يسبق GPT-3.5 الذي نستخدمه. إنه مجرد الكثير من الوقت ، من حيث مدى جدارة بالثقة.
ديس: مثير. ما الذي يفعله الاختبار - هل هناك اختبارات تعذيب نضع فيها هذه الروبوتات لنرى بالضبط ما إذا كانوا يعرفون أنهم هراء ، أساسًا؟
فيرجال: إذن نحن لسنا بعيدين عن هذا الحد. بالنسبة لجيلنا السابق من النماذج ، على سبيل المثال لروبوت الدقة ، كان لدينا هذه المجموعة المطورة جيدًا حقًا من الاختبارات المعيارية التي تم اختبارها في المعركة والتي قمنا ببنائها على مدار سنوات. كل هذه التكنولوجيا الجديدة عمرها أشهر ، لذا فنحن لسنا مبدئيًا تمامًا مثل ذلك. لكننا حددنا مجموعة من الحالات المتطورة ، فقط أشياء محددة. لدينا جدول بيانات حيث نتتبع أنواعًا معينة من أوضاع الفشل التي نراها مع هذه النماذج الجديدة. ولذا عندما جاء GPT-4 ، فأنت مثل ، حسنًا ، دعنا نجرب هذا. دعونا نرى ما يحدث عندما تطرح عليه سؤالًا غير موجود في مقال أو قاعدة معرفية على الإطلاق. أو تطرح عليه سؤالًا مشابهًا ، لكن ليس تمامًا مثل ما هو موجود بالفعل.
كما تعلم ، مع GPT-3.5 ومع ChatGPT ، إذا لم تكن تعرف شيئًا ما ، فإنها تقريبًا تريد إرضاءك ، لإعطائك ما تريد. ولذا فهي تختلق شيئًا ما. ومع GPT-4 ، من الواضح أنهم قاموا بمجموعة من العمل لتقليل ذلك. وهذا واضح حقًا بالنسبة لنا. لذلك عندما نضعها في اختباراتنا ، من الممكن أن نجعلها تقول ، "لا أعرف" ، أو للتعبير عن عدم اليقين أكثر من ذلك بكثير. كان ذلك بمثابة تغيير حقيقي للعبة بالنسبة لنا.
"في Intercom ، نعتقد أن مستقبل الدعم هو مزيج من الروبوتات والبشر"
Des: وإذا كان الروبوت لا يعرف ، فهل يمكن أن يسلم إلى الإنسان؟
فيرغال: بالتأكيد. في الاتصال الداخلي ، نعتقد أن مستقبل الدعم هو مزيج من الروبوتات والبشر. لدينا الكثير من الخبرة في حل الروبوت لإجراء تسليم لطيف من الروبوت إلى مندوب الدعم البشري ، ونأمل أن نحصل على ممثل الدعم هذا قبل المحادثة ونعتقد أننا ما زلنا بحاجة إلى القيام بذلك مع هذا الروبوت. ستكون هناك دائمًا مشكلات ، على سبيل المثال ، حيث يطلب شخص ما استرداد الأموال. ربما تريد أن يوافق الإنسان على ذلك. لذلك يجب أن يكون هناك دائمًا مسار موافقة بشري. في Intercom ، لدينا نظام أساسي جيد حقًا حول سير العمل وستكون قادرًا على استخدام ذلك للتحكم في وقت تسليم الروبوت وكيفية تسليمه. سوف نتأكد من أن هذا الروبوت الجديد يتكامل مع منصتنا الحالية تمامًا بنفس الطريقة التي قام بها الروبوت الموجود لدينا.
ديس: وأفترض أن الروبوت سوف يزيل الغموض أو يحدد استعلامًا بطريقة ما ، وربما يلخصه ، حتى عندما يسلمه؟
Fergal: ليس لدينا أي ميزة تلخيص في الوقت الحالي ، لكن الروبوت سيحاول توضيح واستخلاص استجابة العميل. يقوم روبوت الدقة الموجود لدينا بعمل القليل من ذلك. هذا الروبوت الجديد ، لأنه أفضل بكثير في معالجة اللغة الطبيعية ، يمكنه فعل ذلك بشكل أكثر فعالية. قد يعني ذلك أن وقت المناولة ينخفض لمندوبك للأسئلة التي تطرق إليها الروبوت. لذا نعم ، متحمس جدًا لذلك أيضًا.
فن المحادثة
ديس: يعرف المستمعون إلى بودكاست Intercom On Product الخاص بنا أنني مغرم كثيرًا بالقول إن امتلاك القدرة ، حتى القدرة الجديدة المفيدة ، لا يكفي للحصول على منتج رائع. كيف قمت بتغليف منتج - ما هي أهدافك؟ ما هي أهداف التصميم لبناء منتج فعلي حول قدرة GPT-4 هذه؟
فيرغال: لقد أدركنا في وقت مبكر جدًا وجود مجموعة من أهداف التصميم التي كنا نحاول التوجه نحوها. أولاً وقبل كل شيء ، أردنا الحصول على فهم اللغة الطبيعية الذي رآه الناس وأعجبوا به كثيرًا ، باستخدام ChatGPT. أردنا أن نجعل جيلًا أعلى مما كان عليه ، وما كان هناك من قبل. لذلك إذا طرحت سؤالًا معقدًا أو طرحت سؤالًا واحدًا ، فأنت تسأل سؤالًا متابعًا ، بحيث يفهم أن السؤال الثاني يجب تفسيره في ضوء السؤال السابق. روبوتنا السابق لم يفعل ذلك. ومعظم الروبوتات الموجودة هناك لا تفعل ذلك. كان ذلك صعبًا جدًا. كما تعلم ، المحادثات عبارة عن بيئات صعبة للغاية بالنسبة لخوارزميات التعلم الآلي. هناك الكثير من الدقة والتفاعل ونوع من محادثة الدعم ، ولكن يبدو أن هذه التقنية الجديدة تؤدي دورًا رائعًا في ذلك. لذا فإن هدفنا الأول هو التقاط ذلك.
"هناك الكثير من الدقة والتفاعل ونوع من محادثة الدعم ، ولكن يبدو أن هذه التقنية الجديدة تؤدي دورًا رائعًا في ذلك"
Des: كمثال على ذلك ، قد تطرح سؤالاً وتقول "هل لديك تطبيق Android؟ حسنا ماذا عن iPhone؟ أحب أن أسأل ، "ماذا عن iPhone؟" لا معنى له إلا إذا قمت بتحليله مسبقًا باستخدام ، "هل لديك تطبيق Android؟" ، على سبيل المثال. لذلك يتعلق الأمر بلصق الأشياء معًا لفهم استمرارية المحادثة والسياق.
فيرغال: بالضبط. ومع ذلك ، فإنه يتدفق بشكل طبيعي أكثر. نلاحظ هذا على وجه التحديد مع الروبوت الجديد عندما تطرح عليه سؤالًا وتحصل على إجابة وهي ليست بالضبط ما سألته ، يمكنك أن تقول فقط ، "أوه ، لكن لا ، لقد قصدت حقًا طلب الأسعار." وهو يتفهم ذلك نوعًا ما ويعطيك إجابة أكثر صلة. نشعر كما لو أن هذه تقنية اختراق حقيقية.
ديس: هل يمكن أن يرد عليك ويقول ، "قل أكثر؟" هل يمكن أن يطرح عليك أسئلة متابعة لتأهيل أسئلتك؟ لذا إذا توصلت إلى شيء غامض ، مثل ، "مرحبًا ، هل هذا الشيء يعمل؟" هل ستحاول حل ذلك؟ أم أنها سترد بعبارة "أنا بحاجة إلى أكثر من ذلك".
"لبناء تجربة منتج جيدة ، يبدو الأمر كما لو أن لدينا الكثير من المرونة والكثير من الطاقة ولكن ما نحتاجه الآن هو القدرة على الحد منه والتحكم فيه"
فيرغال: لذا ، في الأصل ، ستعمل الخوارزميات قدرًا معينًا من ذلك ، ولكن مع هذا النوع من التكنولوجيا ، نحصل على هذه القدرة المتقدمة جدًا وبعد ذلك في الواقع ما نحاول القيام به هو أننا نحاول تقييدها كثيرًا. نحاول في الواقع أن نقول ، "حسنًا ، يمكنك فعل كل هذا خارج الصندوق ، لكننا بحاجة إلى مزيد من التحكم." لكي نتمكن في الواقع - كما أشرت من قبل - من بناء تجربة منتج جيدة ، يبدو الأمر كما لو كان لدينا الكثير من المرونة والكثير من الطاقة ولكن ما نحتاجه الآن هو القدرة على الحد منه والتحكم فيه. لذلك قمنا ببناء تجارب من هذا القبيل. لقد قمنا ببناء تجربة توضيح حيث ، إذا طرحت سؤالاً ولم تكن هناك معلومات كافية ، فإننا نحاول توضيح ذلك ، لكننا نتحكم فيه.
لقد صممنا المطالبات حيث يكون لديك تطبيقات ذات أغراض خاصة مع التكنولوجيا للقيام بكل مهمة في المحادثة. لذلك لدينا موجه واحد لنجعلك تطرح سؤالاً ؛ سؤال آخر لإزالة الغموض عن السؤال ؛ سؤال آخر للتحقق مما إذا كان قد تم الرد على سؤال بالكامل من أجلك. ولذا نبدأ بهذا النموذج اللغوي القوي جدًا ، لكننا نريد حقًا استخدامه كحجر بناء. نريد السيطرة عليه. نحقق هذا التحكم عن طريق تقسيمه إلى وحدات ذات أغراض خاصة تقوم بكل شيء على حدة.
مع منتج رائع تأتي مسؤولية كبيرة
ديس: على المستوى التأسيسي ، نقول إنه يمكن التحدث بشكل طبيعي. أكبر ميزة في ذلك ، في رأيي ، كمنتج هي أنك ستشعر بالراحة عند وضعه كخط أول من الحلول أمام عملائك. كنت سأقول الدفاع ، لكنها ليست عملية عسكرية. لكنك ستشعر بالراحة عند طرحها هناك كما لو كنت تقول ، "مرحبًا ، تتم معظم المحادثات هنا." وحقيقة أنه يمكن أن يكون له ذهاب وإياب ، يمكنه الحفاظ على السياق ، يمكنه إزالة الغموض يعني أنه مجهز جيدًا للقيام بذلك. ماذا أضفت في أيضا؟ لا يقتصر الأمر على الجلوس هناك للدردشة - فما الذي يفعله أيضًا؟
فيرغال: أول شيء أود أن أقوله هو ، من المحتمل أن تتمتع الشركات المختلفة بمستويات مختلفة من الراحة فيما يتعلق بكيفية نشرها لهذا. سيقول بعض الأشخاص على الأرجح ، "حسنًا ، لدي مركز مساعدة رائع حقًا" ، وهذا الروبوت الذي أنشأناه ، يستمد جميع معلوماته من مركز المساعدة الخاص بك. سأعود إلى ذلك. لكن قد يقول بعض الناس ، "لدي مركز مساعدة جيد حقًا. إنه منسق بشكل جيد للغاية. لقد وضعت الكثير من المقالات هناك بمرور الوقت ، وأريد إجراء حوار الروبوت والإجابة على كل هذه الأسئلة. سيكون هناك عملاء آخرون يريدون أن يأتي الروبوت بشكل أكثر انتهازية وينحني [نفسه] ، ونحن نعمل على بناء الإعدادات لتمكين الأشخاص من التحكم في مستوى راحتهم في ذلك.
Des: نوع من الحد الأدنى للوقت الذي يجب أن يقفز فيه الروبوت.
"نحن ندمج الروبوت مع جميع مهام سير العمل الحالية لدينا لمساعدتك في التحكم في الوقت الذي تريده أن يأتي فيه ، والأهم من ذلك ، متى تريد أن يغادر حتى تتمكن من تسليمه إلى فريق الدعم الحالي عند الوصول إليه نهايته "
فيرغال: بالضبط. وفي الوقت الحالي ، لدينا قدرة سير عمل كبيرة جدًا يمكنك استخدامها. ونحن ندمج الروبوت مع جميع مهام سير العمل الحالية لدينا لمساعدتك في التحكم في الوقت الذي تريده أن يأتي فيه ، والأهم من ذلك ، متى تريد أن يغادر حتى تتمكن من تسليمه إلى فريق الدعم الحالي عند الوصول إليه نهايته.
Des: لذلك إذا لم يكن هناك وكلاء دعم عبر الإنترنت ، أو إذا كان المستخدم مجانيًا ، فما عليك سوى إرسالها مباشرة إلى الروبوت. إذا كان أحد العملاء المهمين والوكلاء يجلسون في وضع الخمول ، فأرسلهم مباشرة إلى الوكيل.

فيرغال: بالضبط. لذا ما نحاول القيام به هنا هو أخذ هذه التكنولوجيا الجديدة ثم دمجها مع نظامنا الأساسي الحالي ، والذي يحتوي على كل تلك الميزات التي يحتاجها الأشخاص من أجل بناء ما يمكن اعتباره نشر روبوت متوافق مع معايير الصناعة.
"كان هدف التصميم الرئيسي التالي هو تجنب الهلوسة"
لذا كان هدف التصميم الرئيسي التالي هو تجنب الهلوسة. لقد تحدثنا عن الحد من الهلوسة وكيف كان هدفنا التصميمي جعل الروبوت يتحدث بشكل طبيعي. لكننا أردنا حقًا منح عملائنا التحكم في نوع الأسئلة التي يمكنهم الإجابة عليها. الآن هذه الروبوتات ، تقنية الذكاء الاصطناعي الجديدة هذه ، يمكنك الوصول إلى نموذج لغة كبير وقد تم تدريبه على نص الإنترنت بالكامل. لذلك لديها كل تلك المعرفة هناك. وإحدى الطرق - نوعًا من أبسط الطرق - لنشر هذا هو أن تكون مثل ، "مرحبًا ، سأحصل على روبوت يجيب على الأسئلة باستخدام جميع معلوماته حول الإنترنت." لكن المشكلة في ذلك هي أنه إذا لم يعرف شيئًا ما ، فيمكنه اختلاقه. أو إذا كانت تعرف شيئًا ما ، فربما لا تريدها أن تتحدث مع عملائك حول موضوع يحتمل أن يكون حساسًا تعرف أنه يحتوي على معلومات عنه. قد تعتقد ، "لست متأكدًا من شعور عملي أو علامتي التجارية ، كما تعلمون ، مهما كانت المعلومات ، فقد نتج عن موقع غريب. لا أريد أن تجري هذه المحادثة مع عميلي.
"لقد قمنا بالكثير من العمل لاستخدام نموذج اللغة الكبير للتحدث ؛ لاستخدامها في فهم مقالة مركز المساعدة التي لديك ؛ ولكن لتقييده فقط بتقديم المعلومات الموجودة في مقالة مركز مساعدة فعلية تتحكم فيها والتي يمكنك تحديثها ويمكنك تغييرها ويمكنك تعديلها "
لذلك قمنا بالكثير من العمل لاستخدام نموذج اللغة الكبير للتحدث. لاستخدامها في فهم مقالة مركز المساعدة التي لديك ؛ ولكن لتقييدها فقط بتقديم المعلومات الموجودة في مقالة مركز مساعدة فعلية تتحكم فيها والتي يمكنك تحديثها ويمكنك تغييرها ويمكنك تعديلها. ولذا كان هذا هدفًا رئيسيًا للتصميم بالنسبة لنا ، لمحاولة جعل هذا الروبوت جديرًا بالثقة ، لأخذ نماذج اللغة الكبيرة ، ولكن لبناء روبوت مقيد باستخدامها للإجابة على الأسئلة المتعلقة بعملك وحول مركز المساعدة الخاص بشركتك.
كان هذا يتطلب الكثير من العمل ، ونحن فخورون جدًا بذلك. نعتقد أننا حصلنا على شيء جيد حقًا لأنك تحصل على قطعة المحادثة تلك. تحصل على ذكاء نموذج AI للحصول على إجابة فعلية من مقالة مركز المساعدة ، لكنها مقيدة. لذلك لن تبدأ في إجراء محادثات عشوائية مع المستخدمين النهائيين.
هذه الروبوتات ، هذه النماذج ، من الممكن دائمًا - إذا قمت بكسر الحماية لهم - أن تخدعهم نوعًا ما ليقولوا شيئًا خارج العلامة التجارية أو لا تريده. وربما لا يزال هذا ممكنًا ، لكننا نشعر حقًا أننا وصلنا إلى نقطة تتطلب فيها محاولة قرصنة حازمة لإنجاح ذلك. لن يتم الخروج عن النص بشكل جذري في المحادثات العادية.
أعتقد أن من المهم جدًا توضيح أن هذه النماذج اللغوية الكبيرة احتمالية. انخفضت الهلوسة كثيرًا ونعتقد أنها الآن مقبولة للعديد من الشركات ، لكنها ليست صفرًا. سوف يقدمون في بعض الأحيان معلومات غير ذات صلة. سيقدمون أحيانًا معلومات غير صحيحة عندما يقرؤون مقالة مركز المساعدة الخاصة بك ، ولكنهم لم يفهموا تمامًا ، وبالتالي يجيبون على سؤال خاطئ. من المحتمل أن يرتكب وكيل الدعم أخطاء أيضًا ...
ديس: من المعروف أن البشر ...
فيرغال: من المعروف أن البشر يرتكبون أخطاء أحيانًا أيضًا. وهكذا ، هذه الروبوتات ، كما تعلمون ، إنها حقبة جديدة من التكنولوجيا. لديها مقايضة مختلفة عما كان لدينا من قبل. من المحتمل أن يكون بعض عملائنا مثل ، "أريد الانتظار. لا أريد نشر هذا بعد. لكننا نعتقد أنه بالنسبة للعديد والعديد من العملاء ، سيتجاوز هذا الحد الأدنى ، حيث فائدة [القدرة على القول] "لست بحاجة إلى إجراء التنظيم ، ولست بحاجة إلى إجراء الإعداد الذي أنا عليه" اضطررنا إلى فعل ذلك في الماضي باستخدام برنامج تتبع الحل ، يمكنني فقط تشغيل هذا ، في اليوم الأول ، وفجأة كل المعرفة الموجودة في مركز المساعدة الخاص بي ، يمتلكها الروبوت ، ويمكن للروبوت أن يحاول الإجابة على الأسئلة باستخدامه. لن تحصل على الكمال ، لكنها ستكون سريعة. نعتقد أن هذا سيكون مقايضة مفيدة للعديد من الشركات.
Des: فيما يتعلق بالإعداد ، إذا كنت عميلاً يتمتع بقاعدة معرفية جيدة ، فما المدة التي تستغرقها للانتقال من ذلك إلى برنامج روبوت جيد؟ ما مقدار التدريب المتضمن؟ كم التكوين؟
فيرجال: القليل من الوقت على الإطلاق. في الأساس لا يوجد تدريب. يمكنك فقط استخدام النظام الجديد الذي أنشأناه ويمكنك توجيهه إلى مركز المساعدة الحالي لديك. إنه وقت معالجة قليل حيث يتعين علينا سحبها وكشطها وتجهيز المقالات للتقديم.
ديس: دقائق؟ ثانية؟
فيرجال: ما زلنا نعمل على ذلك. نحن في دقائق الآن ، لكننا نعتقد - ربما بحلول الوقت الذي يبث فيه هذا الهواء - سيكون أقل بكثير من ذلك. ليس هناك عنق الزجاجة الهندسي الصعب لجعل ذلك منخفضًا جدًا جدًا. ولذا نحن متحمسون جدًا لذلك.
ملخص المنتج
Des: باختصار ، أعطنا النقاط الرئيسية لهذا المنتج. ماذا يجب أن نقول للسوق عنها؟
"سيتحدث معك بطريقة طبيعية ، كما رأيت مع ChatGPT. الأمر الثاني هو أنه يمكنك ، بصفتك شركة ، التحكم في ما يقوله "
فيرغال: أول شيء أود قوله هو أنه سيتحدث معك بطريقة طبيعية ، كما رأيت مع ChatGPT. الأمر الثاني هو أنه يمكنك ، كشركة تجارية ، التحكم في ما تقوله. يمكنك قصر الأشياء التي سيتحدث عنها على محتويات قاعدة المعرفة الخاصة بك. الشيء الثالث الذي أود قوله هو أن الهلوسة تراجعت كثيرًا من حيث كانت. والشيء الرابع الذي أود قوله هو أنه من السهل حقًا إعداده. أنت تأخذ هذا فقط ، وتوجهه إلى مجموعة المعرفة الموجودة لديك ولا تحتاج إلى القيام بمجموعة كاملة من التنظيم.
ديس: نظرًا لأننا انتركوم ، فمن غير المحتمل أن نتحادث وننخرط في الكثير من الضجيج دون بعض المؤهلات على الأقل. ما المجالات التي ما زلنا نعمل على تحسينها؟
فيرغال: أعتقد أن أول شيء أود قوله هو أن دقة القطعة ليست مثالية. هذا نوع جديد من التكنولوجيا. إنه نوع جديد من مقايضة هندسة البرمجيات. لذلك ، مع روبوت الدقة ، قد يأتي روبوت القرار أحيانًا ويعطي إجابة غير ذات صلة ، ولكن يمكنك دائمًا معرفة ما كان يتحدث عنه ، يمكنك أن تقول ، "هذا ليس مناسبًا تمامًا." هذا مختلف قليلا قد يعطي هذا أحيانًا إجابات غير ذات صلة ، ولكنه قد يعطي أحيانًا إجابات غير صحيحة. ربما أساء فهم المعلومات الموجودة في قاعدة المعرفة الخاصة بك. من الأمثلة المحددة على ذلك أحيانًا ، على سبيل المثال ، إذا كان لديك قائمة بالأوقات التي يمكن أن يحدث فيها شيء ما وسأل المستخدم [الروبوت] ، فقد يفترض أن هذه القائمة شاملة. قد يفترض أن هذه القائمة كانت طوال الوقت وبعد ذلك ستخمن ، `` أوه لا ، لم تكن موجودة في القائمة في المقالة. لذلك سأقول أن الجواب لا ، لا يمكن أن يحدث. هذا الشيء لا يمكن أن يحدث هذه المرة الأخرى.
ديس: لذلك ، قد يكون لديك مقال معرفي يستشهد بأمثلة عن متى لن نرد دفعتك ، مع قائمة من اثنين أو ثلاثة أمثلة. وسيقرأ النموذج اللغوي ذلك ويستنتج أن هناك ثلاثة شروط يحدث هذا في ظلها. وهو يرتكب خطأ ، في عدم رؤيته أن هذه مجرد أمثلة توضيحية ، وليست قائمة شاملة. هل هذا ما تعنيه؟
فيرغال: بالضبط. لا تزال معرفتها العامة وفهمها العام محدودة بعض الشيء هنا. لذلك يمكن أن ينظر إلى قوائم الأشياء ويضع افتراضات قريبة من كونه بخير ، لكن ليس صحيحًا تمامًا. نعم. لذلك ، في معظم الأوقات ، عندما نرى أنه يرتكب خطأ ، يبدو الخطأ معقولًا إلى حد ما ، لكنه لا يزال خاطئًا. لكن عليك أن تكون على ما يرام مع ذلك. هذا قيد. يجب أن تكون موافقًا على فكرة أنه في بعض الأحيان قد تقدم إجابات خاطئة بعض الشيء.
"نحن نبني هذه التجربة حيث يمكنك أخذ مركز المساعدة الحالي لديك والوصول بسرعة كبيرة إلى عرض توضيحي للروبوت ، والشراء المسبق ، للعب معه بنفسك وفهم مدى نجاح هذا في مركز المساعدة الخاص بك"
Des: هل هو قابل للقياس الكمي؟ أعتقد أن السبب ليس لأنه سيكون مختلفًا لكل سؤال ، لكل قاعدة معرفية ، لكل عميل ، حسب القبول ... لذلك ، عندما يقول شخص ما ، "مرحبًا ، ما مدى جودة الروبوت؟" ، ما هي أفضل إجابة عن ذلك؟
Fergal: أفضل شيء تفعله هو الذهاب واللعب مع عرض توضيحي له في مركز المساعدة الخاص بك. نحن نبني هذه التجربة حيث يمكنك أخذ مركز المساعدة الحالي لديك والوصول بسرعة كبيرة إلى عرض توضيحي للروبوت ، الشراء المسبق ، للعب معه بنفسك وفهم مدى نجاح هذا في مركز المساعدة الخاص بك.
ديس: وأنت تقترح ، على سبيل المثال ، إعادة تشغيل آخر 20 محادثة لديك ، أو إعادة تشغيل استفسارات الدعم الأكثر شيوعًا؟ كيف يتخذ أي فرد قرارًا مستنيرًا؟ لأنني متأكد من أنها ستفعل كل شيء ، "مرحبًا؟ هل أنت روبوت؟ "نعم ، أنا" شيء.
فيرغال: نعتقد أنه بمجرد التفاعل معها ، يمكنك الحصول بسرعة على فكرة عن مستوى الدقة. إذا طرحت أهم 20 سؤالًا لديك ، فنوع الأسئلة التي يطرحها عليك الناس يومًا بعد يوم ... يمكنك التحقق من هذه الأسئلة ، فأنت تطلب التوضيح. ستحصل على فكرة جيدة عن المكان الذي يكون فيه هذا جيدًا وأين توجد نقاط الانهيار. بالنسبة لنا ، هذا منتج جديد مذهل ونحن متحمسون له حقًا - لكنه لا يزال جيلًا واحدًا. سنقوم الآن بتحسين جميع أجزاء التعلم الآلي. سنقوم بتحسين كل قطع القياس هذه بمرور الوقت أيضًا.
ديس: مع برنامج Resolution bot one ، الروبوت السابق ، يمكنك تدريبه - لذا ستقول ، "مرحبًا ، هذه هي الإجابة الخاطئة. هذا ما أريدك أن تقوله ، وما إلى ذلك. أنت لا تفعل ذلك هذه المرة. لذا إذا اكتشفت أنه يعطي إجابة غير دقيقة ، أو تعتقد أنه يمكن أن يؤدي بشكل أفضل ، فما هو أفضل شيء تفعله؟ هل تكتب مقالة أفضل؟ هل تنظر إلى مصدره؟
Fergal: لا تزال الأيام الأولى هنا وربما سنبني ميزات للسماح لك بمزيد من التحكم الدقيق فيها. ولكن في الوقت الحالي ، الإجابة على هذا السؤال هي ، "مرحبًا ، هل يمكنك جعل مقالة قاعدة المعارف الخاصة بك أكثر وضوحًا؟" في الواقع ، عند تطوير هذا الروبوت ، رأينا أن هناك الكثير من المقالات المبنية على المعرفة الغامضة في العالم ، حيث يمكن أن تكون أجزاء صغيرة منه أكثر وضوحًا.
تطور
Des: ما هي المجالات الأخرى التي تعتقد أنها ستتطور خلال الأشهر المقبلة؟
فيرجال: هناك الكثير من العمل الذي يتعين علينا القيام به من جانبنا. لدينا الإصدار الأول في الوقت الحالي. لتحسينه ، نريد أن نعرضه مباشرة مع العملاء ، ونريد الحصول على تعليقات فعلية ، بناءً على الاستخدام. أي منتج للتعلم الآلي عملت عليه من قبل ، هناك دائمًا الكثير من التكرار والكثير من التحسينات التي يجب القيام بها بمرور الوقت. نريد أيضًا تحسين مستوى التكامل مع روبوت الدقة الحالي لدينا. يتطلب روبوت الدقة الموجود لدينا هذا التنظيم ، ولكن إذا قمت بهذا التنظيم ، فهو ممتاز. يمكن أن تفعل أشياء مثل اتخاذ الإجراءات. يمكنك توصيله بواجهة برمجة التطبيقات (API) الخاصة بك بحيث يدرك أن شخصًا ما يسأل عن إعادة بيع كلمة المرور وسيبدأ بالفعل في إعادة تعيين كلمة المرور.
"الجزء الأخير الذي أنا متحمس للغاية بشأنه هو فكرة أنه يمكننا استخدام تقنية الذكاء الاصطناعي الجديدة هذه واستخدامها لإنشاء محتوى دعم بشكل كبير أكثر مما كنا قادرين على ذلك في الماضي. سريعًا جدًا ، هذا الروبوت الجديد ، إذا كان المحتوى في مركز المساعدة الخاص بك ، فسيكون قادرًا على الإجابة باستخدام المحتوى الخاص بك "
من المهم حقًا بالنسبة لنا أن يكون هذا النوع من الروبوتات من الجيل التالي قادرًا على القيام بكل هذه الأشياء أيضًا. لذلك في البداية سيكون الأمر مثل ، "مرحبًا ، أجب على الأسئلة الإعلامية من قاعدة المعرفة الخاصة بك." لا يوجد إعداد في اليوم الأول - ابدأ البث المباشر ، إنه رائع. لكن في النهاية - وقد رأينا ذلك في كل بحث أجريناه - تريد الانتقال إلى المستوى التالي. بعد ذلك ، سيرغب الناس في القدرة على استخدام تلك التكنولوجيا والقدرة التي لدينا بالفعل لاتخاذ إجراءات لحل الاستفسارات. ونحن متحمسون لأننا قد نرى أن الكثير مبني على هذا الجيل القادم ، منصة تعتمد على اللغة.
بعد ذلك ، الجزء الأخير الذي أنا متحمس جدًا بشأنه هو فكرة أنه يمكننا استخدام تقنية الذكاء الاصطناعي الجديدة هذه واستخدامها لإنشاء محتوى دعم أكبر بشكل كبير مما كنا قادرين على ذلك في الماضي. سريعًا جدًا ، هذا الروبوت الجديد ، إذا كان المحتوى في مركز المساعدة الخاص بك ، فسيكون قادرًا على الإجابة باستخدام المحتوى الخاص بك. ونعتقد أن هذا رائع. هناك الكثير من الأشخاص القادرين على كتابة مقالات في مركز المساعدة ممن كانوا سيواجهون صعوبة في محاولة تنظيم برامج الروبوت أو النوايا في الماضي. لذلك نحن متحمسون جدًا لذلك. لكننا نعتقد أن هناك أدوات جديدة يمكن بناؤها هنا ، لتسهيل كتابة محتوى مقالة مركز المساعدة بشكل كبير. على سبيل المثال ، أخذ محادثات الدعم الخاصة بك واستخدام هذا الجيل القادم من الذكاء الاصطناعي لبدء هذه العملية.
ديس: إذن ، إحدى الرؤى التي تحدثنا عنها ربما قبل شهرين فقط كانت فكرة أن فريق الدعم سيجيب على الأسئلة ... أعتقد ، في ذلك الوقت ، كما قلت ، أن يجيب على أسئلتك للمرة الأولى والمرة الأخيرة . لذلك إذا تم طرح سؤال ما ، فذلك لأننا لم نراه من قبل. وبمجرد أن نراه ، لا نراه مرة أخرى. هل هذا كيف ترى حدوث ذلك؟
"نعتقد أنه يمكننا رؤية مسار إلى ذلك حيث يمكننا الحصول على تجربة تنظيم بسيطة بما يكفي بحيث يتمكن ممثل الدعم في البريد الوارد من إنهاء الرد على محادثة والتعبير ،" نعم ، لقد وافقت على هذه الإجابة للانتقال إلى الروبوت "
فيرغال: أعتقد ، لأول مرة ، أن أرى طريقا إلى ذلك. عندما انتقلنا إلى قرار bot 1.0 ، كان طلب الميزة الذي كنا نحصل عليه دائمًا هو ، "مرحبًا ، هل يمكنني الحصول على مندوب الدعم الخاص بي في البريد الوارد؟ هل يمكنني أن أجعلهم يجيبون على سؤال ثم أضع هذا السؤال في الروبوت؟ وفي أي وقت حاولنا القيام بذلك ، لم ينجح الأمر لأن وضع سؤال وتنظيم سؤال ليكون جيدًا بما يكفي لتصميم نية كان يتطلب الكثير من العمل. في جميع أنحاء الصناعة ، هناك الكثير من روبوتات الدعم المختلفة. لم أر أبدًا أي شخص تمكن من حل هذا الأمر وجعله يعمل حقًا. ولكن الآن مع نماذج اللغة الكبيرة المتقدمة ، نعتقد أنه يمكننا رؤية طريق إلى ذلك حيث يمكننا الحصول على تجربة تنظيم بسيطة بما يكفي بحيث يمكن لمندوب الدعم في البريد الوارد إنهاء الرد على محادثة فقط ويكون مثل ، "نعم ، أنا وافق على هذه الإجابة للذهاب إلى الروبوت.
يجب أن يكون هناك بعض الموافقة البشرية لأنه لا يمكن أن يسأل فيرغال الروبوت ، "مرحبًا ، ما هو رقم بطاقة ائتمان ديس؟" سيكون الروبوت مثل ، "حسنًا ، أعرف الإجابة على ذلك لأنه كان في هذه المحادثة الأخرى التي يشارك فيها ديس." سيكون ذلك غير مقبول. يجب أن تكون هناك بعض خطوات الموافقة بين المحادثات الخاصة ومعرفة الدعم الدائم. لكننا نعتقد أننا نرى طريقًا إلى عملية موافقة أفضل بكثير مما شهدناه من قبل. ومن المحتمل أن يكون العالم حيث ربما ليس كل مشكلة ، ولكن بالنسبة للعديد من المشكلات ، يمكن الإجابة عليها مرة واحدة فقط. نعتقد أن هناك شيئًا رائعًا قادمًا إلى هناك.
ديس: رائع. حسنًا ، إنه إصدار مثير - هل هو متاح للجميع؟
Fergal: هذا يتجه فقط نحو الإصدار التجريبي الخاص في الوقت الحالي ، مع الإصدار الجديد من GPT-4 من OpenAI.
ديس: مثير. حسنًا ، سأتحقق في غضون أسابيع قليلة وأرى كيف تسير الأمور.
فيرجال: أجل. أوقات مثيرة.