Iniciador de conversación: un chat sobre nuestro nuevo e innovador chatbot de IA
Publicado: 2023-03-15El mundo de la IA se mueve rápido y aquí en Intercom estamos ayudando a marcar ese ritmo. Hoy, estamos encantados de presentar a Fin, nuestro nuevo chatbot impulsado por GPT-4 de OpenAI y la tecnología de aprendizaje automático patentada de Intercom.
Hace apenas unas semanas, anunciamos nuestras primeras funciones impulsadas por GPT en Intercom, una gama de herramientas útiles para los representantes de atención al cliente, y nuestros clientes han disfrutado mucho de la eficiencia adicional que ofrecen estas funciones.
Sin embargo, el gran objetivo era crear un chatbot con GPT que pudiera responder directamente a las consultas de los clientes. Para hacer esto, necesitaba poder aprovechar el poder de los grandes modelos de lenguaje pero sin los inconvenientes que plantean las "alucinaciones". Inicialmente, no estábamos seguros de cuánto tiempo tomaría resolver este problema, pero ahora, con el lanzamiento de GPT-4 por parte de OpenAI, podemos revelar que hemos creado un chatbot que puede responder de manera confiable las preguntas de los clientes con un alto estándar. . Lo hemos llamado Fin.
En el episodio de hoy del podcast Inside Intercom, me senté con nuestro director de aprendizaje automático, Fergal Reid, para hablar sobre nuestro nuevo chatbot de IA, cómo lo construimos, qué hace y cuáles son los próximos pasos para este notable avance.
Estos son algunos de los puntos clave:
- Nuestro nuevo chatbot de IA puede conversar de forma natural utilizando la última tecnología GPT.
- Fin ingiere la información de su centro de ayuda existente y usa solo ese conocimiento, lo que le brinda control sobre cómo responde las preguntas sobre su negocio.
- En Intercom, creemos que el futuro del soporte es una mezcla de bots y humanos. Fin no podrá responder a todas las consultas de los clientes y, en esas situaciones, puede transmitir preguntas más difíciles a los equipos de soporte humano sin problemas.
- Hemos reducido las alucinaciones aproximadamente 10 veces, creando restricciones que limitan a Fin a consultas relacionadas con su negocio, según una base de conocimientos en la que confía.
Si disfruta de nuestra discusión, vea más episodios de nuestro podcast. Puede seguir en Apple Podcasts, Spotify, YouTube o tomar la fuente RSS en su reproductor de elección. Lo que sigue es una transcripción ligeramente editada del episodio.
Un bot con cualquier otro nombre
Des Traynor: Bienvenidos a un emocionante episodio del podcast de Intercom. Una vez más me acompaña Fergal Reid, nuestro Director de aprendizaje automático, y nos contará sobre el lanzamiento de algo que nos han pedido casi todos los días desde que se lanzó ChatGPT.
"En realidad, será un bot que puede usar para su negocio que tiene la capacidad de procesamiento de lenguaje natural de ChatGPT pero responderá preguntas específicamente sobre su negocio"
Fergal Reid: Sí, gracias Des. Desde que salió ChatGPT, la gente decía: 'Oye, ¿puedo usar eso para responder mis preguntas de soporte para mi negocio?' Y siempre decíamos, 'Oh, no lo sabemos. No estamos seguros de las alucinaciones. Pero hoy creo que estamos muy emocionados de anunciar que estamos muy entusiasmados con este producto porque creemos que lo hemos logrado. Creemos que hemos creado algo: en realidad será un bot que puede usar para su negocio que tiene la capacidad de procesamiento de lenguaje natural de ChatGPT pero responderá preguntas específicamente sobre su negocio y lo hemos creado usando su centro de ayuda para que no responderá preguntas aleatorias de Internet ni nada. Puedes controlar lo que dice. La tasa de precisión ha subido. Hemos logrado aumentar mucho la tasa de precisión mediante el uso del nuevo modelo GPT-4 de OpenAI y al que tiene acceso en versión beta. Así que estoy muy entusiasmado con esto.
Des: Entonces, la idea es que lo que la gente experimentó y se enamoró de ChatGPT, que es efectivamente este bot al que puedes preguntar cualquier cosa y da una buena oportunidad para responder. ¿Puedes hacer eso por tu negocio?
Fergal: si. Algo así como. Así que lo hemos hecho deliberadamente para que no puedas preguntarle nada. La idea es construir algo que tenga el mismo tipo de entendimiento conversacional que hemos visto con ChatGPT pero que específicamente solo responda preguntas sobre su negocio. Puedes preguntarle algo salvaje como, ¿quién fue el vigésimo segundo presidente de Estados Unidos? Y será como, 'Oye, solo estoy aquí para responder preguntas de atención al cliente sobre este negocio específico'.
Des: Genial. Entonces, ¿realmente sabe con eficacia lo que debe y no debe intentar?
Fergal: Sí, exactamente. Esa es la idea.
Un avance de bot
Des: Siento que hace siete u ocho semanas dijiste que no íbamos a hacer esto porque no era posible o no iba a ser fácil o algo así.
“Todos los clientes nos preguntaban al respecto”
Fergal: Entonces, hace seis o siete semanas, cuando comenzamos a analizar esta tecnología, inicialmente, cuando la analizamos por primera vez, pensamos: 'Guau, ¿podemos construir esto? ¿Podemos construir ChatGPT para su negocio?' Eso estaba en la mente de todos. Todos los clientes nos preguntaban al respecto. Estábamos mirándolo y dijimos, Dios mío, esto alucina mucho, esto te dará resultados inexactos. Resultados tremendamente inexactos, cosas totalmente inventadas, pensamos: 'Es una tecnología muy emocionante, pero no estamos seguros de si podemos restringirla y evitar que alucine lo suficiente'. Y pasamos mucho tiempo jugando con GPT, ChatGPT, GPT-3.5.
“Cuando empezamos a jugar con él, pensamos, guau, esto parece mucho mejor. Todavía puede alucinar a veces, pero alucina mucho menos, tal vez 10 veces menos”
Nunca podríamos hacer que supiera cuando no sabe algo. Pero recientemente tuvimos acceso a una nueva versión beta de OpenAI de su nuevo modelo GPT-4. Y una de las cosas que nos dijeron fue: 'Oye, esto está diseñado para alucinar mucho menos que algunos de los otros modelos que hemos visto en el pasado'. Y entonces, ya sabes, dijimos, 'Wow, eso suena muy interesante'. Eso suena muy emocionante, GPT-4, ¿qué va a hacer? E hicimos un esfuerzo para mirar esto y ponerlo en algunos de nuestros bancos de pruebas para verificar y examinar las alucinaciones. Y cuando empezamos a jugar con él, pensamos, wow, esto parece mucho mejor. Todavía puede alucinar a veces, pero alucina mucho menos, tal vez 10 veces menos, algo así. Y por eso estábamos muy emocionados. Dijimos, 'Wow, está bien, esto de repente se siente como si esto fuera algo'. Esto es lo suficientemente bueno para construir un bot, está una generación por delante del GPT-3.5 que estamos usando. Es mucho más avanzado, en términos de cuán confiable es.
Des: Emocionante. ¿Qué hace la prueba? ¿Hay pruebas de tortura a las que sometemos a estos bots para ver exactamente si saben que están mintiendo, básicamente?
Fergal: Así que no estamos tan avanzados. Para nuestra generación anterior de modelos, por ejemplo, para el bot de resolución, teníamos este conjunto muy, muy bien desarrollado de puntos de referencia de prueba probados en batalla que habíamos construido a lo largo de los años. Toda esta nueva tecnología tiene meses de antigüedad, por lo que no tenemos tantos principios. Pero hemos identificado un montón de casos extremos, solo cosas específicas. Tenemos una hoja de cálculo donde hacemos un seguimiento de los tipos específicos de modos de falla que estamos viendo con estos nuevos modelos. Entonces, cuando apareció GPT-4, estabas como, está bien, probemos esto. Veamos qué sucede cuando le haces una pregunta que no está contenida en un artículo o en una base de conocimientos. O le haces una pregunta que es similar, pero no del todo igual a lo que realmente hay allí.
Y ya sabes, con GPT-3.5 y con ChatGPT, si no sabe algo, es casi como si quisiera complacerte, darte lo que quieres. Y entonces simplemente inventa algo. Y con GPT-4, obviamente han trabajado mucho para reducir eso. Y eso es realmente obvio para nosotros. Entonces, cuando lo sometemos a nuestras pruebas, es posible que diga 'No sé', o que exprese mucha más incertidumbre. Eso fue un verdadero cambio de juego para nosotros.
“En Intercom, creemos que el futuro del soporte es una mezcla de bots y humanos”
Des: Y si el bot no lo sabe, ¿puede entregarlo a un humano?
Fergal: Absolutamente. En intercom, creemos que el futuro del soporte es una mezcla de bots y humanos. Tenemos mucha experiencia con el bot de resolución de hacer una buena transferencia del bot al representante de soporte humano, con suerte conseguir que el representante de soporte se adelante a la conversación y creemos que todavía tenemos que hacer eso con este bot. Siempre habrá problemas en los que, por ejemplo, alguien solicite un reembolso. Tal vez quieras que un humano apruebe eso. Así que siempre tendrá que haber un camino de aprobación humano. En Intercom tenemos una muy buena plataforma en torno a los flujos de trabajo y podrá usarla para controlar cuándo se entrega el bot y cómo se entrega. Nos aseguraremos de que este nuevo bot se integre con nuestra plataforma existente de la misma manera que lo hizo nuestro bot existente.
Des: Y supongo que el bot habrá desambiguado o calificado una consulta de alguna manera, tal vez resumida, incluso cuando la entregue.
Fergal: No tenemos ninguna función de resumen en este momento, pero el bot intentará eliminar la ambigüedad y obtener una respuesta del cliente. Nuestro bot de resolución existente hace un poco de eso. Este nuevo bot, debido a que es mucho mejor en el procesamiento del lenguaje natural, puede hacerlo de manera más efectiva. Eso puede significar que el tiempo de manejo disminuye para su representante, para las preguntas que el bot ha tocado. Así que sí, muy emocionado por eso también.
El arte de la conversación
Des: Los oyentes de nuestro podcast Intercom On Product sabrán que a menudo me gusta decir que tener una capacidad, incluso una capacidad novedosa que sea útil, no es suficiente para tener un gran producto. ¿Cómo has envuelto un producto? ¿Cuáles eran tus objetivos? ¿Cuáles son los objetivos de diseño para construir un producto real en torno a esta capacidad GPT-4?
Fergal: Así que nos dimos cuenta bastante pronto de que realmente había un conjunto de objetivos de diseño hacia los que intentábamos dirigirnos. En primer lugar, queríamos capturar la comprensión del lenguaje natural que la gente vio y quedó muy impresionada con ChatGPT. Queríamos tener una generación por encima de lo que había, de lo que había antes. Entonces, si hace una pregunta bastante complicada o hace una pregunta, entonces hace una pregunta de seguimiento, que entiende que la segunda pregunta debe interpretarse a la luz de la anterior. Nuestro bot anterior no hizo eso. Y la mayoría de los bots, simplemente no hacen eso. Eso fue demasiado difícil. Ya sabes, las conversaciones son entornos muy complicados para los algoritmos de aprendizaje automático. Hay mucha sutileza e interacción y una especie de conversación de apoyo, pero esta nueva tecnología parece funcionar muy bien en eso. Así que nuestro primer objetivo es capturar eso.
"Hay mucha sutileza e interacción y una especie de conversación de apoyo, pero esta nueva tecnología parece funcionar muy bien en eso".
Des: Entonces, como ejemplo de eso, podrías hacer una pregunta y decir '¿Tienes una aplicación para Android? Bueno, ¿qué pasa con el iPhone? Me gusta preguntar, '¿Qué pasa con el iPhone?' no tiene sentido a menos que lo hayas analizado previamente con '¿Tienes una aplicación de Android?', como ejemplo. Así que se trata de unir las cosas para comprender la continuidad y el contexto de la conversación.
Fergal: Exacto. Y con eso, simplemente fluye más naturalmente. Notamos esto específicamente con el nuevo bot cuando le haces una pregunta y obtienes una respuesta y no es exactamente lo que preguntaste, puedes decir: 'Oh, pero no, realmente quería preguntar por el precio'. Y como que lo entiende y te dará la respuesta más relevante. Sentimos que se trata de una tecnología realmente revolucionaria.
Des: ¿Puede empujarte y decir, 'Di más?' ¿Puede hacerle preguntas de seguimiento para calificar sus preguntas? Entonces, si se te ocurre algo vago, como, 'Oye, ¿funciona esto?' ¿Intentaría solucionar eso? ¿O respondería con 'Necesito más que eso'?
"Para crear una buena experiencia de producto, es casi como si tuviéramos mucha flexibilidad y mucha potencia, pero ahora lo que necesitamos es la capacidad de limitarla y controlarla".
Fergal: Entonces, de forma nativa, los algoritmos harán una cierta cantidad de eso, pero con este tipo de tecnología, obtenemos esta capacidad muy avanzada y, en realidad, lo que estamos tratando de hacer es restringirla mucho. En realidad, estamos tratando de decir: 'Está bien, puedes hacer todo esto de manera inmediata, pero necesitamos más control'. En realidad, como mencionaste anteriormente, para crear una buena experiencia con el producto, es casi como si tuviéramos mucha flexibilidad y mucha potencia, pero ahora lo que necesitamos es la capacidad de limitarla y controlarla. Así que hemos construido experiencias como esa. Hemos creado una experiencia de eliminación de ambigüedades en la que, si hace una pregunta y no hay suficiente información, intentamos aclararlo, pero lo controlamos.
Hemos diseñado avisos en los que tiene aplicaciones de propósito especial con la tecnología para realizar cada tarea en la conversación. Así que tenemos un aviso para que hagas una pregunta; otra para desambiguar una pregunta; otro para verificar si una pregunta fue respondida completamente para usted. Entonces, comenzamos con este modelo de lenguaje muy poderoso, pero realmente solo queremos usarlo como un bloque de construcción. Queremos controlarlo. Logramos ese control al dividirlo en módulos de propósito especial que hacen cada cosa por separado.
Con un gran producto viene una gran responsabilidad.
Des: Entonces, en un nivel fundamental, estamos diciendo que puede conversar naturalmente. La mayor ventaja de eso, en mi opinión, como producto es que se sentirá cómodo poniéndolo como la primera línea de solución frente a sus clientes. Iba a decir defensa, pero no es una operación militar. Pero te sentirías cómodo publicándolo como si dijeras: 'Oye, la mayoría de las conversaciones van aquí'. Y el hecho de que pueda tener ida y vuelta, pueda mantener el contexto, pueda eliminar la ambigüedad significa que está bien equipado para hacerlo. ¿Qué más añadiste? No se trata solo de sentarse allí para conversar, entonces, ¿qué más hace?
Fergal: Lo primero que diría es que diferentes empresas probablemente tendrán diferentes niveles de comodidad en términos de cómo implementan esto. Algunas personas probablemente dirán: 'Bueno, tengo un centro de ayuda realmente excelente', y este bot que hemos creado extrae toda su información de su centro de ayuda. Volveré a eso. Pero algunas personas podrían decir: 'Tengo un centro de ayuda realmente bueno. Está muy bien curado. He puesto muchos artículos allí a lo largo del tiempo, y quiero tener el diálogo del bot y responder a todas esas preguntas.' Habrá otros clientes que quieran que el bot entre de manera más oportunista y se retire [él mismo], y estamos trabajando en la creación de configuraciones para permitir que las personas controlen su nivel de comodidad con eso.
Des: Algún tipo de umbral para cuando el bot debería saltar.
“Estamos integrando el bot con todos nuestros flujos de trabajo existentes para ayudarlo a obtener ese control sobre cuándo desea que ingrese y, lo que es más importante, cuándo desea que se vaya para que pueda entregarlo a su equipo de soporte existente cuando llegue. su final"
Fergal: Exacto. Y en este momento tenemos una capacidad de flujos de trabajo bastante grande que puede usar. Y estamos integrando el bot con todos nuestros flujos de trabajo existentes para ayudarlo a tener ese control sobre cuándo quiere que entre y, lo que es más importante, cuándo quiere que se vaya para que pueda pasarlo a su equipo de soporte existente cuando lo alcance. su final.

Des: Entonces, si no hay agentes de soporte en línea, o si el usuario es libre, simplemente envíelos directamente al bot. Si es un cliente VIP y los agentes están inactivos, envíelos directamente al agente.
Fergal: Exacto. Entonces, lo que estamos tratando de hacer aquí es tomar esta nueva tecnología y luego integrarla con nuestra plataforma existente, que tiene todas las características que las personas necesitan para construir lo que se consideraría una implementación de bot estándar de la industria.
“El siguiente gran objetivo de diseño que teníamos era evitar las alucinaciones”
Así que el siguiente gran objetivo de diseño que teníamos era evitar las alucinaciones. Hablamos sobre la reducción de las alucinaciones y cómo nuestro objetivo de diseño era que el bot conversara de forma natural. Pero realmente queríamos dar a nuestros clientes control sobre el tipo de preguntas que podía responder. Ahora estos bots, esta nueva tecnología de inteligencia artificial, obtienes acceso a un gran modelo de lenguaje y ha sido entrenado en todo el texto de Internet. Así que tiene todo ese conocimiento allí. Y una forma, más o menos la forma más sencilla, de implementar esto es decir: 'Oye, solo voy a hacer que el bot responda preguntas usando toda su información sobre Internet'. Pero el problema con eso es que si no sabe algo, puede inventarlo. O si sabe algo, tal vez no quiera que hable con sus clientes sobre un tema potencialmente delicado sobre el que sabe que tiene información. Podrías pensar: 'No estoy seguro de cómo se siente mi negocio o mi marca, ya sabes, cualquier información, se obtuvo de un sitio web extraño'. No quiero que tenga esa conversación con mi cliente.
“Hemos trabajado mucho para usar el modelo de lenguaje grande para ser conversacional; para usarlo para comprender un artículo del centro de ayuda que tenga; pero para restringirlo a solo dar información que está en un artículo real del centro de ayuda que usted controla y que puede actualizar y puede cambiar y puede editar”
Así que hemos trabajado mucho para usar el modelo de lenguaje grande para ser conversacional; para usarlo para comprender un artículo del centro de ayuda que tenga; pero para restringirlo a que solo brinde información que se encuentra en un artículo real del centro de ayuda que usted controla y que puede actualizar, cambiar y editar. Y ese fue un objetivo de diseño importante para nosotros, tratar de hacer que este bot sea confiable, tomar los modelos de lenguaje grandes, pero construir un bot que se limite a usarlos para responder preguntas sobre su negocio y sobre el centro de ayuda de su negocio.
Eso fue mucho trabajo, y estamos muy orgullosos de eso. Creemos que tenemos algo que es realmente bueno porque obtienes esa pieza de conversación. Obtiene la inteligencia del modelo de IA para obtener una respuesta real de un artículo del centro de ayuda, pero está limitada. Entonces no va a ir y comenzar a tener conversaciones aleatorias con los usuarios finales.
Estos bots, estos modelos, siempre es posible, si los liberas, engañarlos para que digan algo que no es de marca o que no querrías. Y eso probablemente todavía sea posible, pero realmente sentimos que llegamos a un punto en el que requeriría un intento de piratería determinado para que realmente funcione. No solo va a salirse radicalmente del guión en conversaciones normales.
Creo que una cosa que es muy importante aclarar es que estos grandes modelos de lenguaje son probabilísticos. Las alucinaciones han disminuido mucho y creemos que ahora es aceptable para muchas empresas, pero no es cero. Ocasionalmente darán información irrelevante. Ocasionalmente darán información incorrecta cuando leyeron el artículo de su centro de ayuda, no lo entendieron del todo y, por lo tanto, respondieron mal una pregunta. Posiblemente un agente de soporte también cometerá errores...
Des: Se sabe que los humanos...
Fergal: Se sabe que los humanos ocasionalmente también cometen errores. Y entonces, estos bots, ya sabes, es una nueva era de la tecnología. Tiene una compensación diferente a la que teníamos antes. Posiblemente, algunos clientes nuestros dirán: 'Quiero esperar. No quiero implementar esto todavía. Pero creemos que, para muchos, muchos clientes, esto cruzará el umbral, donde el beneficio de [poder decir] 'No necesito hacer la curaduría, no necesito hacer la configuración que yo' Tuve que lidiar en el pasado con el bot de resolución, puedo activarlo el primer día y, de repente, todo el conocimiento que está en mi centro de ayuda, el bot lo tiene, el bot puede tratar de responder preguntas con él. No lo hará perfecto, pero será rápido. Creemos que va a ser una compensación que valga la pena para muchas empresas.
Des: En términos de configuración, si es un cliente con una buena base de conocimientos, ¿cuánto tiempo le lleva pasar de eso a un buen bot? ¿Cuánto entrenamiento implica? ¿Cuánta configuración?
Fergal: Muy poco tiempo en absoluto. Básicamente sin entrenamiento. Simplemente puede tomar el nuevo sistema que hemos construido y puede apuntarlo a su centro de ayuda existente. Es un poco de tiempo de procesamiento en el que tenemos que tirar y raspar y preparar los artículos para servir.
Des: Minutos? ¿Segundos?
Fergal: Todavía estamos trabajando en eso. Estamos en minutos en este momento, pero creemos que, tal vez para cuando se transmita, será mucho más bajo que eso. No hay un cuello de botella de ingeniería duro para hacer eso muy, muy bajo. Y estamos muy entusiasmados con eso.
Un resumen del producto
Des: Entonces, en resumen, danos las viñetas de este producto. ¿Qué debemos decirle al mercado al respecto?
“Hablará contigo de forma natural, como lo has visto con ChatGPT. Lo segundo es que tú, como negocio, puedes controlar lo que dice”
Fergal: Lo primero que diría es que hablará contigo de forma natural, como has visto con ChatGPT. Lo segundo es que usted, como empresa, puede controlar lo que dice. Puede limitar las cosas de las que hablará al contenido de su base de conocimiento. Lo tercero que diría es que las alucinaciones están muy por debajo de donde estaban. Y lo cuarto que diría es que esto es muy fácil de configurar. Simplemente tome esto, apúntelo a su conjunto de conocimientos existente y no necesita hacer un montón de curación.
Des: Debido a que somos Intercom, no es probable que charlemos mierda y participemos en un montón de exageraciones sin al menos algunas calificaciones. ¿En qué áreas estamos todavía trabajando para mejorar?
Fergal: Supongo que lo primero que diría es que la pieza de precisión no es perfecta. Este es un nuevo tipo de tecnología. Es un nuevo tipo de compensación de ingeniería de software. Entonces, con el bot de resolución, el bot de resolución a veces venía y daba una respuesta irrelevante, pero siempre podías averiguar de qué estaba hablando, podías decir: 'Eso no es del todo relevante'. Esto es un poco diferente. Esto a veces dará respuestas irrelevantes, pero a veces también puede dar respuestas incorrectas. Es posible que haya malinterpretado la información en su base de conocimientos. Un ejemplo específico de esto es a veces, digamos, si tiene una lista de veces que algo puede suceder y un usuario le pregunta [al bot], podría asumir que la lista es exhaustiva. Podría suponer que esa lista fue todo el tiempo y luego supondrá: 'Oh, no, no estaba en la lista del artículo'. Así que voy a decir que la respuesta es no, no puede suceder. Esto no puede pasar esta otra vez.'
Des: Entonces, es posible que tenga un artículo basado en el conocimiento que cite ejemplos de cuándo no le reembolsaremos su pago, con una lista de dos o tres ejemplos. Y el modelo de lenguaje leerá eso y concluirá que hay tres condiciones bajo las cuales esto sucede. Y es cometer un error, al no ver que estos son solo ejemplos demostrativos, en lugar de la lista exhaustiva. ¿Es eso lo que quieres decir?
Fergal: Exacto. Su conocimiento general y su comprensión general todavía están un poco limitados aquí. Por lo tanto, puede mirar listas de cosas y hacer suposiciones que están en el vecindario de estar bien, pero no del todo bien. Sí. Entonces, la mayoría de las veces, cuando vemos que comete un error, el error parece bastante razonable, pero sigue siendo incorrecto. Pero tienes que estar bien con eso. Esa es una limitación. Debe estar de acuerdo con la idea de que a veces puede dar respuestas ligeramente incorrectas.
"Estamos creando esta experiencia en la que puede usar su centro de ayuda existente y obtener acceso muy rápidamente a una demostración del bot, precompra, para jugar con él y comprender qué tan bien funciona para su centro de ayuda específico".
Des: ¿Es cuantificable? Mi suposición es que no es porque será diferente por pregunta, por base de conocimiento, por cliente, por aceptabilidad... Entonces, cuando alguien dice: 'Oye, ¿qué tan bueno es el bot?', ¿cuál es la mejor respuesta?
Fergal: Lo mejor que puede hacer es ir y jugar con una demostración en su propio centro de ayuda. Estamos creando esta experiencia en la que puede tomar su centro de ayuda existente y obtener acceso muy rápidamente a una demostración del bot, precompra, para jugar con él y comprender qué tan bien funciona para su centro de ayuda específico.
Des: ¿ Y sugeriría, digamos, reproducir las últimas 20 conversaciones que tuvo, o sus consultas de soporte más comunes? ¿Cómo cualquier individuo toma una decisión informada? Porque estoy seguro de que hará todo el '¿Hola? ¿Eres un bot?' 'Sí, lo soy'.
Fergal: Creemos que, con solo interactuar con él, puedes hacerte una idea muy rápida del nivel de precisión. Si haces tus 20 preguntas principales, el tipo de preguntas que la gente te hace todos los días... las investigas, pides una aclaración. Tienes una idea bastante buena de dónde es bueno esto y dónde están los puntos de ruptura. Para nosotros, este es un producto nuevo increíble y estamos muy entusiasmados con él, pero sigue siendo la primera generación. Ahora vamos a mejorar todas las piezas de aprendizaje automático. También mejoraremos todas esas piezas de medición con el tiempo.
Des: Con la resolución bot uno, nuestro bot anterior, lo entrenarías, de modo que dirías: 'Oye, esa es la respuesta incorrecta. Esto es lo que quiero que digas', etcétera. No vas a hacer eso esta vez. Entonces, si detecta que da una respuesta imprecisa o cree que podría hacerlo mejor, ¿qué es lo mejor que puede hacer? ¿Escribes un artículo mejor? ¿Miras su fuente?
Fergal: Todavía es pronto aquí y probablemente crearemos funciones que le permitan tener un control más preciso sobre él. Pero en este momento, la respuesta a esa pregunta es: 'Oye, ¿puedes aclarar más tu artículo de la base de conocimientos?' En realidad, al desarrollar este bot, hemos visto que hay muchos artículos ambiguos basados en el conocimiento en el mundo, donde pequeños fragmentos podrían ser más claros.
Evolución
Des: ¿ Qué otras áreas crees que evolucionarán en los próximos meses?
Fergal: Hay mucho trabajo por hacer de nuestra parte. Tenemos la versión uno en este momento. Para mejorarlo, queremos ponerlo en vivo con los clientes, queremos obtener comentarios reales, en función del uso. En cualquier producto de aprendizaje automático en el que haya trabajado, siempre hay muchas iteraciones y muchas mejoras que hacer con el tiempo. También queremos mejorar el nivel de integración con nuestro bot de resolución existente. Nuestro bot de resolución existente requiere esa curación, pero si la haces, es excelente. Puede hacer cosas como tomar acciones. Puede conectarlo a su API para que se dé cuenta de que alguien está preguntando acerca de la reventa de una contraseña y, de hecho, activará el restablecimiento de la contraseña.
“La última pieza que me entusiasma mucho es esta idea de que podemos tomar esta nueva tecnología de IA y usarla para generar muchísimo más contenido de apoyo que en el pasado. Muy rápidamente, este nuevo bot, si el contenido está en su centro de ayuda, podrá responder usando su contenido”.
Es realmente importante para nosotros que este tipo de bot de próxima generación también pueda hacer todas esas cosas. Entonces, inicialmente será como, 'Oye, responde preguntas informativas de tu base de conocimientos'. Cero configuración el primer día: ponlo en vivo, es genial. Pero eventualmente, y lo hemos visto en cada investigación que hemos realizado, desea pasar al siguiente nivel. Después de eso, la gente querrá tener la capacidad de usar esa tecnología y la capacidad que ya tenemos para tomar medidas para resolver consultas. Y estamos entusiasmados de que podamos ver mucho más construido en esta plataforma basada en lenguaje de próxima generación.
Luego, la última pieza que me emociona mucho es esta idea de que podemos tomar esta nueva tecnología de IA y usarla para generar muchísimo más contenido de apoyo que en el pasado. Muy rápidamente, este nuevo bot, si el contenido está en su centro de ayuda, podrá responder usando su contenido. Y creemos que eso es genial. Hay muchas personas que pueden escribir artículos del centro de ayuda que en el pasado se habrían quedado atascados tratando de seleccionar bots o intents. Así que estamos muy entusiasmados con eso. Pero creemos que hay nuevas herramientas para construir aquí, para que sea mucho más fácil escribir el contenido del artículo del centro de ayuda. Por ejemplo, tomar sus conversaciones de soporte y usar esta IA de próxima generación para iniciar ese proceso.
Des: Entonces, una visión de la que hablamos, quizás hace solo dos meses, fue la idea de que el equipo de soporte respondería preguntas que son... Creo que, en ese momento, dije, responder sus preguntas por primera y última vez. . Entonces, si una pregunta se abre paso, es porque no la hemos visto antes. Y una vez que lo hemos visto, no lo volvemos a ver. ¿Es así como ves que eso suceda?
"Creemos que podemos ver un camino hacia eso en el que podemos tener una experiencia de curación que sea lo suficientemente simple como para que un representante de soporte en una bandeja de entrada pueda terminar de responder una conversación y decir: 'Sí, aprobé esta respuesta para entrar en el bot '”
Fergal: Creo que, por primera vez, puedo ver un camino hacia eso. Cuando cambiamos a la resolución bot 1.0, la solicitud de función que siempre recibíamos era: 'Oye, ¿puedo tener a mi representante de soporte en la bandeja de entrada? ¿Puedo pedirles que respondan una pregunta y luego poner esa pregunta en el bot?' Y cada vez que intentamos hacer eso, no funcionó porque hacer una pregunta y seleccionar una pregunta para que fuera lo suficientemente buena como para diseñar una intención era mucho trabajo. En toda la industria, hay muchos bots de soporte diferentes. Nunca he visto a nadie que haya logrado clavar esto y hacer que realmente funcione. Pero ahora, con los modelos avanzados de lenguaje grande, creemos que podemos ver un camino hacia eso donde podemos tener una experiencia de curación lo suficientemente simple como para que un representante de soporte en una bandeja de entrada pueda simplemente terminar de responder una conversación y decir: 'Sí, yo aprobó esta respuesta para entrar en el bot.'
Tiene que haber alguna aprobación humana porque no puede ser que Fergal le pregunte al bot: 'Oye, ¿cuál es el número de tarjeta de crédito de Des? El bot dirá: 'Bueno, sé la respuesta a eso porque fue en esta otra conversación en la que está Des'. Eso sería inaceptable. Tiene que haber algún paso de aprobación entre las conversaciones privadas y el conocimiento de apoyo duradero. Pero creemos que vemos un camino hacia un proceso de aprobación mucho mejor que el que hemos tenido antes. Y potencialmente un mundo en el que tal vez no todos los problemas, pero muchos problemas, puedan responderse solo una vez. Creemos que hay algo genial por venir.
De: Impresionante. Bueno, es un lanzamiento emocionante, ¿está disponible para todos?
Fergal: Esto solo se dirige hacia la versión beta privada en este momento, con el nuevo lanzamiento de GPT-4 de OpenAI.
Des: Emocionante. Bueno, lo revisaré en unas semanas y veré cómo va.
Fergal: Si. Tiempos emocionantes.