Notre grande expérience avec GPT et l'IA générative
Publié: 2023-02-01ChatGPT a pris d'assaut le monde, et nous ne pourrions pas être plus excités. Aujourd'hui, nous révélons les fonctionnalités de service client que nous avons créées à l'aide de cette IA révolutionnaire.
En décembre, notre directeur de l'apprentissage automatique, Fergal Reid, et moi nous sommes assis pour discuter du lancement de ChatGPT : le bon, le mauvais, la promesse, le battage médiatique. Les possibilités d'automatisation et de rationalisation des processus pour les représentants du support semblent infinies, mais le succès de l'IA générative dans cet espace dépendra en fin de compte de sa capacité à apporter une réelle valeur ajoutée aux équipes de service client et aux clients. Sinon, eh bien, ce n'est qu'un jouet - amusant, mais un jouet quand même.
Pour tester cela, nous nous sommes rapidement mis au travail. Nous avons esquissé quelques fonctionnalités alimentées par l'IA qui, selon nous, pourraient être utiles, nous sommes passés en production et avons mis une version bêta devant 160 clients. Vous pouvez lire tout sur ces nouvelles fonctionnalités ici.
Dans l'épisode d'aujourd'hui, Fergal et moi partageons ce que nous avons appris au cours des dernières semaines, où nous allons ensuite et comment cela a changé notre perception de ce qui est possible dans cet espace.
☞ Cliquez ici pour rejoindre la liste d'attente bêta de nos fonctionnalités d'IA ou recevoir des nouvelles sur l'IA d'Intercom.
Voici quelques-uns des principaux plats à emporter :
- La capacité des modèles ChatGPT à traiter le langage naturel dans les conversations à plusieurs phrases continue de s'améliorer et de débloquer de nouvelles possibilités.
- Dans le développement de produits, les clients sont toujours l'arbitre ultime - vous pouvez créer une technologie étonnante, mais si cela ne résout pas un problème pour eux, cela n'en vaut pas la peine.
- La capacité de GPT-3.5 à éditer et à modifier le texte le rend très précieux pour le service client, et il peut déjà gérer des tâches telles que résumer le texte et ajuster le ton.
- Avec les progrès de ChatGPT, davantage de fonctionnalités peuvent être ajoutées pour maximiser l'efficacité et libérer les agents de première ligne pour qu'ils se concentrent sur les problèmes plus complexes qui génèrent la satisfaction des clients.
- Alors que nous commençons à étudier des utilisations potentiellement révolutionnaires telles que les réponses intelligentes, le modèle manque toujours de compréhension du contexte commercial pour qu'il fonctionne.
Assurez-vous de ne manquer aucun temps fort en suivant Inside Intercom sur Apple Podcasts, Spotify, YouTube ou en saisissant le flux RSS dans le lecteur de votre choix. Ce qui suit est une transcription légèrement modifiée de l'épisode.
Une percée dans la compréhension des langues
Des Traynor : Re- bonjour, Fergal. Comment ça va?
Fergal Reid : Bien, merci, Des. Les dernières six ou sept semaines ont été chargées ici à Intercom, donc je suis très heureux d'en parler aujourd'hui.
Des : Ouais, il y a à peine six ou sept semaines, nous nous sommes assis pour discuter. Vous avez eu, je suppose, six ou sept semaines de temps d'ingénierie réel contre la révolution de l'IA qui a été lancée fin novembre. Qu'as-tu appris? Cela a-t-il changé votre perception de ce qui va être possible dans le monde du service client ?
Fergal : Oui, je pense que oui. Lors de notre dernière conversation, nous avons beaucoup parlé de ChatGPT et c'était peut-être une semaine après son lancement. Vous pouvez couper les cheveux en quatre pour savoir si la grande différence ici est ChatGPT ou la famille de modèles qu'OpenAI a construit - nous avons principalement travaillé avec GPT-3.5 ou avec Text-Davinci-003, pour être vraiment précis.
Des : Ce sont les noms de ce module spécifique.
Fergal : Ouais, ce sont les noms de ce modèle spécifique. Et en fait, il y a beaucoup de confusion sur ces noms et sur ce que sont les différentes choses. Mais fondamentalement, nous pensons que la série de modèles GPT-3.5, Davinci-002, Davinci-003, ce genre de chose, qui est sortie l'année dernière, puis Davinci-003, qui a chuté exactement au même moment que ChatGPT, ont été des percées et nous ont vraiment permis de commencer à essayer de créer des fonctionnalités différentes et qualitativement meilleures.
"C'est un gros déblocage car il y a tellement de tâches que nous voulons faire qui sont mieux décrites en langage naturel"
Des: Quelle est votre conviction sur ce qui est possible maintenant ? Où allons-nous dans le monde du service client ?
Fergal : Je pense que dans le service client, et même au-delà, ces modèles nous permettent de mieux gérer le langage naturel qu'auparavant. Je suppose que je pourrais donner un peu d'histoire du traitement du langage naturel. C'était des choses simples comme les expressions régulières et ainsi de suite pendant longtemps. Ensuite, nous avons eu un texte qui est devenu vraiment bon pour regarder les mots-clés qui étaient beaucoup dans les données. Et puis il y a peut-être trois, quatre ans, les réseaux de neurones ont commencé à devenir vraiment bons pour comprendre : « Hé, quel est le sens de cette phrase ? Mais maintenant, je dirais qu'ils commencent à devenir vraiment bons pour "Hé, quel est le sens de cette phrase dans un sens plus profond..." se rapprochant beaucoup plus de la façon dont les humains peuvent le faire, et comprendre ce qui se passe dans une conversation de plusieurs phrases . De quoi parle la personne ? Assemblez le contenu de la première phrase avec le contenu de la troisième phrase pour comprendre que quelqu'un vient de dire : "Oh, j'ai une question à propos de Salesforce". Et le coéquipier dit : « Bon, c'est quoi ta question ? Comment puis-je vous aider?" Et puis il dit: "Oui, j'ai vraiment besoin d'aide pour mon intégration." Et les systèmes comprennent de mieux en mieux que cette intégration concerne l'intégration de Salesforce et ont une idée de la direction que devrait prendre la conversation.
"Soudain, les machines sont capables de les regarder et de leur donner beaucoup plus de sens"
Notre Bot de résolution et la technologie d'apprentissage automatique déjà déployée sont assez bons dans ce domaine dans une phrase donnée. Mais maintenant, la technologie s'améliore au point où elle est bonne sur plusieurs phrases et bien meilleure dans le contexte. En tant qu'êtres humains qui communiquent et veulent se parler dans des langues naturelles, c'est tellement naturel pour nous. C'est un gros déblocage car il y a tellement de tâches que nous voulons faire qui sont mieux décrites en langage naturel. Il y a tellement de documents, d'instructions et d'articles sur la façon de faire quelque chose que nous écrivons et communiquons les uns avec les autres en langage naturel. Et maintenant, tout à coup, les machines sont capables de les regarder et de leur donner beaucoup plus de sens. Et chaque fois que cette capacité s'améliore, un tas de produits libèrent un tas de choses qui n'étaient pas possibles auparavant. Et nous sentons vraiment que ce qui s'est passé est une grande chose. C'est notre opinion jusqu'à ce que nous construisions des choses et que nous les mettions devant nos clients et que nous voyions ce que nos clients en pensent.
Des: Et c'est donc ce que nous voulons.
Fergal : Je veux dire, c'est ce que nous avons essayé de faire.
Des : Qu'est-ce qu'un logiciel, sinon des opinions codifiées, n'est-ce pas ?
Fergal : C'est vrai.
C'est aux clients
Des: Alors, qu'avons-nous construit ? Sur quoi as-tu travaillé ? Parlons-en.
Fergal : Donc, dans le développement de produits, vous voulez toujours vérifier votre opinion. Vos clients sont toujours l'arbitre ultime pour savoir si quelque chose est bon ou non. Vous pensez peut-être que vous disposez de la technologie la plus étonnante et de l'expérience produit la plus étonnante, mais si cela ne résout pas un problème et s'il n'est pas utilisé, vous vous trompez. Et donc, nous voulions vraiment couper le battage médiatique ici et nous convaincre, "D'accord, que pouvons-nous construire rapidement pour les clients, que pouvons-nous obtenir devant eux, pour travailler avec eux pour voir quelle est la valeur?" Et donc, nous sommes allés esquisser des fonctionnalités que nous pourrions créer et mettre en production rapidement qui utiliseraient une partie de cette nouvelle technologie et nous aideraient à déterminer si elle avait de la valeur ou si c'était un jouet.
"Vous pouvez simplement appuyer sur un bouton ou utiliser un raccourci clavier pour dire en gros : "Hé, je veux un résumé de cette fonctionnalité, placez-le sur mon compositeur afin que je puisse y ajouter légèrement""
La première chose que nous avons décidé de faire a été de créer une fonctionnalité qui faisait essentiellement du résumé. Et il y a une raison pour laquelle nous avons décidé de le faire. Mon équipe, l'équipe d'apprentissage automatique ici chez Intercom, l'équipe de la boîte de réception, a découvert qu'il y avait deux tâches client communes que nous voyons beaucoup. Dans de nombreuses entreprises, avant qu'un représentant du support ne transmette la conversation, il doit rédiger un résumé de cette conversation. S'ils ne le font pas, l'utilisateur final doit se répéter ou le représentant qui reçoit doit aller faire défiler vers le haut et lire beaucoup de choses. Et donc, le représentant du support qui passe la main doit rédiger un résumé et c'est un vrai travail.
Il y a environ un an et demi ou deux ans, mon équipe a essayé d'examiner les meilleurs réseaux de neurones à l'époque, T5 et tous ces grands réseaux, et de déterminer si nous pouvions les utiliser pour créer une fonction de synthèse adéquate. Et malheureusement, nous avons conclu qu'il n'y avait tout simplement pas moyen. Les conversations sont tout simplement trop noueuses. Le flux d'une conversation se déroule entre ces différentes parties d'une manière qui était vraiment bonne pour les humains - les humains peuvent facilement le rechercher et c'est rapide et ils peuvent le scanner - mais même les assez grands réseaux de neurones que nous avons dans le Bot de résolution ont eu du mal sur ce genre de tâche. Et l'une des premières choses que nous avons vues lorsque nous avons joué avec le récent modèle DaVinci-003, GPT-3.5, c'est que tout à coup, il semble être excellent pour résumer. Et nous sommes comme, "Wow, ça a l'air incroyable."
« Nous allons essayer d'être vraiment réels avec les gens. Nous allons aider nos clients à déterminer quels éléments sont des jouets »
Et donc, nous avons créé une fonctionnalité et effectué quelques itérations avec une fonctionnalité de résumé dans la boîte de réception. Vous pouvez simplement appuyer sur un bouton ou utiliser un raccourci clavier pour dire en gros : "Hé, je veux un résumé de cette fonctionnalité, placez-le sur mon compositeur afin que je puisse l'ajouter légèrement." Ce n'est pas parfait. Vous devrez peut-être en ajouter un peu, mais c'est un énorme gain de temps. Et nous avons eu plus de 160 clients dans notre bêta utilisant ces fonctionnalités et ils ont fait des résumés un vrai gagnant. Cela ne change pas encore complètement le jeu pour un représentant du support ; il sélectionne un travail de base, mais il livre sur ce travail de base.
Des: Et le réduit. Quelle est la réduction selon vous ? Si cela prendrait normalement trois minutes pour écrire - était-ce à 10 secondes pour ajouter le résumé ou quelque chose comme ça ?
Fergal : Ouais.
Des : C'est comme si 90 % du travail avait été supprimé.
Fergal : Exactement. Et nous avons eu des clients extrêmement enthousiastes à ce sujet parce qu'ils peuvent avoir un fil de discussion très long ou un historique de conversation très, très long, et cela fait gagner beaucoup de temps. C'est un peu comme si vous lisiez un article universitaire ou quelque chose comme ça. Parfois, le simple fait d'obtenir un aperçu vous aide à trouver les détails exacts que vous voulez. Je pense que nous avons atteint quelque chose de vraiment bien là-bas, et c'est l'une des fonctionnalités sur lesquelles nous avons travaillé.
« C'est facile de sortir avec la machine à battage publicitaire ; il est facile de sortir des communiqués de presse : « Nous avons changé le monde. Et en pratique, la personne qui décide qui sont nos clients »
Nous allons essayer d'être vraiment réels avec les gens. Nous allons aider nos clients à déterminer quels éléments sont des jouets. Tout ce que nous avons construit et mis en version bêta ne change pas la donne, mais le résumé est l'un de ceux qui nous tiennent le plus à cœur. C'est vraiment prêt. Cette technologie fait quelque chose de transformateur - c'est nouveau, c'est passionnant et cela offre une réelle valeur client.
Des : Une chose que nous avons toujours essayé d'être, en ce qui concerne l'IA, c'est la sobriété parce que nous essayons de rendre service à nos clients. Il est facile de sortir avec la machine à battage publicitaire ; il est facile de sortir des communiqués de presse : « Nous avons changé le monde. Et en pratique, la personne qui décide qui sont nos clients. Ainsi, lorsque nous publions un résumé, nous croyons qu'il est vraiment précieux. C'est la chose qui compte, non?
Fergal : Exactement. Et regardez, c'est quelque chose qui nous tourmente. Parfois, vous perdez face à des gens qui sont prêts à faire du battage médiatique. Nous essayions très fort de ne pas le faire parce qu'une fois que vous commencez à le faire, vous finissez par croire votre propre battage médiatique.
Des : Le récit devance le logiciel. C'est un vrai risque.
Fergal : Et vous essayez d'éviter cela. Nous avons été très conscients de cela avec ce type de technologie, c'est-à-dire que cela fonctionne presque beaucoup, et cela se rapproche vraiment de quelque chose de magique et de transformateur, mais cela échoue parfois. Et donc, nous essayons de rester honnêtes ici à propos de "D'accord, est-ce que c'est vraiment assez bien encore ?" Nous savons que ce n'est pas parfait, mais est-ce encore assez bon ? Et à quoi ça sert ? Et le résumé est quelque chose qui nous plaît. C'est une fonctionnalité qui, selon nous, apporte une réelle valeur ajoutée.
Vous pouvez perdre en proposant quelque chose qui a l'air bien mais qui ne fonctionne pas réellement en production, et vous pouvez également perdre en étant trop conservateur. Et dans le passé, avec Resolution Bot, nous avons eu des moments où nous étions trop conservateurs. Nous étions comme, "oh, nous ne voulons vraiment pas que cela se retourne contre nous à moins que nous soyons à peu près sûrs qu'il a la réponse." Et puis certains clients sont venus nous voir et nous ont dit : "Oh, l'utilisateur ne reçoit aucune aide depuis un moment, donnez-lui quelque chose même si vous vous trompez." Et nous testons A/B et ajustons ces flux de déchets et ainsi de suite. Il y a eu des moments où nous avons été trop conservateurs. Et donc, nous adoptons ici une approche consistant à fournir rapidement de nouvelles fonctionnalités bêta à nos clients. Nos clients sont extrêmement enthousiasmés par cette technologie.
Édition de texte sans effort
Des : Combien de fonctionnalités sont présentes dans la version bêta ? Cinq six?
Fergal : Donc, la première chose que nous avons faite a été de résumer. Nous l'avons fait parce que c'était juste un travail simple, facile à intégrer et bien compris. Après cela, nous sommes allés voir le compositeur. Parce que nous avons la télémétrie et les métriques, nous savons qu'environ la moitié du temps qu'un agent passe dans Intercom, il passe chez le compositeur à écrire du texte ou à le modifier. Ils organisent également leurs pensées, mais ils passent beaucoup de temps à écrire et à remodeler le texte. Et quand nous avons regardé cela, nous nous sommes dit: "D'accord, c'est très bon pour éditer et modifier du texte." Nous avons commencé avec quelques petites fonctionnalités là-bas, certaines comme des fonctionnalités MVP pour les mettre en ligne et voir comment cela se passe. Et donc, nous avons commencé avec les fonctionnalités d'édition et de remodelage du texte. Peut-être que le plus simple à expliquer est l'édition simple. Dire : « Hé, rendez ce texte que je viens d'écrire plus convivial » ou « plus formel », car cette technologie est maintenant douée pour ajuster le ton. Auparavant, il n'y avait vraiment rien que vous puissiez utiliser pour régler la tonalité de manière fiable. Nous avons fait beaucoup d'itérations sur l'UX et nous avons trouvé une UX où il y a une barre d'outils et vous pouvez simplement sélectionner du texte. Dans notre première version, vous ne pouviez pas sélectionner le texte et nous l'avons itéré. Le client nous a dit que c'était inutile – ils ne voulaient pas changer le ton de tout dans le compositeur. Maintenant, vous pouvez sélectionner un peu.
"Cela me frappe de savoir que nous pourrions envisager un monde où le nouveau menu contextuel est comme" développer ", " résumer ", " le rendre plus heureux " et " le rendre plus formel " "
C'est presque comme éditer une image. Et nous avons commencé à penser qu'il y avait un paradigme émergent ici. Je me souviens qu'il était une fois un traitement de texte où vous pouviez mettre du texte en gras et en italique, c'était comme "wow". Et on se demande si, à l'avenir, les gens vont penser à ça en termes de ton. C'est comme "Oh, bien sûr, je veux aller rapidement modifier le ton." Si vous êtes fatigué à la fin de la journée, que vous avez rédigé un brouillon et que vous vous dites : « Je n'ai pas été assez amical, cela va affecter mon CSAT », il vous suffit de cliquer sur un bouton et de modifier le ton et il devient plus amical. Et il est plus facile d'appuyer sur ce bouton une ou deux fois que d'aller et-
Des : Allez et réécrivez-le.
Fergal : Réécrire un texte est un travail.
Des: Cela me frappe de savoir que nous pourrions envisager un monde où le nouveau menu contextuel ressemble à "développer", "résumer", "rendre plus heureux" et "rendre plus formel". Ce seront les transformations que vous essayez de faire. Ce n'est pas tant que vous vous concentrez sur l'optique du texte que sur le ton.
Fergal : Totalement. Écoutez, quand on va et vient là-dedans, on se dit, « est-ce un jouet ? Avons-nous construit un jouet cool ou est-ce quelque chose d'incroyable ? » Et je pense que cela va varier selon le client, mais le cas audacieux pour cette fonctionnalité particulière est : "Hé, je suis fatigué à la fin de la journée et je me soucie beaucoup du ton parce que mon CSAT est une grande mesure pour moi et c'est une façon de faire. C'est une façon de donner une expérience client plus agréable.
Des: Prenez "désolé, voici votre remboursement". Vous diriez « s'il vous plaît, faites en sorte que cela sonne plus empathique », ou autre chose.
Fergal : Nous avons fait des expériences autour de l'empathie. En fait, nous sommes passés à "rendre les choses plus formelles, rendre les choses plus conviviales". C'est le genre de spectre qui semble très bien fonctionner, alors nous avons opté pour cela. Et je suppose que cela convient à Intercom. Beaucoup de gens essaient de donner une expérience de support très personnelle et très amicale.
« La plupart du temps, quand vous écrivez quelque chose, cela sort mal. Donc, vous pouvez simplement dire: 'Hey, reformule ça' "
Pour être complètement transparent, nous ne savons toujours pas exactement où il se situe dans le spectre du jouet à la valeur. Certains clients disent que c'est très précieux et nous continuons donc à l'évaluer. Mais nous avons cela en version bêta. Nous voulons dire à nos clients que c'est le genre de choses que nous construisons et étudions.
C'est une caractéristique. La prochaine chose que nous avons commencé à regarder est une fonction de reformulation. Et encore une fois, ces modèles de langage sont très efficaces pour prendre un texte contraint et le modifier ou le modifier. Vous commencez à voir cela avec le résumé. La plupart du temps, lorsque vous écrivez quelque chose, cela sort mal. Donc, vous pouvez simplement dire: "Hé, reformule ça." Et encore une fois, c'est ce genre d'UX rapide où il vous suffit de le mettre en surbrillance et de cliquer dessus. C'est juste un peu plus facile que de le réécrire vous-même. Il y a un peu de latence quand vous faites cela. Donc, nous sommes toujours en train d'évaluer. Mais certains clients, encore une fois, l'aiment vraiment, cela fonctionne vraiment pour eux dans leur entreprise et nous nous attendons à ce que la latence diminue avec le temps à mesure que ces modèles s'améliorent de plus en plus. C'est donc de la reformulation de texte. Ce sont en quelque sorte les premières fonctionnalités que nous avons recherchées dans le compositeur.
Maintenant, les plus gros billets viennent ensuite, et nous commençons à enquêter sur les choses qui changent potentiellement davantage la donne. Une chose que nous essayons de faire avec cela est ce que nous appelons la fonction d'extension. Nous avons été inspirés par des choses comme le copilote pour les programmeurs. En copilote, vous pouvez écrire un commentaire et il remplit la fonction complète et vous fait gagner un temps considérable. Et nous nous sommes dit : "Oh, pouvons-nous créer quelque chose qui ressemble un peu à ça pour le support client ?" Et l'idée est que peut-être vous écrivez un court résumé de ce que vous voulez, puis mettez cela en évidence, dites développez, et votre compositeur remplit cela. Nous l'avons fait, nous l'avons expédié, et les clients voient clairement qu'il s'agit d'un produit de valeur et non d'un jouet – si cela fonctionne. Mais cela fonctionne beaucoup mieux dans certains domaines que dans d'autres. Si vous répondez à des questions que des informations génériques sur Internet feraient un bon travail de-
Des : Comme si vous deviez réinitialiser votre téléphone ou quoi que ce soit.
Fergal : Oui, exactement. Ça marche très bien pour ça. Cependant, si vous essayez de faire quelque chose où vous écrivez une sténographie et qu'il y a en fait beaucoup de contexte spécifique à votre entreprise sur la façon dont vous répondez à ce type de question, cela peut halluciner et cela dira quelque chose que vous devez modifier en dehors. Pourtant, certains clients l'aiment vraiment et cela fonctionne très bien pour eux. Mais nous pensons vraiment que c'est une sorte de version un. Si vous l'utilisez, vous devez le vérifier et voir dans quelle mesure cela fonctionne pour vous et votre entreprise. Cependant, nous avons un projet qui évalue constamment de nouvelles choses pour cela, où c'est comme "Hé, pouvons-nous prendre les réponses précédentes que vous avez données sur les mêmes sujets ?" Donc, vous nous donnez des résumés en trois mots de ce que vous voulez faire, comme « Rembourser le client, merci », et nous irons chercher les cinq dernières choses que vous avez dites sur les remboursements. Nous irons également voir si vous avez peut-être une macro sur les remboursements. Nous examinerons également le contexte de la conversation au préalable.
« Ce que nous expérimentons, c'est : pouvons-nous surmonter l'obstacle ? Pouvons-nous commencer à créer quelque chose de vraiment transformateur en intégrant ce contexte ? »
Des: S'il y a quoi que ce soit dans le centre d'aide, tout ce genre de choses.
Fergal : Nous ne sommes pas allés aussi loin que d'extraire des articles et des éléments du centre d'aide. Nous venons de regarder ce que vous et l'utilisateur avez dit il y a deux tours, placez-les tous dans une invite qui dira ensuite : "D'accord, avec toutes ces informations, veuillez prendre ce raccourci de trois mots et anti-résumer transformez-le en une grande chose.
Des : Ouais, tout à fait. Il faudra donc dire « Désolé, voici un remboursement, merci » en « Nous nous excusons vraiment pour la gêne occasionnée. Nous avons émis un remboursement et vous devriez le voir dans trois à quatre jours. Et nous regrettons..."
Fergal : Dans le style que vous utilisez habituellement - vous personnellement, l'agent individuel - et en prenant également en compte toutes les macros pertinentes que vous avez. C'est vraiment là où nous en sommes. Et cette dernière pièce n'est pas encore en production. Le V1 est en production. La V1 a été utilisée par des centaines de clients bêta. Mais ce que nous expérimentons, c'est : pouvons-nous surmonter la difficulté ? Pouvons-nous commencer à créer quelque chose de vraiment transformateur en intégrant ce contexte ? Et c'est toujours en cours. Je dirais que nous sommes optimistes mais pas encore certains. Cela change de semaine en semaine pour nous, donc nous sommes très excités à ce sujet. Et c'est la première version de la fonctionnalité d'extension pour le moment. Mais nous pouvons voir la version deux et la version trois arriver.
Accroître l'efficacité de l'assistance
Fergal : La dernière fonctionnalité que nous avons testée dans notre version bêta était de donner à nos clients un accès direct à GPT. Donc, pas d'invite, sans rien dire au modèle, en disant simplement: "Hé, mets ce que tu veux là-dedans." Et nous avons vraiment fait cela comme une expérience bêta rapide. Nous n'avons pas donné beaucoup de conseils à nos clients dans la version bêta sur la façon de l'utiliser. Nous avons confondu certains d'entre eux et cela ne s'est pas si bien passé, mais certains clients ont trouvé de nouveaux cas d'utilisation, y compris la traduction, où cela leur apportait une réelle valeur. Maintenant, ces modèles ne sont pas les meilleurs en matière de traduction, mais c'est peut-être là une tactique intéressante de développement de produits d'IA, qui est du genre : « Hé, si vous avez des clients bêta, donnez-leur peut-être un peu plus de puissance que vous ne le pensez et ils vous diront ce dont ils ont besoin.
Des : Voyez ce qui émerge. Voir ce qui est attendu même.
Fergal : Exactement. Et les attentes, je pense, vont changer rapidement dans ce domaine. Peut-être que cela nous dit que nous avons besoin de traduction parce qu'il existe des modèles de traduction très bien compris.
"Peut-être qu'il y a une source à côté, et soudain, ces cinq minutes de recherche de la réponse deviennent instantanées. Et c'est là que ça commence à changer vraiment la donne »
Des : Il semble donc que toutes ces fonctionnalités optimisent l'efficacité des équipes d'assistance. Ils réduisent beaucoup l'indifférencié, que ce soit les intros et les outros ou s'il s'agit simplement de réécrire quelque chose qu'ils n'ont peut-être pas l'énergie de faire pour le rendre plus joyeux ou plus formel. Ce sont toutes des façons différentes de faire gagner beaucoup de temps aux agents d'assistance de première ligne. En fin de compte, leur donner plus de temps pour se concentrer sur les éléments les plus difficiles de la conversation, à savoir les recherches techniques ou les plongées approfondies. Est-ce là que cela sera le mieux déployé ? Est-ce notre meilleure réflexion jusqu'à présent ? Lorsque vous pensez à d'autres endroits où nous pouvons déployer cette technologie de type GPT dans l'expérience d'assistance, à quoi d'autre pensez-vous ?
Fergal : Nos plus gros clients ont beaucoup de représentants du support qui passent jour après jour dans le compositeur. Et donc, si nous pouvons les rendre plus rapides et plus efficaces, un gain d'efficacité de 10 % ou 20 % est absolument énorme.
Des : Bien sûr, oui. Nous avons des clients avec des milliers de sièges, donc c'est vraiment transformationnel.
Fergal : Exactement. Changement de jeu. Et c'est un domaine qui nous a beaucoup attirés. Et cette technologie ne fait que s'améliorer. Ce n'est pas le seul endroit, mais nous sommes vraiment optimistes à ce sujet. Certains de nos clients partageront très gentiment avec nous des vidéos de leur quotidien. Et vous voyez ce flux de travail où c'est comme, « Hé, j'essaie de répondre à une question, et je ne connais pas la réponse. J'ai besoin d'aller chercher un article du service d'assistance interne ou de trouver une conversation similaire, et je navigue. Si nous pouvons court-circuiter cela au point où c'est comme, « Hé, voici l'IA. Peut-être que vous lui donnez quelques mots… » Ou peut-être que nous allons au-delà. Nous avons d'autres prototypes dont je parlerai dans quelques minutes où peut-être que la réponse vous attend. Peut-être qu'il y a une source à côté, et soudain, ces cinq minutes de recherche de la réponse deviennent instantanées. Et c'est là que ça commence à changer vraiment la donne. Je pense que c'est là où nous allons bientôt.
Des : Ouais, c'est logique. Les petits gains sur les grandes équipes sont toujours énormes, et bien sûr, les gros gains dans un flux de travail particulier, le truc de la synthèse, sont aussi énormes. Je pense que certaines personnes ont ce monde binaire étrange où jusqu'à ce que nous ayons automatisé tout le support, nous n'avons rien fait. Mon point de vue personnel est que je ne pense pas que nous automatiserons un jour tout le support. Ce que je pense que nous allons faire, c'est littéralement éviscérer la partie indifférenciée du support, les trucs « pointus, cliqués », « intro-y outro-y » où vous faites la même chose tous les jours.
Fergal : Et j'espère que vous vous débarrasserez de leurs parties frustrantes. Vous naviguez, vous essayez de chercher, et vous savez que la réponse est ici quelque part. Vous savez que vous avez répondu à cette question cinq fois le mois dernier, mais vous ne la trouvez pas.
"Honnêtement, ces fonctionnalités franchissent le seuil d'utilité beaucoup plus rapidement que je ne l'aurais prévu"
La dernière fonctionnalité qui était en ligne en version bêta est un extenseur basé sur des articles. C'est quelque chose que nous voyons presque devenir une fonctionnalité standard très rapidement. Partout où vous écrivez un article de texte, il deviendra standard que vous souhaitiez pouvoir appeler un grand modèle de langage et dire: «Hé, aidez-moi à compléter ceci, à développer cela. Voici mes points essentiels. Et donc, nous expédions cela dans notre version bêta pour le produit d'articles Intercom. Encore une fois, il est encore tôt. Tout cela est précoce - cela fait six à huit semaines, mais parfois c'est magique. Parfois, vous pouvez aller écrire quatre ou cinq puces pour décrire le contenu d'un article, puis, dans l'invite, nous lui donnons le format standard d'un article Intercom, afin qu'il sache comment aller les mettre dans les titres et bientôt. C'est magique quand ça marche, à quelle fréquence ça marche et à quel point ça marche pour les gens. Encore faut-il vérifier le contenu. Il peut mettre des choses là-dedans, mais nous pensons qu'il existe des moyens de réduire cela. Et honnêtement, ces fonctionnalités franchissent le seuil d'utilité beaucoup plus rapidement que je ne l'aurais prévu. Alors oui, nous expérimentons cela.
La dernière frontière
Des: Alors, plus loin, quelle est votre opinion sur la trajectoire de tout cela ? Où aller d'ici ?
Fergal : Ce sont les choses que nous avons eues en version bêta. Nous avons eu des centaines de clients qui les utilisent, et nous avons un vrai signal sur la valeur client. Je vais vous dire exactement où nous en sommes actuellement en production avec l'apprentissage automatique. Au cours des deux derniers jours, nous avons eu une fonctionnalité que notre propre équipe CS interne utilise : dans le passé, nous avions une fonctionnalité de réponses intelligentes qui exploitait vos salutations communes. Ce sont les choses qui n'ont pas d'informations, qui ne répondent pas à la question de l'utilisateur – elles ne font que lubrifier les rouages, ce qui rend rapide et rapide et facile à dire « Oh, merci. Je vous en prie. Y at-il autre chose que je puisse faire?" Et cette technologie est merveilleuse pour ce genre de chose. Les linguistes les appellent des expressions phatiques.
Au cours des derniers jours, nous en avons envoyé une version à notre équipe Intercom CS où ils voient ce texte grisé pré-rempli dans le composeur, mais il est pertinent pour la conversation spécifique. Donc, s'il a déjà dit "Bonjour, puis-je vous aider" et que l'utilisateur a dit "Oh oui, je veux de l'aide avec le produit d'articles", il suggérerait alors "Oh oui, laissez-moi chercher les articles produit pour vous. Il ne le recherchera pas encore pour vous, mais nous le ferons. Il y a trois ou quatre jours, on s'est dit : « D'accord, je vais expédier ça en interne. Nous ne savons pas si cela va devenir ennuyeux et si les gens vont devenir aveugles car ils le voient souvent et cela n'aide que pour un sous-ensemble », et nous sommes toujours très prudents à ce sujet. Mais jusqu'à présent, la réponse interne de notre équipe CS a été excellente. Et donc, nous avons l'intention de continuer à travailler là-dessus. Peut-être devrions-nous mettre en place un autre système qui limite la fréquence d'affichage. C'est une chose sur laquelle nous travaillons.
J'ai mentionné la pièce d'expansion plus tôt, et maintenant nous travaillons sur "Hé, pouvons-nous faire cela même sans la sténographie?" Pouvons-nous déterminer ce que vous êtes sur le point de taper ensuite en fonction de ce que les utilisateurs viennent de dire ? Et nous allons regarder dans votre base de connaissances, essayer de trouver un contexte pertinent, et le donner au modèle. Le modèle lui-même n'est pas assez bon pour faire cela. Il ne connaît pas votre entreprise, mais nous pouvons peut-être l'augmenter. Peut-être pouvons-nous utiliser une combinaison de texte d'apprentissage automatique plus traditionnel avec le modèle et obtenir quelque chose de bien. Nous avons des prototypes et nous y travaillons, mais nous ne les avons pas encore expédiés à nos clients, même sous une forme bêta, car nous évaluons encore si c'est assez bon pour être transformateur ou si cela devient ennuyeux et ennuyeux. Où ce seuil est n'est pas clair. Nous sommes un peu plus optimistes quant au style d'extension où vous devez l'inviter car l'utilisateur peut savoir quand le faire. Ils peuvent apprendre à l'interroger. Nous avons tous dû apprendre à utiliser Google, et nous nous attendons à ce que les utilisateurs s'améliorent également avec ces systèmes.
C'est à peu près où nous en sommes. Nous agissons rapidement et nous expédions les choses rapidement aux clients pour vraiment vérifier et obtenir une valeur réelle ici. Nous essayons d'être prudents pour éviter de tomber dans le piège du battage publicitaire. Nous croyons qu'il y a un énorme potentiel ici, mais il est trop facile de coller une page de destination et de dire : « Obtenez-le ici. Il répondra à tout. Et ce n'est pas bon. Les gens vont simplement devenir aveugles et s'éteindre.
"Tout le monde a vu ça et s'est dit, 'ChatGPT est vraiment bon. Si je pouvais obtenir une technologie comme celle-là pour m'aider avec mon support client, c'est énorme. Mais ça ne va pas le faire sur étagère. Il ne connaît pas votre entreprise "
Des : Je pense que vous portez atteinte à votre réputation si vous dites : « cette chose fait quelque chose », et ce n'est manifestement pas le cas, mais vous l'avez fait pour des clics ou autre chose. On dirait que le vrai produit que tout le monde attend dans ce nouvel espace est le robot destiné à l'utilisateur final qui répond correctement à la plupart des questions tout le temps. Des réflexions à ce sujet ? Des semaines, des mois, des jours ?
Fergal : Évidemment, c'est un domaine énorme pour tout le monde. Je ne sous-estimerais pas non plus le compositeur – une partie des questions reviendra toujours au compositeur. Et si nous pouvons réduire ce temps pour ceux-là, c'est énorme. Mais absolument, l'un des énormes prix dans ce domaine est de savoir si nous pouvons prendre l'expérience de compréhension conversationnelle que nous avons vue avec ChatGPT et la faire fonctionner pour votre entreprise individuelle tout en évitant les hallucinations ? Il y a beaucoup de gens qui enquêtent là-dessus. Nous enquêtons là aussi. Nous avons des prototypes intéressants et prometteurs, mais nous ne savons pas encore avec certitude si nous avons franchi ce seuil où les hallucinations sont suffisamment rares pour que cela en vaille la peine et que cela ait de la valeur. Nous commençons à voir certaines opinions se cristalliser à ce sujet en interne, mais nous ne sommes pas encore prêts à partager où nous en sommes.
Des : Totalement juste. Eh bien, je suppose que nous reviendrons dans six semaines environ.
Fergal : Ça a été une période très rapide. Écoutez, c'est un domaine très excitant dans lequel travailler. Les attentes des clients sont très élevées. Tout le monde a vu cela et se dit : "ChatGPT est vraiment bon. Si je pouvais obtenir une technologie comme celle-là pour m'aider avec mon support client, c'est énorme. Mais ça ne va pas le faire sur étagère. Il ne connaît pas votre entreprise. Vous ne pouvez pas vraiment l'affiner aujourd'hui. Même si vous pouviez l'ajuster à votre activité spécifique, cela ne le ferait probablement pas. Nous devons trouver des techniques intelligentes, et je pense que des entreprises comme Intercom sont bien placées pour essayer de le faire. Et oui, il existe de nombreux modèles technologiques et linguistiques intéressants. Je suis vraiment excité de voir toute l'innovation dans cet espace.
Dés : Cool. Merci beaucoup.
Fergal : Merci. Merci.
☞ Cliquez ici pour rejoindre la liste d'attente bêta de nos fonctionnalités d'IA ou recevoir des nouvelles sur l'IA d'Intercom.