L'effet GPT : une nouvelle ère de service client

Publié: 2023-03-10

Les percées récentes avec de grands modèles de langage ont dépassé toutes nos attentes. Nous avons réuni des experts du secteur pour une conversation sur GPT et sur la manière dont il façonnera l'avenir du service client.

On ne peut pas dire qu'il nous ait pris par surprise. Pendant des années, l'industrie a loué le potentiel de l'IA et de l'apprentissage automatique pour transformer radicalement notre façon de travailler, d'autant plus que les progrès de la puissance de calcul et du stockage des données ont permis de former des modèles de plus en plus grands. Mais nous ne nous attendions pas vraiment à la rapidité avec laquelle les récentes avancées du ChatGPT d'OpenAI ouvriraient de nouvelles possibilités.

Chez Intercom, nous avons toujours expédié pour apprendre. Ce n'est qu'en expédiant rapidement de nouvelles fonctionnalités que nous pourrons obtenir des commentaires appropriés, en tirer des leçons et les répéter encore et encore pour mieux servir nos clients. Et donc, naturellement, c'est ce que nous avons fait avec cette nouvelle technologie. Au cours des deux derniers mois, nous avons livré quelques fonctionnalités alimentées par l'IA à 160 clients. Et bien qu'il soit encore trop tôt pour dire comment ces grands modèles linguistiques (LLM) joueront dans nos vies, nous pensons que nous avons atteint un point d'inflexion crucial, en particulier en ce qui concerne le service client.

Et donc, la semaine dernière, nous avons organisé un webinaire pour approfondir un peu les cas d'utilisation commerciale de GPT. Cette vague d'innovation est-elle différente des vagues passées ? Cela transformera-t-il notre façon de travailler et la façon dont les entreprises interagissent avec les clients et les prospects ? Peut-il déclencher une nouvelle génération de startups ? Pour vous donner un peu plus d'informations, nous avons invité quelques gros bonnets de la scène startup à peser.

Dans l'épisode d'aujourd'hui, vous entendrez :

  • Ethan Kurzweil, membre du conseil d'administration d'Intercom et associé chez Bessemer Venture Partners
  • Fergal Reid, notre propre directeur de l'apprentissage automatique
  • Krystal Hu, VC et Startups Reporter chez Reuters
  • Talia Goldberg, associée chez Bessemer Venture Partners

Ils parleront de grands modèles de langage comme ChatGPT, de la manière dont les entreprises intègrent cette technologie et de la façon dont elle façonnera l'avenir de l'industrie du service client.

Vous manquez de temps ? Voici quelques points clés :

  • Nous commençons à voir les cas d'utilisation persistants des grands modèles de langage - il existe un grand potentiel pour augmenter le service client en raison de sa régularité et de l'utilisation du langage naturel.
  • Pour l'instant, on s'attend à ce que les grands modèles linguistiques augmentent les capacités humaines plutôt que de les remplacer, car ils peuvent aider à rendre les professionnels plus productifs et efficaces dans leur travail.
  • Bien qu'il soit encore trop tôt pour mesurer le succès de l'expérience bêta d'Intercom, l'adoption et l'utilisation des dernières fonctionnalités alimentées par l'IA ont été énormes et les premiers retours sont très prometteurs.
  • Les grands modèles de langage peuvent devenir très coûteux très rapidement. Pourtant, avec le temps, ils deviendront moins chers et plus omniprésents, permettant plus d'expérimentation et de découverte.
  • Bien qu'il y ait encore des problèmes avec les hallucinations, vous pouvez configurer et contraindre ces modèles pour les rendre plus fiables lorsque la situation nécessite un degré de confiance plus élevé.
  • Les modèles ne sont pas à taille unique. Il est probable qu'à l'avenir, les entreprises utiliseront un mélange sur mesure de différents modèles personnalisables qui répondent à différents problèmes commerciaux.

Si vous aimez notre discussion, consultez d'autres épisodes de notre podcast. Vous pouvez suivre sur Apple Podcasts, Spotify, YouTube ou récupérer le flux RSS dans le lecteur de votre choix. Ce qui suit est une transcription légèrement modifiée de l'épisode.


L'essor de ChatGPT

Krystal Hu : Merci beaucoup à tous ceux qui ont pris le temps de nous rejoindre. Je m'appelle Krystal Hu et je couvre les entreprises et les startups pour Reuters. Comme beaucoup d'entre vous le savent, l'IA et la vague de ChatGPT ont fait irruption sur la scène au cours des derniers mois, et une grande partie de mon travail consiste à comprendre la technologie et comment elle change différents aspects de la vie. Pour le sujet d'aujourd'hui, nous nous concentrerons sur la manière dont ChatGPT façonnera l'avenir du service client. Nous discuterons de ce que sont exactement ChatGPT et des grands modèles de langage, comment cette technologie sera utilisée, l'impact qu'elle aura sur les technologies existantes et futures, comment les startups intègrent cette technologie et comment de nouvelles entreprises sont créées.

Nous avons un excellent panel aujourd'hui avec nous. Deux incroyables investisseurs de Bessemer : Talia Goldberg et Ethan Kurzweil. Talia est basée à San Francisco, investit dans des entreprises Internet et de logiciels grand public et travaille avec des entreprises comme ServiceTitan et Discord. Ethan Kurzweil est également basé à San Francisco, et il dirige des investisseurs dans une variété de secteurs verticaux, y compris les plates-formes de développement, les nouvelles infrastructures de données, les applications grand public numériques et la cryptographie.

Et puis, nous aurons le directeur de l'apprentissage automatique chez Intercom, Fergal Reid, qui nous donnera un aperçu de la façon dont Intercom intègre cette technologie dans ses dernières offres, y compris quelques fonctionnalités d'assistant IA. J'ai hâte de choisir leurs cerveaux et d'entendre ce qu'ils voient à la fois sur le front des startups et des entreprises et les changements que GPT pourrait apporter. Tout au long du processus, si vous avez des questions, n'hésitez pas à poser votre question dans le chat, puis nous aurons environ 15 à 20 minutes à la fin de la conversation pour passer en revue les questions.

Je suppose que je vais commencer par vous, Fergal, parce que vous êtes le technologue dans la salle et que vous êtes en première ligne pour intégrer GPT dans les offres d'Intercom. Peut-être pouvez-vous commencer par nous donner un peu de contexte et expliquer ce qu'est GPT et ChatGPT, et comment vous est-il arrivé d'intégrer cette technologie ?

"Je ne vais pas coder les règles, et je ne vais pas dire spécifiquement, 'Apprenez à prédire X par rapport à Y'"

Fergal Reid : C'est une époque très excitante pour la technologie. Je vais supposer que beaucoup de gens ont probablement vu ChatGPT à ce stade parce qu'il vient de faire une si grosse vague. Mais du point de vue de la technologie, de ma vision étroite du monde, je suis chez Intercom depuis environ cinq ans et je dirige l'équipe d'apprentissage automatique. Et les choses d'apprentissage automatique que nous avons faites utilisent des algorithmes qui existent depuis un certain temps - en utilisant des algorithmes d'apprentissage supervisé, des algorithmes qui apprennent à distinguer les choses. Vous pouvez dire : « Hé, prédisons si quelqu'un va demander une chose ou une autre. Avec ces systèmes d'apprentissage automatique, vous leur donnez beaucoup de données d'entraînement : "Hé, ceci est un exemple si quelqu'un vous a posé une question, et ceci est un exemple si quelqu'un vous a posé une autre question."

Et ce qui est nouveau et différent avec cette dernière vague d'IA générative, c'est qu'au lieu de simplement apprendre à un modèle à prédire une chose ou une autre, vous dites : « Hé, modèle. Découvrez comment générer de nouvelles données de ce type. Apprenez à générer une image. Vous lui donnez du texte et il apprend à générer une image qui correspond à ce texte, ou, avec ChatGPT, vous lui parlez et lui donnez du texte, et il devient assez bon pour générer plus de texte en réponse à cela.

"Nous avons ce très gros modèle, nous lui posons des questions en anglais, lui disons de faire les choses en anglais, et il est assez bon pour faire ce que nous lui disons"

C'est juste une façon différente de faire de l'apprentissage automatique. Je ne vais pas coder les règles, et je ne vais pas dire spécifiquement : "Apprenez à prédire X par rapport à Y". Au lieu de cela, je vais prendre une très grande quantité de données de formation, créer un modèle très efficace pour essayer de prédire ces données de formation, puis, espérons-le, je pourrai lui faire faire des choses utiles en générant de nouveaux exemples.

Avec ChatGPT, vous lui demandez quelque chose en lui donnant un texte et en disant : "Générez ce qui vient ensuite". Et étonnamment, c'est assez utile. Vous pouvez dire "Hé, voici une conversation avec le support client, et ceci est le résumé de la conversation avec le support", puis la donner à ChatGPT, et il générera ce qui se passera ensuite ou ce qu'il s'attend à voir ensuite. Et peut-être, vous dites : « Ceci est le résumé », puis un résumé apparaît. Et c'est très utile. C'est une façon très générale de construire des fonctionnalités et des systèmes. Au lieu de coder un nouveau système d'apprentissage automatique pour chaque petite chose, nous avons ce très gros modèle, nous lui posons des questions en anglais, lui disons de faire les choses en anglais, et c'est assez bon pour faire ce que nous lui disons. Et donc, chez Intercom, nous avons essayé d'utiliser cela pour créer des fonctionnalités de produit.

Un changeur de jeu pour le service client

Krystal Hu : Je veux amener Talia et Ethan sur scène en tant qu'investisseurs prolifiques dans l'espace. Vous avez vu quelques vagues technologiques. En quoi celui-ci sur l'IA générative est-il différent et quels sont les domaines d'application qui vous passionnent ?

Talia Goldberg : Bien sûr, merci de m'avoir invitée. C'était un excellent aperçu de ce qu'est l'IA générative. C'est drôle, juste avant cette réunion, je regardais un article que nous avions publié sur notre blog l'été dernier, il y a peut-être huit ou neuf mois, et c'était quelques mois avant même le lancement de ChatGPT, mais nous commencions à voir beaucoup d'élan et raison d'être enthousiasmé par ce qui se passait avec les grands modèles de langage en particulier, et le potentiel de l'IA et de l'IA générative en tant que nouvelle vague d'intelligence artificielle vraiment puissante.

Et nous avions une prédiction : " Aujourd'hui, moins de 1 % du contenu en ligne est généré à l'aide de l'IA, et dans les 10 prochaines années, nous prévoyons qu'au moins 50 % seront générés ou augmentés par l'IA. » Et nous en débattions, et nous pensions que c'était une chose folle à dire, mais merde, nous avons sous-estimé la rapidité avec laquelle l'IA peut transformer une grande partie des informations que nous voyons. Je dirais que cela pourrait être 50% dans les deux prochaines années de nos interactions, contenus et médias en ligne. Je pense que les implications de cela sont vastes dans de nombreux travaux d'information et de connaissances, y compris le support client.

"Vous voyez tout de suite les cas d'utilisation collants où la technologie est mûre pour perturber, améliorer, augmenter et améliorer, et le support client est directement sur le fairway pour cela"

Krystal Hu : Ethan, vous travaillez avec Intercom depuis un certain temps. Est-ce le moment que vous pensez que le service client attendait ? Parce que j'ai l'impression que la technologie et les opportunités sont en or pour les applications de service client comme Intercom.

Ethan Kurzweil : Oui, j'ai l'impression que c'est peut-être l'application de pointe des grands modèles de langage et de ce qu'ils peuvent faire. Si vous prenez du recul et pensez aux changements technologiques et aux changements de plate-forme comme le moment du smartphone, le moment de l'iPhone, et des choses comme ça, ce qui se passe au début, c'est qu'il y a toute cette excitation et beaucoup de développeurs et de créateurs se précipitent dans un espace, et puis vous avez ce lavage où vous voyez quelles sont les applications de pointe où il colle en premier, et celles où il ne vous plonge pas un peu dans un creux de désillusion. Je pense que nous sommes probablement encore un peu tôt sur cette courbe, mais vous voyez tout de suite les cas d'utilisation collants où la technologie est mûre pour perturber, améliorer, augmenter et améliorer, et le support client est tout de suite sur le chemin pour cela.

Je travaille avec Intercom depuis maintenant près de huit ans et demi, et Intercom a toujours été à l'avant-garde de l'adoption de nouvelles technologies lorsqu'elles sont prêtes. Et je me souviens qu'il y a deux ou trois ans, les gens disaient : « Automatisation, automatisation, automatisation ». Et la direction produit d'Intercom a toujours dit : « Ce n'est pas encore assez bon. Nous pouvons le faire, nous pouvons le coller de manière à pouvoir cocher une case sur un formulaire de demande de fonctionnalité, mais cela ne conduira pas à un très bon flux de type humain. Intercom a toujours été fondé autour de cette idée de personnaliser les affaires sur Internet. Et si vous avez un bot qui ne semble pas personnel, c'est orthogonal à cela.

Le fait qu'Intercom l'utilise avec autant de succès dans son flux vous montre que la technologie est prête et que c'est l'une des nombreuses choses que nous allons voir impacter. Pas tout en même temps, mais avec le temps, nous verrons beaucoup plus d'impact en donnant à une machine la capacité de converser d'une manière humaine.

"Vous regardez la courbe et le taux d'amélioration, et ça va être encore mieux dans quelques mois, dans quelques trimestres et dans quelques années"

Talia Goldberg : Si je peux ajouter une chose, je pense que le support client est le domaine initial idéal pour que l'IA commence à avoir un impact. Et l'une des raisons à cela est qu'il utilise un langage naturel. Vous pouvez communiquer avec l'IA en anglais et elle répondra en anglais. Vous n'avez pas besoin de coder – cela génère des informations. Et c'est à cela que ressemblent le service client et l'assistance : générer des expériences exceptionnelles et humaines qui peuvent être personnalisées, résoudre les plaintes et s'améliorer au fil du temps. Ainsi, vous obtenez également cette excellente boucle de rétroaction en l'utilisant dans le support client.

Même s'il peut y avoir des défis et des choses qui sont difficiles sur les bords aujourd'hui, la technologie et le potentiel sont déjà vraiment formidables, comme l'a dit Ethan. Vous regardez la courbe et le taux d'amélioration, et ça va être encore mieux dans quelques mois, dans quelques trimestres et dans quelques années. C'est l'une des catégories qui nous passionne le plus, et nous pensons que chaque entreprise peut en profiter et doit y penser.

Krystal Hu : Fergal, c'est le bon moment pour vous de nous donner un aperçu du lancement récent de la fonctionnalité chez Intercom et de la manière dont vous y avez intégré ChatGPT.

Fergal Reid : Absolument. Et juste pour faire écho aux sentiments de Talia et Ethan ici, il y a tellement de structure dans le domaine, il y a tellement de choses qu'un agent de support client fait là où il fait la même chose qu'il a fait le dernier jour, ou peut-être un de leurs coéquipiers l'ont déjà fait, et il y a tellement de régularité et de structure qu'il semble vraiment mûr pour un système qui apprend et utilise l'IA pour rendre les gens plus rapides.

"Nous avons estimé que le meilleur endroit pour commencer était avec un humain dans la boucle. Quelqu'un est enveloppé dans la boîte de réception et nous voulons le rendre plus rapide, mais il est toujours en mesure de le vérifier et de l'approuver »

Lorsque ChatGPT a été lancé, en même temps, OpenAI a publié ce nouveau modèle à l'usage des développeurs, text-davinci-003. Nous avons une relation avec OpenAI depuis longtemps, et nous avons senti, quand nous avons regardé ce modèle, qu'il franchissait vraiment un seuil d'utilité et que nous pouvions construire avec lui. Et donc, nous avons fait un premier benchmarking. Les gens passent beaucoup de temps dans la boîte de réception, et une chose qu'ils doivent faire souvent est d'écrire des résumés de la conversation qu'ils viennent de regarder avant de la transmettre. Cette technologie semblait être vraiment géniale pour faire des résumés conversationnels, et nous nous sommes dit : « Pouvons-nous créer une fonctionnalité qui fait cela et la diffuser à nos clients bêta ? » Intercom a ce principe de "navire pour apprendre". Nous croyons en la livraison extrêmement rapide de nouvelles fonctionnalités aux clients, afin que nous puissions savoir si cela a résolu un problème ou s'il s'agit plutôt d'une curiosité.

Et donc, en gros, début décembre, nous avons lancé un projet pour voir si nous pouvions expédier rapidement certaines fonctionnalités qui fonctionneraient avec les représentants du support client dans la boîte de réception réelle pour les rendre plus rapides. L'un était le résumé, avec d'autres fonctionnalités pour les aider à composer du texte plus rapidement. Et nous avons vraiment pensé que c'était le bon endroit pour commencer avec cette technologie, car l'IA générative a un inconvénient. Ce n'est pas toujours aussi précis qu'on pourrait le penser. Il est facile de regarder ChatGPT, de lui poser une question, il vous donne une réponse et vous pensez : "C'est incroyable". Et puis vous le lisez avec un peu plus de détails, et en fait, parfois, il se trompe. Nous avons estimé que le meilleur endroit pour commencer était avec un humain dans la boucle. Quelqu'un est enveloppé dans la boîte de réception et nous voulons l'accélérer, mais il est toujours en mesure de le vérifier et de l'approuver. C'était un excellent point de départ.

Maintenant, je vois des gens demander dans les commentaires : "Hé, qu'en est-il des bots et des choses qui peuvent répondre elles-mêmes aux questions ?" Nous pensons que cela arrive et que cela arrivera peut-être bientôt, mais nous continuons à l'explorer. Le gros problème pour nous est la précision. Nous pensons qu'il est temps maintenant d'avoir un humain dans la boucle où cela rend le représentant du support plus rapide. Et probablement, bientôt, il y a des choses qui descendent à l'étape suivante. C'est un domaine très intéressant.

Ethan Kurzweil: Pour riffer là-dessus, nous recevons des questions prospectives intéressantes telles que: "Est-ce que cela rendra mes jours comptés en tant que rédacteur?" Je ne pense pas du tout. Là où cette technologie est et est susceptible de rester pendant un certain temps, c'est dans l'augmentation des capacités humaines et de l'intelligence humaine, vous rendant plus productif en tant que rédacteur mais ne vous remplaçant pas nécessairement parce que, tout d'abord, la technologie n'est pas encore là, et deuxièmement, la barre pour ce qu'est un support client incroyable ou toute communication avec une entreprise va monter et monter à mesure que nous avons ces ressources. Bien que la technologie puisse être capable de gérer elle-même certains cas d'utilisation de rédacteurs et de réponses de support, la barre pour ce qui va être une très bonne copie et un très bon support et ainsi de suite et ainsi de suite va augmenter à mesure que nous aurons accès à ces technologies . L'état idéal est que vous aurez accès à ces technologies pour être plus productif, mais cela ne vous remplacera pas de sitôt.

Talia Goldberg : Oui. J'aime la façon dont Wyatt vient de dire que c'est un multiplicateur de capacité. Nous parlons beaucoup en interne de l'exemple de Copilot, qui est comme la saisie semi-automatique pour le codage, et cela rend déjà les ingénieurs beaucoup plus efficaces. Cela ne remplace pas du tout les ingénieurs ou l'ingénierie, mais cela peut les compléter. Un exemple très basique de cela pourrait être la calculatrice. À l'époque, nous avions l'habitude de faire des calculs à la main. Maintenant, nous utilisons des calculatrices, mais les mathématiques sont toujours très importantes - nous devons tous les apprendre, et les mathématiciens sont très importants dans ce monde. On peut dire que votre rôle peut devenir encore plus important car, à mesure que le coût de création de contenu diminue et qu'il y a un flot de contenus et d'informations différents, la création de contenu et d'informations qui peuvent se démarquer et s'élever au-dessus va être encore plus importante. prime au cours des prochaines années.

L'expérience d'Intercom avec GPT

Krystal Hu : Cela fait quelques semaines qu'Intercom a lancé ses fonctionnalités assistées par l'IA. Quels sont les premiers retours que vous avez vus ? Comment mesurez-vous le succès de l'intégration de cette technologie ?

"Nous constatons beaucoup d'adoption, beaucoup d'enthousiasme et beaucoup d'utilisation"

Fergal Reid : Je serai très transparent à ce sujet – je n'ai pas encore de réponse entièrement satisfaisante à cette question. Ce que je peux vous dire, c'est que nous sommes maintenant en ligne, nous avons des milliers de clients qui l'utilisent régulièrement - nous avons eu beaucoup d'adoption. Nous essaierons probablement de mesurer si cela a réellement rendu les gens plus productifs, car disons, pour notre propre équipe CS, nous pouvons collecter la télémétrie sur, "Êtes-vous plus rapide si vous utilisez ces fonctionnalités?" et mettre en place une forme d'expérience contrôlée pour cela. Nous aimons toujours essayer d'obtenir une certaine forme de données réelles à ce sujet à un moment donné, mais nous n'en sommes pas encore là. Nous aurons probablement des chiffres à ce sujet ou plus de compréhension, du moins à l'interne, dans un mois ou deux, j'imagine.

Ce que je peux vous dire pour le moment, c'est que nous constatons beaucoup d'adoption, beaucoup d'enthousiasme et beaucoup d'utilisation. Il existe certainement des fonctionnalités telles que la synthèse qui, selon les clients, leur font gagner un temps considérable. Certains clients nous ont dit des choses comme : "Hé, pour certaines conversations, la rédaction du résumé d'un transfert peut prendre autant de temps qu'il en faut pour résoudre le problème de l'utilisateur final". Et donc, nous nous sentons vraiment bien à ce sujet.

Dans certaines de nos autres fonctionnalités, vous écrivez un raccourci, un peu comme GitHub Copilot. Nous nous sommes inspirés de Copilot, et dans Copilot, si vous êtes un programmeur, vous pouvez écrire un commentaire ou un raccourci, puis il remplira le code. L'une de nos fonctionnalités est "développer", où vous écrivez un raccourci, et cela le transforme en un message d'assistance plus long. Parfois, cela fonctionne et fait gagner du temps aux gens, mais nous n'avons pas encore de données à ce sujet. Ce que nous avons en direct pour le moment n'est qu'une version de génération 1 de cela. Et nous avons des prototypes d'une version de génération 2. Pour le moment, vous écrivez la sténographie, et le grand modèle de langage l'étend. Ce que nous essayons de faire à la place, c'est de dire : « Hé, reprenons la dernière fois que vous avez répondu à une question comme celle-là. Incorporons des macros pertinentes pour cela. » Et nous avons des prototypes internes qui fonctionnent plutôt bien. Nous continuons d'innover et de faire des choses qui vont vraiment faire avancer les choses, mais nous n'avons pas encore de mesures. Bientôt.

"J'ai un graphique dans Tableau de nos dépenses quotidiennes avec OpenAI que nous surveillons nerveusement"

Krystal Hu : Pour enchaîner là-dessus, comment en mesurez-vous le coût ? Si je comprends bien, vous envoyez probablement des demandes à OpenAI et ils facturent, je suppose, deux cents par mille caractères ou quelque chose comme ça. Et je suppose qu'à mesure que votre adoption augmente, cette facture s'accumule également. Avez-vous des enseignements ou des observations à partager sur l'intégration de cette technologie ?

Fergal Reid : J'ai un graphique dans Tableau de nos dépenses quotidiennes avec OpenAI que nous surveillons nerveusement. C'est certainement une considération. J'ai mentionné la fonction de résumé, et nous l'avons construite d'une manière très humaine dans la boucle où vous devez demander le résumé avant de remettre la question. Et une chose que nos clients nous disent est : « Hé, pourquoi dois-je demander ce résumé ? Veuillez simplement conserver un résumé à tout moment dans la barre latérale afin que je n'aie jamais à le demander. Et cela coûterait très cher parce que si nous devions payer deux centimes à chaque fois que quelqu'un disait quelque chose de nouveau dans la conversation et que le résumé changeait, cela deviendrait extrêmement cher. Nous devons absolument prendre en considération le coût d'une manière que nous ne faisons pas avec les modèles d'apprentissage automatique plus traditionnels.

Cela dit, OpenAI vient d'annoncer son API ChatGPT, et je pense que cela a surpris beaucoup de gens car il était 10 fois moins cher que les modèles similaires précédents de cette série. Il est possible que le coût baisse assez rapidement et que ces fonctionnalités soient largement adoptées. Qu'en est-il des autres startups ou entreprises qui construisent dans ce domaine ? Le conseil que nous donnerions à Intercom est d'essayer d'entrer rapidement sur le marché car il y a ici une réelle valeur pour vos clients que vous pouvez créer et débloquer. Et le coût diminuera probablement soit parce que les modèles deviendront moins chers à mesure que des fournisseurs comme OpenAI trouveront comment les rendre plus efficaces, soit parce que vous découvrirez des moyens plus efficaces de les utiliser. Vous découvrirez des façons de dire : "Hé, je peux utiliser un modèle génératif moins cher pour la première partie de la conversation, puis, lorsque j'aurai cette tâche beaucoup plus difficile qui nécessite plus de précision, j'utiliserai le plus cher. .” Ethan et Talia ont probablement une vision beaucoup plus large de cela que moi, et j'aimerais entendre leurs pensées.

"Vous n'êtes jamais sûr de ce que les développeurs vont faire avec une nouvelle technologie tant qu'ils ne l'ont pas - et qu'ils ne paient pas deux centimes à chaque fois qu'ils font un appel API"

Ethan Kurzweil : Eh bien, c'est un bon exemple de ce que vous voyez parfois avec ces technologies de pointe. Au début, les cas d'utilisation à haute valeur les obtiennent, et vous décrivez l'actualisation de ce principe. Chez Intercom, c'est la fonction de résumé demandée aujourd'hui. Mais avec le temps, la technologie sera beaucoup plus omniprésente et moins chère. Et c'est alors qu'il peut proliférer dans davantage de cas d'utilisation où le coût marginal de le faire est aujourd'hui prohibitif, et cela permet aux développeurs de découvrir d'autres applications de grands modèles de langage dans ce type d'IA où nous ne prévoyons pas vraiment.

Chez Bessemer, Talia et moi essayons de proposer des feuilles de route indiquant où nous pensons que la technologie ira, mais en tant qu'investisseur orienté développeur, l'une des principales primitives auxquelles je pense toujours est que vous ne savez jamais ce que les développeurs vont faire avec une nouvelle technologie, une nouvelle plate-forme, un nouvel accès à quelque chose jusqu'à ce qu'ils l'aient - et qu'ils l'aient là où ils ne paient pas deux centimes à chaque fois qu'ils font un appel API - et qu'ils puissent riffer et faire des choses qui semblent absurdes au début.

Je suis ravi que la technologie en arrive au point où il n'y a qu'une tonne d'expérimentation. Je suis sûr que dans la feuille de route des produits d'Intercom, pas aujourd'hui, mais dans un an, il y aura des choses que nous n'avions pas prévues mais qui ont une valeur très élevée pour les clients. Et il y aura des startups qui viennent de sortir parce qu'elles ont trouvé une façon particulière d'utiliser le texte génératif, et cela a créé une expérience utilisateur vraiment géniale pour quelqu'un.

Talia Goldberg : Il y a un exemple amusant qui, je pense, peut souligner une partie du potentiel humain pour augmenter les expériences pertinentes à prendre en charge. Si je parle à, disons, certains membres de l'équipe d'Intercom avec de forts accents irlandais, et ils pensent probablement que j'ai un accent occidental fou, il est parfois difficile pour nous de nous comprendre quand nous sommes super excités et parler très vite. Cela ressemble à une langue différente même si tout le monde parle anglais. L'IA peut, en temps réel, modifier un peu les accents d'une personne pour la rendre plus compréhensible dans les deux sens. Donc, si j'ai un accent irlandais ou un accent britannique, cela se traduira par un accent californien, et cela peut vraiment améliorer l'expérience d'une certaine manière en abaissant les barrières de communication.

Ethan Kurzweil : C'est un bon exemple parce que la technologie s'immisce dans la communication directe mais la rend plus humaine, ce qui ressemble à un oxymore, mais si elle est bien déployée, elle pourrait vous faire sentir plus connecté dans un contexte de messagerie ou de communication.

Talia Goldberg : C'est la promesse d'Internet : nous rassembler tous et faire tomber les barrières. Je suis vraiment un grand croyant dans le potentiel de suralimenter cela.

Le quotient de confiance

Krystal Hu : Je pense que beaucoup de gens se demandent comment vous vous assurez que tout sera correct en termes de flux d'informations et que ce sera exact. L'enjeu est différent selon les cas d'utilisation, mais, en général, vous ne souhaitez pas fournir d'informations erronées à vos clients. Comment s'en assurer ?

"Ce n'est pas que vous, en tant qu'être humain, ne pouvez jamais voir ces choses parce que ce serait impossible - c'est que vous êtes capable de filtrer de manière appropriée. C'est ainsi que je pense aux grands modèles de langage »

Talia Goldberg : Peut-être juste un commentaire, puis je pense que je laisserai Fergal répondre plus spécifiquement à propos d'Intercom. Les modèles sont formés sur d'énormes quantités de données - plusieurs milliards et milliards de points de données et d'informations. Et donc, peu importe à quel point vous essayez de tromper les données ou de mettre de fausses données, c'est toujours une si petite partie des données globales. C'est une chose à garder à l'esprit lorsque vous réfléchissez à la façon dont ces modèles sont créés.

L'autre chose est les entrées de données. Je sais que l'on se demande s'il est formé sur des données incorrectes, et ne vous méprenez pas, il y a certainement des problèmes avec les hallucinations et d'autres domaines, donc il y a beaucoup à améliorer. Mais dans votre vie, ce n'est pas que vous vous promenez et que vous ne voyez pas des choses qui pourraient être fausses ou biaisées ou même de la désinformation. Vous rencontrez cela, mais vous utilisez votre jugement et votre esprit, et il y a beaucoup d'autres bonnes données. Et donc, ce n'est pas que vous, en tant qu'être humain, ne pouvez jamais voir ces choses parce que ce serait impossible - c'est que vous êtes capable de filtrer de manière appropriée. C'est ainsi que je pense aux grands modèles de langage. Dans certains cas, il y aura des données et des informations qui ne correspondent pas à ce que vous voudriez dans l'ensemble de formation, mais la capacité des modèles de langage à les filtrer et à obtenir la bonne réponse devrait s'améliorer au fil du temps.

« Cela pourrait être l'un des paramètres : 'Quel degré de confiance avez-vous dans cette réponse ?' Si ce n'est pas assez bon, ne le donnez pas »

Ethan Kurzweil : Il y a des questions intéressantes à la fois sur la confidentialité et l'exactitude des données. L'autre chose à garder à l'esprit sur la question de l'exactitude des données avant d'en venir à la partie sur la confidentialité est qu'à l'avenir, et dans certains grands modèles de langage, vous pourrez en fait définir un quotient d'exactitude. C'est un peu comme lorsqu'une IA était programmée pour gagner Jeopardy - elle avait un intervalle de confiance indiquant qu'elle connaissait la réponse à une question avec une confiance de 90 % ou de 60 %. Et dans ce contexte, où vous perdez juste quelques points avec une mauvaise réponse, ils fixent l'intervalle assez bas à 40% ou quelque chose comme ça. Si vous êtes sûr à 40 % ou plus, tant pis, essayez de répondre à la question.

Il peut y avoir un contexte où vous voulez une précision au niveau humain, vous la définissez là, et souvent, lorsque l'IA ne peut pas atteindre le 99 centile, elle passe à un humain ou quelque chose comme ça. Il peut y avoir un certain contexte même dans l'armée, même dans les industries hautement réglementées, où vous avez plus de tolérance pour une supposition assistée par l'IA. Et cela pourrait être l'un des paramètres : "Quel degré de confiance avez-vous dans cette réponse ?" Si ce n'est pas assez bon, ne le donnez pas.

Fergal Reid : Juste pour en parler, Ethan, c'est certainement une forte conviction que nous avons en interne chez Intercom, à savoir qu'il est fort probable qu'il y aura une variété de tolérances ici. Il y aura des clients avec une tolérance assez élevée pour, « Donnez-moi la suggestion ; ce n'est pas grave si la suggestion est parfois fausse. Et il y aura d'autres clients avec une très faible tolérance. Nous prévoyons que nous aurons besoin d'avoir un certain degré de configuration autour de cela.

« Nous avons cette nouvelle technologie qui peut faire de bien meilleures prédictions et faire les choses beaucoup plus rapidement. Comment pouvons-nous prendre cela et le rendre suffisamment fiable, ou au moins permettre aux clients de choisir ? »

Juste pour plonger dans les mauvaises herbes avec certaines des choses que nous envisageons à l'avenir, disons que vous avez quelque chose qui essaie de consommer un article et de répondre à une question sur ce contenu. Par exemple, vous le contraignez à dire : "Vous n'êtes autorisé à répondre qu'avec une citation exacte de ceci." Et cela peut mettre cette citation en contexte, mais la citation doit être là. C'est une façon conservatrice d'utiliser ces nouveaux grands modèles de langage pour mieux comprendre votre requête et récupérer les informations, mais en limitant ce qu'ils peuvent réellement dire. Un autre exemple est que vous prenez un modèle génératif et que vous lui permettez d'être génératif sous le capot, mais il ne peut interagir avec un utilisateur final que par le biais d'une série prédéfinie d'actions ou de choses qu'il peut dire.

Il existe de nombreuses techniques pour prendre le moteur puissant et essayer de le rendre plus sûr, plus fiable et plus contraint. Et je pense que vous allez voir beaucoup de gens travailler avec cette technique. Nous avons cette nouvelle technologie qui peut faire de bien meilleures prédictions et faire les choses beaucoup plus rapidement. Comment pouvons-nous prendre cela et le rendre suffisamment fiable, ou au moins permettre aux clients de choisir ? Je pense que vous allez voir beaucoup de mouvement dans cet espace au cours des deux prochains mois.

Personnalisation de masse dans tous les secteurs

Krystal Hu : Sur cette note, Ethan, Talia, outre le service client, y a-t-il d'autres applications que vous voyez dans cet espace et qui vous intéressent particulièrement ?

Ethan Kurzweil : Je peux commencer. En regardant certaines applications grand public, le jeu est celui qui nous passionne. Si vous pensez à ce qui rend les jeux amusants, souvent, c'est le taux de rafraîchissement du nouveau contenu, et cela nécessite constamment de trouver des idées créatives. Nous commençons à voir des gens penser : « Et si chaque expérience de chaque joueur pouvait être nouvelle ? You couldn't have a personal copywriter writing that much content for each person, but an AI could do it. And it could get down to a level where each decision you make generates a new experience based on whatever temporal inputs you want to give the system.

“We went from handcrafted goods to mass-produced goods to mass personalization in a way we've probably never seen before”

Media applications as well. Earlier in my career, I used to work at the Wall Street Journal , and the parent company of the Wall Street Journal was Dow Jones. They had a sister news department called Dow Jones Newswires , which was about getting financial news mainly to traders and folks that needed to act very quickly on that information as fast as possible through terminals and things like that. I think about what an AI could do to augment news or get news to the end user more quickly. Again, I don't think it's replacing journalists at all, I think it's augmenting the amount of information and the targeting we can provide to folks much more quickly.

I think about entertainment use cases. This promise of personalized television and premium content services has always been out there, but when you get to the long tail of internet content and user-generated content, it tends to be pretty low-quality. Could you have a high-quality, personalized content delivery service? I think AI could impact that equation in the future.

Talia Goldberg: I love the concept of personalization and everyone having their own experience. We went from handcrafted goods to mass-produced goods to mass personalization in a way we've probably never seen before. This is a totally new experience for everyone, which is super cool. I'll share one of the areas that I think is going to be wildly impactful and really promising, which is in life sciences and biotech.

“The AI is seeing something that we, as humans, have never before been able to see”

Applying AI to drug discovery and development using huge amounts of data to look at molecules and protein structures and genomic data can be really transformative. I read this study that I think was in Nature a month ago, and it described how some researchers gave an AI a bunch of images of a human retina, and the AI, with 90% accuracy, said which retina belonged to either a male or a female. That seems very basic – who cares? But what's really crazy about that is that no researcher, scientist, or AI expert has ever been able to find any sign of a retina correlating to gender of any form. The AI is seeing something that we, as humans, have never before been able to see.

You think about that, and then you apply that to cancer and different cells and otherwise, and the potential is just massive and really exciting. And we're already seeing a lot of applications. AI's going to transform a whole bunch of things – health, software, business applications, logistics, consumer… We could make a long list, but there are a ton of reasons to be super optimistic.

Mix and match

Krystal Hu: When I talk to startups, when they're incorporating this kind of technology into their offerings, one choice they have to make is which model they work with. Do they only work with one type of model, or do they diversify their vendors to work with other companies besides OpenAI? I'm sure, Fergal, you've spent some time thinking about that. What was the experience like at Intercom?

Fergal Reid: With new technology, being right in the forefront, our head tends to go first to customer value. We're happy to use the most expensive or newest model to try and figure out, “Okay, can we really build a transformative experience for a customer with this that is a core part of the workflow and makes something valuable for them?” And once we do that, we're like, “Okay, now, how can we make it cost-effective?” And we're probably going to end up with a large mix of different models from, say, OpenAI, and we've also looked at other vendors like Anthropic, which are doing some really interesting work in this space too.

“It's highly likely that everyone's going to end up running a bespoke mix of many different models. It's going to get complex pretty fast”

It's an exploding space with many different people training large language models, and I think you'll have different large language models that are better and worse and have different trade-offs in terms of cost and latency and performance. Performance won't be one-size-fits-all. Some models are better at dealing with hallucinations, some are better at generating creative content, and I think we're already seeing that.

Our focus is to get whatever models we can, try them out, think if we can use these to build transformative value, get it live with our customers, and then figure out how to optimize that. Once we know it's delivering value, let's optimize it in terms of price and cost and work. It's highly likely that everyone's going to end up running a bespoke mix of many different models. You could have three different models in one customer interaction. So yeah, it's going to get complex pretty fast.

“There'll probably be a new set of metrics that everyone coalesces around that measure the effectiveness of your AI and your particular business problem”

Ethan Kurzweil: I think that's an interesting point that actually ties the question from before: how do you measure the success of this? Because I think lots of companies will try a model or many, and the question will be, “All right, which is best?” And that's such an oversimplification because you have to figure out what you are trying to achieve. Are you trying to achieve engagement with users? Are you trying to achieve a quick resolution?

I think there'll probably be a sort of metricization of this where people come to a standard, like the way Google Search created a new industry, AdWords, and the way we measure click-through rates and conversion rates and things like that. There'll probably be a new set of metrics that everyone coalesces around that measure the effectiveness of your AI and your particular business problem.

Fergal Reid: Yeah, even before these more recent language models, we've had bots that process natural language using pretty big neural networks, although not as big. And whenever we would do something like upgrade our bots, we would conduct a large-scale A/B test framed in terms of end-user metrics such as self-serve rate. Then, we would find edge cases for particular customers or domains where it performed less well, really dig into those, and make sure nothing was broken. I think there's probably a well-understood playbook, like Ethan's referring to, of metrics for given domains. A lot of the same things will apply to this new type of technology.

Questions et réponses

Krystal Hu: I'd love to get to the Q&A. I think we were able to address some of the questions during our discussions, but there are a bunch about the potential roadmaps from, I assume, Intercom's customers or companies working with Intercom who want to know what could be the next AI-aided feature that may come out, both in the short-term and long-term, and also how that will affect the pricing strategy.

Fergal Reid: Cool. Do you want to call out one particular question?

Krystal Hu: I think there was a question about your roadmap for the features for the next six months versus 12 to 18 months, and then the other person asked about the pricing strategy.

Fergal Reid: We have some things coming up that unfortunately, I can't talk about at the moment. I would say that six months is a really long time in this space. I expect you'll see a lot of movement in this space over the next two or three months. We will continue to sweat and invest in these features in our Inbox to make support reps more efficient. I've already talked about how we've got a Generation 1 version of features here at the moment, with summarization and expansion features to help edit a text, and we're definitely working on Generation 2 versions of those features.

We've also met two other exciting features in this space that we're really excited about, but unfortunately, I can't share any details at the moment – it's just a little bit too early to announce and launch those things. I can promise you're going to see a lot of action and excitement from us, and I'm sure from other companies in this space as well, over the next six months.

“Right now, there's a bit of a context limit for each interaction with an AI in a large language model, but there's a lot of exciting research pushing the boundaries”

Krystal Hu: Talia and Ethan, do you have any expectations or hopes on how fast the space could move?

Talia Goldberg: Well, it's moving a lot faster than we even anticipated. The space is moving really quickly in part because there are a whole bunch of technological advances happening at the same time as the hardware that these models are trained on gets better and improves at a Moore's Law rate, and there are new architectures and ways of scaling on that hardware. We're getting better and better at creating new experiences and models.

I don't have an exact prediction of how quickly we'll see different things, but one of the biggest areas that we're watching closely and expect to see a lot of advances in over the next six to 12 months is around personalization and being able to create far more personalized experiences. Right now, there's a bit of a context limit for each interaction with an AI in a large language model, but there's a lot of exciting research pushing the boundaries of those context windows, coming up with new frameworks to create far more personalized experiences and remember each person, each user, each customer, and tons of data points about that person to create a better experience.

“I would encourage everyone that's building new products to ride the ups and the downs”

Ethan Kurzweil: I completely agree with Fergal and Talia. We're going to see predictable and unpredictable applications of this over the next six months. There'll be some unsuccessful ones too, and then the narrative will quickly shift to, “Oh, that didn't do everything we thought it was going to do as quickly as we thought.” Right now, we're into the peak of momentum and euphoria and, dare I say, a little hype in the space. But over time, it'll become as big a deal as we thought.

I would encourage everyone that's building new products to ride the ups and the downs. Don't ride the up as high as it may be feeling like you should right now, but when the narrative changes a little bit, because it will – all new technologies have that “Oh, that wasn't as impactful as quickly as we thought” moment – I would encourage everyone to keep building through that as well.

Krystal Hu: Yeah, I'll definitely take that from you as a crypto investor.

Ethan Kurzweil: It's the same thing. Right now, there's clearly a trough of disillusionment for crypto. And good builders are figuring out, “Okay, what of this technology is applicable? What makes sense?” And we'll see those things come to market over the next couple of years.

Krystal Hu: One common question I saw in the Q&A is: how will this impact human jobs like human agent jobs? I'm curious to hear your thoughts on this specific case.

Ethan Kurzweil: Ever since the advent of the computer, there's been this prediction that it would be a massive replacement for human work at all levels. It does change the nature of work, and this will certainly change in some ways, but it's not going to be a wholesale replacement for humans in any broad way.

“Guess what? Every year, we need way more engineers. It's like Jevon's Paradox. The more that AI is available and the cost goes down, the more demand there is”

Just as Talia alluded to the example of Copilot and people, I've read many articles saying this was going to put all developers out of business over the next two to three years, and that's complete BS. Everyone knows that's not true. But it may allow for more productivity and for the cycle time on software to speed up. It may allow for different skills to be more important. I think it just makes us more productive. It's not that it won't have an impact and won't shift the nature of work in some ways. I don't mean to minimize that because that's very real. But looking at the whole, you'll see we come out ahead.

Talia Goldberg: At least until we reach the singularity, I'm pretty convinced of the need for more and more engineers. You could have gone back 10 years and been like, “Ah, there are all these cool developer tools now that are coming out and making it way easier to integrate things,” or, “Oh gosh, there are these self-serve products like Zapier that make it easy for non-technical people to connect products and integrate things.” Et devine quoi? Every year, we need way more engineers. There's a shortage. It's like Jevon's Paradox. The more that AI is available and the cost goes down, the more demand there is. And I think, in a lot of areas, that paradigm will hold true. But as Ethan said, the exact skills and the way it looks may shift.

Krystal Hu: Yeah, that makes a lot of sense. I saw some interesting observations and questions about whether you should tell people that they are talking to an AI versus a real person. It's an interesting question because it presumes we wouldn't be able to tell.

Ethan Kurzweil: It's a good existential question. If you're talking to a person assisted by an AI, who are you talking to, and what disclosure do you have to make in that case? I don't have any answers to these questions, but they're great ones for us to debate.

Talia Goldberg: I find that AI can sometimes generate responses that are so detailed and so good that there's just no way that a human did it anyway. It's like the reverse of the Turing test.

Krystal Hu : Une autre question sur la fonctionnalité de sécurité. Je pense que nous avons également abordé ce sujet plus tôt, mais il y a une question spécifique : « Quelle est l'importance de l'intégration verticale de la fonctionnalité de sécurité avec le fournisseur de modèles ? Par exemple, dans quelle mesure est-il important d'utiliser l'API de modération d'OpenAI avec la sortie du modèle ChatGPT par rapport au mix and match avec l'API Perspective de Jigsaw ? » Fergal, vous avez peut-être des idées ou des expériences à partager à ce sujet.

Fergal Reid : Oui, je ne connais pas l'API Perspective de Jigsaw, donc je ne le connais pas précisément. Tous les gens d'OpenAI et Tropic et tous ceux qui forment de grands modèles de langage se soucient beaucoup de les rendre utilisables, sûrs et alignés, et ils se soucient beaucoup d'éviter les hallucinations. Et ils vont continuer à travailler dans ces domaines pour permettre à des entreprises comme Intercom de les déployer plus facilement de manière fiable. Je ne suis pas convaincu qu'il faille intégrer cela verticalement. Je ne sais pas si Intercom doit s'occuper de former ses propres grands modèles de langage pour que nous puissions nous attaquer à la productisation et les rendre suffisamment fiables. Je pense que nous allons voir beaucoup de mouvement dans cet espace de toute façon.

Ce type d'IA générative donne beaucoup de liberté à l'utilisateur pour essayer de comprendre comment déployer le modèle. Il y a ce domaine émergent de l'ingénierie rapide, et mon équipe fait beaucoup de cela, où ils éditent des invites et essaient de comprendre, "D'accord, comment puis-je demander au modèle ce que je veux de la bonne manière pour l'obtenir donne-moi le résultat que je recherche ? » Cela va s'améliorer, au moins pendant un certain temps, cela va devenir plus puissant, et les modèles vont devenir plus faciles à contrôler.

Je pense que nous allons pouvoir voir des entreprises dans la position d'Intercom générer beaucoup de valeur et trouver de nombreuses applications et conceptions. Nous apprenons encore à concevoir des produits autour de cette nouvelle technologie. Il y a tellement de degrés de liberté pour les personnes dans notre position d'utiliser cela.

« Il y a toujours cette tension : vous contentez-vous de vous greffer sur la chose générale ? Dans quelle mesure le modèle général s'améliore-t-il par rapport à un réglage fin ? »

Krystal Hu : Il y avait aussi des questions sur Intercom construisant son propre modèle. Comme vous l'avez mentionné plus tôt, peut-être y aura-t-il des opportunités de faire un mélange du modèle qui fonctionne le mieux pour vos cas d'utilisation tout en créant une API ou quelque chose comme ça ?

Fergal Reid : Oui, avec l'échelle à laquelle ces modèles sont actuellement formés, il ne semble pas logique sur le plan économique que chaque entreprise de la taille d'Intercom forme la sienne. Mais encore une fois, il y a un spectre ici. Nous allons développer une expertise dans la conception autour d'eux et savoir quoi demander au modèle. Et nous allons probablement voir émerger des fonctionnalités autour d'entreprises telles que les modèles de réglage fin d'Intercom. Beaucoup de ces nouveaux modèles sont formés avec un apprentissage par renforcement avec rétroaction humaine. Le coût de cette opération diminuera probablement avec le temps et nous pourrons les personnaliser davantage en fonction de nos cas d'utilisation spécifiques.

Il y a toujours cette tension : vous contentez-vous de vous greffer sur la chose générale ? Dans quelle mesure le modèle général s'améliore-t-il par rapport à un réglage fin et à des actions spécifiques ? Nous devrons voir comment cet espace se déroule, mais je pense qu'il y aura beaucoup de degrés de liberté pour les entreprises pour prendre ces modèles et les personnaliser et les produire pour leur région. Nous sommes aux premiers jours de la productisation de cette technologie. Cela va beaucoup changer, et il va devenir beaucoup plus facile d'établir des priorités.

Krystal Hu : Nous approchons presque de la fin de notre merveilleuse conversation, mais nous pouvons répondre à deux autres questions. L'un concerne la manière dont les entreprises adoptent et extraient la valeur de ChatGPT. Vous avez vu des entreprises commencer à intégrer cela dans leurs offres, et d'un autre côté, je pense que les entreprises, en particulier les banques hautement réglementées, s'interrogeaient sur les problèmes de service d'information et de confidentialité et interdisaient à leurs employés de jouer sur les ordinateurs portables de l'entreprise. Je suis curieux d'entendre les réflexions de Talia et Ethan sur cette question.

Talia Goldberg : Dans l'ensemble de notre portefeuille, de nombreux éditeurs de logiciels qui n'appartiennent peut-être même pas à des catégories comme Intercom, qui sont vraiment à l'avant-garde, se disent : « Hé, en quoi est-ce important pour mon entreprise et quelles sont les façons dont je pourrait intégrer certains de ces modèles ou API ChatGPT dans mon produit ? » Les tâches très répétitives peuvent être vraiment formidables pour une IA pour automatiser ou rationaliser. L'une de nos sociétés reçoit beaucoup d'informations comptables de ses clients, et elle doit rapprocher et signaler s'il y a une erreur ou quelque chose qui ne va pas. Et ils ont eu ces systèmes basés sur des règles dans le passé, mais vous pouvez appliquer l'IA et avoir une bien meilleure précision. Un autre exemple intéressant est lié à la pièce de résumé. Si un client parle à un agent du centre d'appels ou à un commercial, vous pouvez résumer cette conversation et créer des supports marketing personnalisés uniquement pour cette personne.

Krystal Hu : Une dernière question pour Talia et Ethan. Les gens demandaient ce que vous recherchiez lorsque vous investissiez dans des startups de pré-amorçage ou, je suppose, des startups en général.

"Nous essayons de le décomposer en cette question clé : 'est-ce que cela déplace vraiment l'aiguille pour un rôle ou un type de personne particulier ?'"

Ethan Kurzweil : C'est une excellente question. Il y a tellement de réponses différentes à cela. La pré-amorçage est un peu plus tôt que ce dans quoi nous investissons habituellement, pour publier cette clause de non-responsabilité - généralement, nous investissons dans une amorçage ultérieur ou une série A ou B. Mais notre philosophie est de rechercher des modèles d'hyper-croissance partout où nous pouvons trouver eux. Et généralement, la façon dont nous décomposons cela est d'essayer de pré-diagnostiquer via la feuille de route, et Talia a été celle qui a poussé une grande partie de notre réflexion sur l'IA et ses applications à différentes choses, et nous proposons ces feuilles de route de différents domaines thématiques que nous pensons être assez intéressants. Ils peuvent être très larges, comme le cloud computing ou la consumérisation des soins de santé, ou étroits, comme l'impact de l'IA sur le service client.

J'encourage les gens à regarder, parce que nous publions beaucoup sur notre blog et sur les réseaux sociaux notre thèse active, pour voir si ce que vous construisez est aligné avec quelque chose. Et puis, d'une manière générale, nous recherchons: "Est-ce que cela a le genre d'impact qui changera notre façon de travailler ou de nous divertir ou quelque chose qui pourrait être un changement de paradigme dans certains processus commerciaux ou besoins des consommateurs?" C'est ce que nous décomposons. Nous avons remarqué que chaque fois que vous avez un changement de comportement généralisé, cela conduit à des entreprises en hypercroissance et à des opportunités pour les startups de perturber la façon dont vous travaillez ou jouez ou quoi que ce soit qui se faisait auparavant. Et nous essayons donc de le décomposer en cette question clé : "est-ce que cela déplace vraiment l'aiguille pour un rôle ou un type de personne particulier ?"

Krystal Hu : C'est la fin de notre conversation. Pour ceux qui n'ont pas eu la chance d'essayer les nouvelles fonctionnalités d'Intercom, je vous encourage à jouer vous-même avec le résumé et quelques autres fonctionnalités. Et si vous êtes intéressé par l'espace de risque, jetez un coup d'œil sur le site Web de Bessemer. Comme tout le monde l'a dit, dans six mois, nous regarderons en arrière et certaines des prédictions se réaliseront, et peut-être que certaines seront totalement différentes. J'espère que nous aurons un autre moment pour revenir en arrière et couvrir d'autres questions. Merci encore, Talia, Ethan et Fergal, pour votre temps aujourd'hui.

Ethan Kurzweil : Merci de nous recevoir.

Talia Goldberg : Au revoir.

Fergal Reid : Merci beaucoup, tout le monde. Bye Bye.

Podcast d'interphone intérieur (horizontal) (1)