Der GPT-Effekt: Eine neue Ära des Kundenservice
Veröffentlicht: 2023-03-10Die jüngsten Durchbrüche bei großen Sprachmodellen haben all unsere Erwartungen übertroffen. Wir haben Branchenexperten zu einem Gespräch über GPT und wie es die Zukunft des Kundenservice prägen wird, zusammengebracht.
Wir können nicht sagen, dass es uns überrascht hat. Seit Jahren lobt die Branche das Potenzial von KI und maschinellem Lernen, unsere Arbeitsweise radikal zu verändern, insbesondere da Fortschritte bei der Rechenleistung und Datenspeicherung es möglich machten, immer größere Modelle zu trainieren. Aber wir hatten nicht erwartet, wie schnell die jüngsten Fortschritte in ChatGPT von OpenAI neue Möglichkeiten eröffnen würden.
Bei Intercom haben wir schon immer versendet, um zu lernen. Nur durch die schnelle Bereitstellung neuer Funktionen können wir angemessenes Feedback erhalten, daraus lernen und immer wieder iterieren, um unsere Kunden besser zu bedienen. Und das haben wir natürlich mit dieser neuen Technologie gemacht. In den letzten Monaten haben wir einige KI-gestützte Funktionen an 160 Kunden ausgeliefert. Und obwohl es noch zu früh ist, um zu sagen, wie sich diese großen Sprachmodelle (LLMs) in unserem Leben auswirken werden, glauben wir, dass wir einen entscheidenden Wendepunkt erreicht haben – insbesondere, wenn es um den Kundenservice geht.
Deshalb haben wir letzte Woche ein Webinar veranstaltet, um etwas tiefer in die geschäftlichen Anwendungsfälle von GPT einzutauchen. Unterscheidet sich diese Innovationswelle von früheren Wellen? Wird es die Art und Weise verändern, wie wir arbeiten und wie Unternehmen mit Kunden und Interessenten interagieren? Kann es eine neue Generation von Startups entfachen? Um Ihnen ein wenig mehr Einblick zu geben, haben wir ein paar Bonzen der Startup-Szene eingeladen, sich zu äußern.
In der heutigen Folge hören Sie von:
- Ethan Kurzweil, Vorstandsmitglied von Intercom und Partner bei Bessemer Venture Partners
- Fergal Reid, unser eigener Director of Machine Learning
- Krystal Hu, VC und Startups Reporter bei Reuters
- Talia Goldberg, Partner bei Bessemer Venture Partners
Sie werden über große Sprachmodelle wie ChatGPT sprechen, darüber, wie Unternehmen diese Technologie integrieren und wie sie die Zukunft der Kundendienstbranche prägen wird.
Wenig Zeit? Hier sind einige wichtige Erkenntnisse:
- Wir beginnen, die schwierigen Anwendungsfälle von großen Sprachmodellen zu sehen – es gibt ein großes Potenzial für die Verbesserung des Kundenservice aufgrund seiner Regelmäßigkeit und Verwendung natürlicher Sprache.
- Derzeit wird erwartet, dass große Sprachmodelle die menschlichen Fähigkeiten erweitern, anstatt sie zu ersetzen, da sie dazu beitragen können, dass Fachleute bei ihrer Arbeit produktiver und effizienter werden.
- Es ist zwar noch zu früh, um den Erfolg des Beta-Experiments von Intercom zu messen, aber die Akzeptanz und Nutzung der neuesten KI-gestützten Funktionen war enorm und das frühe Feedback ist sehr vielversprechend.
- Große Sprachmodelle können sehr schnell sehr teuer werden. Mit der Zeit werden sie jedoch billiger und allgegenwärtiger, was mehr Experimente und Entdeckungen ermöglicht.
- Obwohl es immer noch Probleme mit Halluzinationen gibt, können Sie dieses Modell konfigurieren und einschränken, um es vertrauenswürdiger zu machen, wenn die Situation ein höheres Maß an Vertrauen erfordert.
- Modelle sind keine Einheitsgröße. Es ist wahrscheinlich, dass Unternehmen in Zukunft eine maßgeschneiderte Mischung aus verschiedenen, anpassbaren Modellen verwenden werden, die für unterschiedliche Geschäftsprobleme geeignet sind.
Wenn Ihnen unsere Diskussion gefällt, sehen Sie sich weitere Folgen unseres Podcasts an. Sie können auf Apple Podcasts, Spotify, YouTube folgen oder den RSS-Feed in Ihrem Player Ihrer Wahl herunterladen. Was folgt, ist eine leicht bearbeitete Abschrift der Episode.
Der Aufstieg von ChatGPT
Krystal Hu: Vielen Dank für alle, die sich die Zeit genommen haben, mitzumachen. Ich bin Krystal Hu und berichte über Ventures und Startups für Reuters. Wie viele von euch wissen, sind KI und die ChatGPT-Welle in den letzten Monaten in die Szene eingebrochen, und ein großer Teil meiner Arbeit besteht darin, die Technologie herauszufinden und herauszufinden, wie sie verschiedene Aspekte des Lebens verändert. Beim heutigen Thema konzentrieren wir uns darauf, wie ChatGPT die Zukunft des Kundenservice gestalten wird. Wir werden diskutieren, was genau ChatGPT und große Sprachmodelle sind, wie diese Technologie verwendet wird, welche Auswirkungen sie auf bestehende und zukünftige Technologien haben wird, wie Startups diese Technologie integrieren und wie neue Unternehmen aufgebaut werden.
Wir haben heute ein tolles Panel bei uns. Zwei großartige Investoren aus Bessemer: Talia Goldberg und Ethan Kurzweil. Talia hat seinen Sitz in San Francisco, investiert in Internet- und Softwareunternehmen für Verbraucher und arbeitet mit Unternehmen wie ServiceTitan und Discord zusammen. Ethan Kurzweil hat seinen Sitz ebenfalls in San Francisco und leitet Investoren in einer Vielzahl von Branchen, darunter Entwicklerplattformen, neue Dateninfrastruktur, digitale Verbraucheranwendungen und Krypto.
Und dann werden wir den Director of Machine Learning bei Intercom, Fergal Reid, haben, der uns einen Einblick gibt, wie Intercom diese Technologie in seine neuesten Angebote integriert – einschließlich einiger KI-Assistentenfunktionen. Ich freue mich darauf, ihre Gehirne auszusuchen und zu hören, was sie sowohl an der Startup- als auch an der Venture-Front sehen und welche Änderungen GPT mit sich bringen könnte. Wenn Sie während des gesamten Prozesses Fragen haben, können Sie Ihre Frage gerne im Chat stellen. Am Ende des Gesprächs haben wir etwa 15 bis 20 Minuten Zeit, um die Fragen durchzugehen.
Ich schätze, ich beginne mit Ihnen, Fergal, denn Sie sind der Technologe im Raum, und Sie stehen an vorderster Front bei der Integration von GPT in die Angebote von Intercom. Vielleicht können Sie uns zunächst ein wenig Hintergrundwissen geben und erklären, was GPT und ChatGPT sind und wie es dazu kam, dass Sie diese Technologie integriert haben?
„Ich werde keine Regeln schreiben, und ich werde nicht ausdrücklich sagen: ‚Lerne, X gegen Y vorherzusagen‘.“
Fergal Reid: Es ist eine sehr aufregende Zeit in der Technologie. Ich gehe davon aus, dass viele Leute ChatGPT zu diesem Zeitpunkt wahrscheinlich gesehen haben, weil es gerade eine so große Welle gemacht hat. Aber aus technologischer Sicht, aus meiner engen Sicht auf die Welt, bin ich seit ungefähr fünf Jahren bei Intercom und leite das Team für maschinelles Lernen. Und die Dinge des maschinellen Lernens, die wir gemacht haben, verwenden Algorithmen, die es schon eine Weile gibt – mit überwachten Lernalgorithmen, Algorithmen, die lernen, Dinge auseinanderzuhalten. Sie können sagen: „Hey, lass uns vorhersagen, ob jemand nach dem einen oder anderen fragen wird.“ Mit diesen maschinellen Lernsystemen geben Sie ihnen viele Trainingsdaten: „Hey, das ist ein Beispiel, wenn Ihnen jemand eine Frage gestellt hat, und dies ist ein Beispiel, wenn Ihnen jemand eine andere Frage gestellt hat.“
Und was bei dieser neuesten Welle generativer KI neu und anders ist, ist, dass Sie nicht nur einem Modell beibringen, das eine oder andere vorherzusagen, sondern sagen: „Hey, Modell. Erfahren Sie, wie Sie neue Daten dieses Typs generieren. Erfahren Sie, wie Sie ein Bild erstellen.“ Sie geben ihm etwas Text und es lernt, ein Bild zu generieren, das diesem Text zugeordnet ist, oder mit ChatGPT sprechen Sie einfach mit ihm und geben ihm etwas Text, und es wird ziemlich gut darin, als Antwort darauf mehr Text zu generieren.
„Wir haben dieses wirklich große Modell, wir stellen ihm Fragen auf Englisch, sagen ihm, dass es Dinge auf Englisch machen soll, und es ist ziemlich gut darin, einfach das zu tun, was wir ihm sagen.“
Es ist nur eine andere Art des maschinellen Lernens. Ich werde keine Regeln schreiben und ich werde nicht ausdrücklich sagen: „Lernen Sie, X gegen Y vorherzusagen.“ Stattdessen nehme ich eine wirklich große Menge an Trainingsdaten, erstelle ein Modell, das sehr gut darin ist, diese Trainingsdaten vorherzusagen, und dann kann ich es hoffentlich dazu bringen, nützliche Dinge zu tun, indem ich neue Beispiele generiere.
Mit ChatGPT fragen Sie es etwas, indem Sie ihm einen Text geben und sagen: „Generieren Sie, was als nächstes kommt.“ Und überraschenderweise ist das ziemlich nützlich. Sie können sagen: „Hey, hier ist ein Kundensupport-Gespräch, und dies ist die Zusammenfassung des Support-Gesprächs“, und es dann an ChatGPT weitergeben, und es generiert, was als nächstes passiert oder was es als nächstes erwarten würde. Und vielleicht sagst du: „Das ist die Zusammenfassung“, und dann erscheint eine Zusammenfassung. Und das ist sehr nützlich. Es ist eine sehr allgemeine Art, Funktionen und Systeme zu erstellen. Anstatt für jede Kleinigkeit ein neues maschinelles Lernsystem zu programmieren, haben wir dieses wirklich große Modell, wir stellen ihm Fragen auf Englisch, sagen ihm, es soll Dinge auf Englisch tun, und es ist ziemlich gut darin, einfach das zu tun, was wir ihm sagen. Und so haben wir bei Intercom versucht, dies zu nutzen, um Produktfunktionen zu entwickeln.
Ein Game Changer für den Kundenservice
Krystal Hu: Ich möchte Talia und Ethan als produktive Investoren im Weltraum auf die Bühne bringen. Sie haben ein paar technologische Wellen gesehen. Inwiefern unterscheidet sich diese über generative KI und welche Anwendungsbereiche begeistern Sie?
Talia Goldberg: Sicher, danke, dass du mich eingeladen hast. Das war ein toller Überblick darüber, was generative KI ist. Es ist lustig, kurz vor diesem Treffen habe ich mir einen Artikel angesehen, den wir letzten Sommer, vielleicht vor acht oder neun Monaten, in unserem Blog veröffentlicht haben, und das war ein paar Monate, bevor ChatGPT überhaupt gestartet wurde, aber wir begannen, eine Menge Schwung zu sehen und Grund, gespannt zu sein, was insbesondere mit großen Sprachmodellen passiert, und das Potenzial von KI und generativer KI als dieser neuen, wirklich mächtigen Welle der künstlichen Intelligenz.
Und wir hatten eine Vorhersage: „Heute wird weniger als 1 % der Online-Inhalte mithilfe von KI generiert, und wir gehen davon aus, dass in den nächsten 10 Jahren mindestens 50 % von KI generiert oder erweitert werden.“ Und wir haben darüber diskutiert, und wir dachten, dass es eine wilde Sache wäre, das zu sagen, aber heilige Scheiße, wir haben unterschätzt, wie schnell KI viele der Informationen, die wir sehen, umwandeln kann. Ich würde sagen, dass es in den nächsten zwei Jahren 50 % unserer Online-Interaktionen, -Inhalte und -Medien sein könnten. Die Implikationen davon, denke ich, sind enorm für eine Menge Informations- und Wissensarbeit, einschließlich des Kundensupports.
„Sie sehen sofort die kniffligen Anwendungsfälle, in denen die Technologie reif ist, um sie zu stören, zu verbessern, zu erweitern und zu verbessern, und der Kundensupport ist dafür direkt am Ende.“
Krystal Hu: Ethan, du arbeitest schon eine Weile mit Intercom. Ist dies der Moment, auf den der Kundenservice Ihrer Meinung nach gewartet hat? Weil ich das Gefühl habe, dass die Technologie und die Möglichkeiten für Kundendienstanwendungen wie Intercom Gold wert sind.
Ethan Kurzweil: Ja, ich habe das Gefühl, dass dies vielleicht die neueste Anwendung großer Sprachmodelle ist und was sie können. Wenn Sie weit zurücktreten und über technologische Veränderungen und Plattformwechsel wie den Smartphone-Moment, den iPhone-Moment und ähnliche Dinge nachdenken, passiert am Anfang, dass all diese Aufregung herrscht und viele Entwickler und Schöpfer in einen Raum eilen, und dann Sie haben diese Auswaschung, bei der Sie sehen, bei welchen hochmodernen Anwendungen es zuerst haftet, und bei denen, bei denen es Sie nicht in ein kleines Tal der Ernüchterung bringt. Ich denke, wir sind auf dieser Kurve wahrscheinlich noch etwas früh, aber Sie sehen sofort die heiklen Anwendungsfälle, in denen die Technologie reif ist, um zu stören, zu verbessern, zu erweitern und besser zu machen, und der Kundensupport ist dafür direkt am Ende.
Ich arbeite jetzt seit fast achteinhalb Jahren mit Intercom zusammen, und Intercom war ein Team, das immer an vorderster Front dabei war, neue Technologien zu übernehmen, wenn sie bereit sind. Und ich erinnere mich, dass die Leute vor zwei oder drei Jahren sagten: „Automatisierung, Automatisierung, Automatisierung.“ Und die Produktleitung bei Intercom sagte immer: „Es ist noch nicht gut genug. Wir können es tun, wir können es so einfügen, dass wir ein Kästchen in einem Feature-Request-Formular ankreuzen könnten, aber es wird nicht zu einem wirklich guten menschenähnlichen Ablauf führen.“ Intercom wurde immer um diese Idee herum gegründet, das Internetgeschäft persönlich zu machen. Und wenn Sie einen Bot haben, der nicht persönlich klingt, ist das orthogonal dazu.
Die Tatsache, dass Intercom es so erfolgreich in seinem Flow einsetzt, zeigt Ihnen, dass die Technologie bereit ist und dass dies eines der vielen, vielen Dinge ist, auf die wir sehen werden, wie sie sich auswirken wird. Nicht alles auf einmal, aber im Laufe der Zeit werden wir viel mehr Wirkung sehen, wenn wir einer Maschine die Fähigkeit geben, sich auf menschenähnliche Weise zu unterhalten.
„Sie sehen sich die Kurve und die Verbesserungsrate an, und in ein paar Monaten, in ein paar Quartalen und in ein paar Jahren wird es noch besser sein.“
Talia Goldberg: Wenn ich eines hinzufügen kann, denke ich, dass der Kundensupport der perfekte Anfangsbereich für KI ist, um etwas zu bewirken. Und einer der Gründe dafür ist, dass es natürliche Sprache verwendet. Sie können mit der KI auf Englisch kommunizieren und sie wird auf Englisch antworten. Sie müssen nicht programmieren – es generiert Informationen. Und so sieht Kundenservice und Support aus – großartige, menschenähnliche Erlebnisse schaffen, die personalisiert werden können, Beschwerden lösen und mit der Zeit immer besser werden. Sie erhalten also auch diese großartige Feedback-Schleife, wenn Sie sie im Kundensupport verwenden.
Auch wenn es heute einige Herausforderungen und Ecken und Kanten geben mag, sind die Technologie und das Potenzial schon jetzt wirklich großartig, wie Ethan sagte. Sie sehen sich die Kurve und die Verbesserungsrate an, und in ein paar Monaten, in ein paar Quartalen und in ein paar Jahren wird es noch besser sein. Dies ist eine der Kategorien, auf die wir uns am meisten freuen, und wir glauben, dass jedes Unternehmen davon profitieren kann und darüber nachdenken muss.
Krystal Hu: Fergal, dies ist der richtige Zeitpunkt, um uns einen Überblick über die kürzliche Einführung von Funktionen bei Intercom zu geben und wie Sie ChatGPT darin integriert haben.
Fergal Reid: Absolut. Und nur um die Meinung von Talia und Ethan hier wiederzugeben, es gibt so viel Struktur in der Domäne, es gibt so viele Dinge, die ein Kundendienstmitarbeiter tut, wenn er dasselbe tut, was er am letzten Tag noch einmal getan hat, oder vielleicht das eine ihrer Teamkollegen hat es zuvor getan, und es gibt so viel Regelmäßigkeit und Struktur, dass es sich wirklich reif für ein System anfühlt, das lernt und KI verwendet, um Menschen schneller zu machen.
„Wir waren der Meinung, dass der beste Ort für den Einstieg mit einem Menschen auf dem Laufenden war. Jemand ist im Posteingang eingepackt und wir möchten ihn schneller machen, aber er kann es immer noch überprüfen und genehmigen.“
Als ChatGPT gestartet wurde, veröffentlichte OpenAI gleichzeitig dieses neue Modell zur Verwendung durch Entwickler, text-davinci-003. Wir haben seit langem eine Beziehung zu OpenAI, und als wir uns dieses Modell ansahen, hatten wir das Gefühl, dass es wirklich eine Schwelle der Nützlichkeit überschreitet und dass wir darauf aufbauen können. Und so haben wir ein erstes Benchmarking durchgeführt. Die Leute verbringen viel Zeit im Posteingang, und eine Sache, die sie tun müssen, ist, Zusammenfassungen der Konversation zu schreiben, die sie sich gerade angesehen haben, bevor sie sie weitergeben. Diese Technologie schien wirklich großartig darin zu sein, Konversationszusammenfassungen durchzuführen, und wir fragten uns: „Können wir eine Funktion entwickeln, die dies tut, und sie unseren Beta-Kunden zur Verfügung stellen?“ Intercom hat dieses Prinzip „Ship to Learn“. Wir glauben daran, neue Funktionen extrem schnell an Kunden zu liefern, damit wir erfahren können, ob es sich um die Lösung eines Problems oder eher um eine Kuriosität handelt.
Und so haben wir im Grunde genommen Anfang Dezember ein Projekt gestartet, um zu sehen, ob wir schnell einige Funktionen ausliefern könnten, die mit Kundenbetreuern im eigentlichen Posteingang funktionieren würden, um sie schneller zu machen. Eine war die Zusammenfassung, mit anderen Funktionen, die ihnen helfen, Text schneller zu verfassen. Und wir hatten wirklich das Gefühl, dass es der richtige Ort war, um mit dieser Technologie zu beginnen, denn die generative KI hat einen Nachteil. Es ist nicht immer so genau, wie Sie vielleicht denken. Es ist einfach, ChatGPT anzusehen, ihm eine Frage zu stellen, es gibt Ihnen eine Antwort und Sie denken: „Das ist erstaunlich.“ Und dann liest man es ein bisschen detaillierter, und tatsächlich macht es manchmal etwas falsch. Wir waren der Meinung, dass der beste Ausgangspunkt mit einem Menschen in der Schleife war. Jemand hat sich im Posteingang angemeldet und wir möchten ihn schneller machen, aber er kann es trotzdem überprüfen und genehmigen. Es war ein toller Ausgangspunkt.
Jetzt sehe ich Leute, die in den Kommentaren fragen: „Hey, was ist mit Bots und Dingen, die Fragen selbst beantworten können?“ Wir denken, dass das kommt und es könnte bald kommen, aber wir untersuchen es noch. Das große Problem für uns ist die Genauigkeit. Wir glauben, dass es jetzt reif ist, einen Menschen in der Schleife zu haben, wo es den Support-Mitarbeiter schneller macht. Und wahrscheinlich kommen bald Dinge, die den nächsten Schritt machen. Das ist ein sehr interessantes Gebiet.
Ethan Kurzweil: Um darauf einzugehen, erhalten wir einige interessante, zukunftsgerichtete Fragen wie: „Werden meine Tage als Werbetexter damit gezählt sein?“ Ich glaube überhaupt nicht. Diese Technologie ist und wird wahrscheinlich noch eine Weile bleiben, indem sie die menschlichen Fähigkeiten und die menschliche Intelligenz erweitert, Sie als Texter produktiver macht, Sie aber nicht unbedingt ersetzt, weil erstens die Technologie noch nicht da ist und zweitens Die Messlatte für einen großartigen Kundensupport oder die Kommunikation mit einem Unternehmen wird immer höher, wenn wir diese Ressourcen haben. Während die Technologie in der Lage sein mag, einige Anwendungsfälle für Texter und Support-Antworten selbst zu bewältigen, wird die Messlatte für wirklich gute Texte und wirklich guten Support und so weiter und so weiter steigen, wenn wir Zugang zu diesen Technologien haben . Der ideale Zustand ist, dass Sie Zugang zu diesen Technologien haben, um produktiver zu sein, aber sie werden Sie in absehbarer Zeit nicht ersetzen.
Talia Goldberg: Ja. Ich finde es toll, wie Wyatt gerade gesagt hat, dass es ein Fähigkeitsmultiplikator ist. Wir sprechen intern viel über das Beispiel Copilot, das so etwas wie die Autovervollständigung für das Codieren ist und Ingenieure bereits jetzt deutlich effizienter macht. Es ersetzt keineswegs Ingenieure oder Ingenieurwesen, aber es kann es ergänzen. Ein sehr einfaches Beispiel dafür könnte der Taschenrechner sein. Früher haben wir mit der Hand gerechnet. Jetzt benutzen wir Taschenrechner, aber Mathematik ist immer noch sehr wichtig – wir alle müssen es lernen, und Mathematiker sind sehr wichtig in dieser Welt. Möglicherweise wird Ihre Rolle sogar noch wichtiger, denn wenn die Kosten für die Erstellung von Inhalten sinken und es eine Flut von vielen verschiedenen Inhalten und Informationen gibt, wird die Erstellung von Inhalten und Informationen, die sich abheben und übertreffen können, noch größer Prämie in den nächsten Jahren.
Intercoms Experiment mit GPT
Krystal Hu: Es ist ein paar Wochen her, seit Intercom seine KI-unterstützten Funktionen eingeführt hat. Was ist das frühe Feedback, das Sie gesehen haben? Wie messen Sie den Erfolg der Integration dieser Technologie?
„Wir sehen viel Akzeptanz, viel Aufregung und viel Nutzung“
Fergal Reid: Ich werde da sehr transparent sein – ich habe noch keine wirklich zufriedenstellende Antwort auf diese Frage. Was ich Ihnen sagen kann, ist, dass wir jetzt live sind, wir haben Tausende von Kunden, die es regelmäßig verwenden – wir haben eine Menge Akzeptanz erfahren. Wir werden wahrscheinlich versuchen, zu messen, ob dies die Mitarbeiter tatsächlich produktiver gemacht hat, denn sagen wir, für unser eigenes CS-Team können wir Telemetriedaten zu „Sind Sie schneller, wenn Sie diese Funktionen verwenden?“ sammeln. und dafür eine Art kontrolliertes Experiment zusammenstellen. Wir versuchen immer, irgendwann irgendeine Form von tatsächlichen Daten dazu zu bekommen, aber wir sind noch nicht an diesem Punkt. Wir werden wahrscheinlich in ein oder zwei Monaten einige Zahlen dazu haben oder mehr darüber verstehen, zumindest intern, würde ich schätzen.
Was ich Ihnen im Moment sagen kann, ist, dass wir viel Akzeptanz, viel Aufregung und viel Nutzung sehen. Es gibt definitiv einige Funktionen wie die Zusammenfassung, von denen Kunden uns sagen, dass sie ihnen viel Zeit sparen. Wir hatten Kunden, die uns Dinge sagten wie: „Hey, bei manchen Gesprächen kann es so lange dauern, die Zusammenfassung für eine Übergabe zu schreiben, wie es dauert, das Problem des Endbenutzers zu lösen.“ Und da fühlen wir uns auf jeden Fall wohl.
In einigen unserer anderen Funktionen schreiben Sie eine Kurzschrift, ein bisschen wie GitHub Copilot. Wir wurden von Copilot inspiriert, und wenn Sie ein Programmierer sind, können Sie in Copilot einen Kommentar oder eine Kurzschrift schreiben, und dann wird der Code ausgefüllt. Eine unserer Funktionen ist „Erweitern“, bei der Sie eine Kurzschrift schreiben und diese in eine längere Support-Nachricht umwandeln. Manchmal funktioniert das und spart Zeit, aber wir haben noch keine Daten dazu. Was wir im Moment live haben, ist nur eine Generation-1-Version davon. Und wir haben Prototypen einer Version der Generation 2. Im Moment schreiben Sie die Kurzschrift, und das große Sprachmodell erweitert diese. Was wir stattdessen versuchen, ist zu sagen: „Hey, lass uns das letzte Mal einholen, als du eine solche Frage beantwortet hast. Lassen Sie uns Makros einbinden, die dafür relevant sind.“ Und wir haben einige interne Prototypen, die ziemlich gut funktionieren. Wir sind immer noch innovativ und tun Dinge, die die Nadel wirklich bewegen werden, aber wir haben noch keine Metriken. Bald.
„Ich habe in Tableau ein Diagramm unserer täglichen Ausgaben mit OpenAI, das wir nervös beobachten.“
Krystal Hu: Um dem nachzugehen, wie bemessen Sie die Kosten dafür? Soweit ich weiß, senden Sie wahrscheinlich Anfragen an OpenAI und sie berechnen, schätze ich, zwei Cent pro tausend Zeichen oder so etwas. Und ich denke, mit zunehmender Adoption häuft sich auch diese Rechnung. Haben Sie Erkenntnisse oder Beobachtungen über die Integration dieser Technologie zu teilen?
Fergal Reid: Ich habe in Tableau ein Diagramm unserer täglichen Ausgaben mit OpenAI, das wir nervös beobachten. Es ist definitiv eine Überlegung. Ich habe die Zusammenfassungsfunktion erwähnt, und wir haben sie auf eine sehr human-in-the-loop-Weise gebaut, bei der Sie nach der Zusammenfassung fragen müssen, bevor Sie die Frage stellen. Und eines sagen unsere Kunden zu uns: „Hey, warum muss ich nach dieser Zusammenfassung fragen? Bitte pflegen Sie einfach immer eine Zusammenfassung in der Seitenleiste, damit ich nie danach fragen muss.“ Und das würde richtig teuer werden, denn wenn wir jedes Mal zwei Cent bezahlen müssten, wenn jemand etwas Neues im Gespräch sagt und sich die Zusammenfassung ändert, würde das extrem teuer werden. Wir müssen die Kosten unbedingt so berücksichtigen, wie es bei traditionelleren maschinellen Lernmodellen nicht der Fall ist.
Allerdings hat OpenAI gerade seine ChatGPT-API angekündigt, und ich denke, es hat viele Leute überrascht, weil es 10-mal billiger war als die vorherigen ähnlichen Modelle dieser Serie. Es ist möglich, dass die Kosten ziemlich schnell sinken und diese Funktionen weit verbreitet sind. Was ist mit anderen Startups oder Unternehmen, die in diesem Bereich aufbauen? Der Rat, den wir bei Intercom geben würden, ist, zu versuchen, schnell auf den Markt zu kommen, denn hier gibt es einen echten Wert für Ihre Kunden, den Sie aufbauen und freischalten können. Und die Kosten werden wahrscheinlich sinken, entweder weil die Modelle billiger werden, wenn Anbieter wie OpenAI herausfinden, wie sie effizienter gemacht werden können, oder weil Sie effizientere Wege finden, sie zu verwenden. Sie werden Möglichkeiten finden, zu sagen: „Hey, ich kann für den ersten Teil des Gesprächs ein billigeres generatives Modell verwenden, und wenn ich dann diese viel schwierigere Aufgabe habe, die mehr Genauigkeit erfordert, verwende ich das teurere .“ Ethan und Talia haben wahrscheinlich eine viel breitere Sicht darauf als ich, und ich würde gerne ihre Meinung hören.
„Man ist sich nie sicher, was Entwickler mit einer neuen Technologie machen werden, bis sie sie haben – und sie haben, wo sie nicht jedes Mal zwei Cent bezahlen, wenn sie einen API-Aufruf tätigen.“
Ethan Kurzweil: Nun, das ist ein gutes Beispiel dafür, was man manchmal bei diesen hochmodernen Technologien sieht. Am Anfang erhalten sie die hochwertigen Anwendungsfälle, und Sie beschreiben die Verwirklichung dieses Prinzips. Bei Intercom ist dies die Zusammenfassungsfunktion, wenn sie heute angefordert wird. Aber im Laufe der Zeit wird die Technologie viel allgegenwärtiger und billiger sein. Und dann kann es sich zu weiteren Anwendungsfällen ausbreiten, bei denen die Grenzkosten dafür heute unerschwinglich sind, und das ermöglicht es Entwicklern, andere Anwendungen großer Sprachmodelle in dieser Art von KI zu entdecken, wo wir nicht wirklich vorhersagen.
Bei Bessemer versuchen Talia und ich, Roadmaps zu erstellen, in die sich die Technologie unserer Meinung nach entwickeln wird, aber als entwicklerorientierter Investor denke ich immer an eine der wichtigsten Primitiven, dass man nie sicher ist, was Entwickler tun werden eine neue Technologie, eine neue Plattform, ein neuer Zugang zu etwas, bis sie es haben – und es haben, wo sie nicht jedes Mal, wenn sie einen API-Aufruf tätigen, zwei Cent bezahlen – und Dinge riffeln und tun können, die zunächst absurd klingen.
Ich bin begeistert, dass die Technologie den Punkt erreicht, an dem es nur noch eine Menge Experimente gibt. Ich bin sicher, dass es in der Produkt-Roadmap von Intercom nicht heute, sondern in einem Jahr einige Dinge geben wird, die wir nicht vorhergesehen haben, die aber einen wirklich hohen Wert für die Kunden haben. Und es wird einige Startups geben, die gerade herausgekommen sind, weil sie sich an einer bestimmten Art und Weise, wie man generativen Text verwenden kann, ausgetobt haben, und es hat für jemanden eine wirklich großartige Benutzererfahrung geschaffen.
Talia Goldberg: Es gibt ein lustiges Beispiel, das meiner Meinung nach einige der menschenähnlichen Möglichkeiten hervorheben kann, Erfahrungen zu erweitern, die für den Support relevant sind. Wenn ich mit, sagen wir, einigen Mitgliedern des Intercom-Teams mit starkem irischen Akzent spreche und sie wahrscheinlich denken, dass ich einen verrückten westlichen Akzent habe, ist es manchmal schwer für uns, uns gegenseitig zu verstehen, wenn wir super aufgeregt sind rede sehr schnell. Es klingt wie eine andere Sprache, obwohl alle Englisch sprechen. KI kann in Echtzeit die Akzente einer Person ein wenig ändern, um sie auf beide Arten verständlicher zu machen. Wenn ich also einen irischen oder britischen Akzent habe, wird das in einen kalifornischen Akzent übersetzt, und das kann die Erfahrung in gewisser Weise wirklich verbessern, indem es die Kommunikationsbarrieren senkt.
Ethan Kurzweil: Es ist ein gutes Beispiel, weil Technologie in die Mitte der direkten Kommunikation gerät, sie aber menschlicher macht, was wie ein Oxymoron klingt, aber wenn sie gut eingesetzt wird, könnte sie dazu führen, dass Sie sich in einem Messaging- oder Kommunikationskontext verbundener fühlen.
Talia Goldberg: Das ist das Versprechen des Internets – uns alle zusammenzubringen und Barrieren abzubauen. Ich glaube wirklich fest an das Potenzial, das zu überladen.
Der Konfidenzquotient
Krystal Hu: Ich denke, viele Leute haben Fragen dazu, wie Sie sicherstellen, dass alles in Bezug auf den Informationsfluss korrekt und genau ist. Der Einsatz ist in verschiedenen Anwendungsfällen unterschiedlich, aber im Allgemeinen möchten Sie Ihren Kunden keine falschen Informationen liefern. Wie stellen Sie das sicher?
„Es ist nicht so, dass Sie als Mensch diese Dinge niemals sehen könnten, weil das unmöglich wäre – es ist so, dass Sie in der Lage sind, angemessen zu filtern. So denke ich über große Sprachmodelle“
Talia Goldberg: Vielleicht nur ein Kommentar, und dann denke ich, lasse ich Fergal genauer auf Intercom antworten. Die Modelle werden mit enormen Datenmengen trainiert – vielen Milliarden und Abermilliarden von Daten- und Informationspunkten. Also, egal wie sehr Sie versuchen, die Daten auszutricksen oder falsche Daten einzugeben, es ist immer noch ein so winziger, winziger Teil der Gesamtdaten. Das ist eine Sache, die Sie im Hinterkopf behalten sollten, wenn Sie darüber nachdenken, wie diese Modelle erstellt werden.
Das andere sind die Dateneingaben. Ich weiß, dass es Bedenken gibt, ob es mit falschen Daten trainiert wurde, und verstehen Sie mich nicht falsch, es gibt sicherlich Herausforderungen bei Halluzinationen und anderen Bereichen, also gibt es viel zu verbessern. Aber in Ihrem Leben ist es nicht so, dass Sie herumlaufen und keine Dinge sehen, die falsch oder voreingenommen oder sogar Fehlinformationen sein könnten. Sie stoßen darauf, aber Sie verwenden Ihr Urteilsvermögen und Ihren Verstand, und es gibt viele andere gute Daten. Es ist also nicht so, dass Sie als Mensch diese Dinge niemals sehen könnten, weil das unmöglich wäre – es ist so, dass Sie in der Lage sind, angemessen zu filtern. So denke ich über große Sprachmodelle. Es wird einige Fälle geben, in denen es Daten und Informationen gibt, die nicht Ihren Wünschen im Trainingssatz entsprechen, aber die Fähigkeit der Sprachmodelle, sie zu filtern und zur richtigen Antwort zu gelangen, sollte mit der Zeit immer besser werden.
„Das könnte einer der Parameter sein: ‚Wie viel Vertrauen haben Sie in diese Antwort?' Wenn es nicht gut genug ist, gib es nicht“
Ethan Kurzweil: Es gibt einige interessante Fragen sowohl zum Datenschutz als auch zur Genauigkeit. Die andere Sache, die Sie bei der Frage der Datengenauigkeit beachten sollten, bevor wir zum Datenschutzteil kommen, ist, dass Sie in Zukunft und in einigen großen Sprachmodellen tatsächlich einen Genauigkeitsquotienten festlegen können. Es ist ungefähr so, als wäre eine KI darauf programmiert worden, Jeopardy zu gewinnen – sie hatte ein Konfidenzintervall, in dem sie die Antwort auf eine Frage mit 90-prozentiger oder 60-prozentiger Sicherheit kannte. Und in diesem Zusammenhang, in dem Sie mit einer falschen Antwort nur einige Punkte verlieren, setzen sie das Intervall ziemlich niedrig auf 40% oder so. Wenn Sie sich zu 40 % oder mehr sicher sind, gehen Sie und versuchen Sie, die Frage zu beantworten.
Es kann einen Kontext geben, in dem Sie Genauigkeit auf menschlichem Niveau wünschen, Sie stellen sie dort ein, und oft, wenn die KI das 99. Perzentil nicht erreichen kann, wird sie auf einen Menschen oder so etwas übergehen. Es kann sogar im Militär, sogar in stark regulierten Branchen, einen gewissen Kontext geben, wo Sie mehr Toleranz für eine fundierte KI-unterstützte Vermutung haben. Und das könnte einer der Parameter sein: „Wie viel Vertrauen haben Sie in diese Antwort?“ Wenn es nicht gut genug ist, gib es nicht.
Fergal Reid: Nur um darauf einzugehen, Ethan, das ist definitiv eine starke Produktüberzeugung, die wir intern bei Intercom haben, nämlich dass es ziemlich wahrscheinlich ist, dass es hier draußen eine Vielzahl von Toleranzen geben wird. Es wird einige Kunden geben, die eine ziemlich hohe Toleranz für „Machen Sie mir den Vorschlag; es ist in Ordnung, wenn der Vorschlag gelegentlich falsch ist.“ Und es wird andere Kunden mit einer sehr geringen Toleranz geben. Wir gehen davon aus, dass wir diesbezüglich ein gewisses Maß an Konfiguration benötigen.
„Wir haben diese neue Technologie, die viel bessere Vorhersagen treffen und Dinge viel schneller erledigen kann. Wie nehmen wir das und machen es vertrauenswürdig genug oder lassen Kunden zumindest die Wahl?“
Nur um mit einigen der Dinge, die wir uns in Zukunft ansehen, ins Unkraut zu tauchen, nehmen wir an, Sie haben etwas, das versucht, einen Artikel zu konsumieren und eine Frage zu diesem Inhalt zu beantworten. Ein Beispiel ist, dass Sie es darauf beschränken, zu sagen: „Sie dürfen nur mit einem genauen Zitat daraus antworten.“ Und es kann dieses Zitat in einen Kontext stellen, aber das Zitat muss da sein. Das ist eine konservative Art, diese neuen großen Sprachmodelle zu verwenden, um Ihre Abfrage besser zu verstehen und die Informationen abzurufen, aber einzuschränken, was sie tatsächlich sagen können. Ein weiteres Beispiel ist, dass Sie ein generatives Modell nehmen und zulassen, dass es unter der Haube generativ ist, aber es kann nur durch eine vordefinierte Reihe von Aktionen oder Dingen, die es sagen kann, mit einem Endbenutzer interagieren.
Es gibt viele Techniken, um die leistungsstarke Engine zu nehmen und zu versuchen, sie sicherer, vertrauenswürdiger und eingeschränkter zu machen. Und ich denke, Sie werden viele Leute sehen, die mit dieser Technik arbeiten. Wir haben diese neue Technologie, die viel bessere Vorhersagen treffen und Dinge viel schneller erledigen kann. Wie nehmen wir das und machen es vertrauenswürdig genug oder lassen Kunden zumindest die Wahl? Ich denke, Sie werden in den nächsten Monaten viel Bewegung in diesem Bereich sehen.
Massenpersonalisierung in allen Branchen
Krystal Hu: In diesem Sinne, Ethan, Talia, gibt es neben dem Kundendienst noch andere Anwendungen, die Sie in diesem Bereich sehen, auf die Sie besonders gespannt sind?
Ethan Kurzweil: Ich kann den Anfang machen. Wenn wir uns einige Verbraucheranwendungen ansehen, freuen wir uns über Spiele. Wenn Sie darüber nachdenken, was Spiele Spaß macht, ist das oft die Aktualisierungsrate bei neuen Inhalten, und dafür müssen Sie ständig kreative Ideen entwickeln. Wir fangen an, Leute zu sehen, die darüber nachdenken: „Was wäre, wenn jede Erfahrung für jeden Spieler neu sein könnte?“ You couldn't have a personal copywriter writing that much content for each person, but an AI could do it. And it could get down to a level where each decision you make generates a new experience based on whatever temporal inputs you want to give the system.
“We went from handcrafted goods to mass-produced goods to mass personalization in a way we've probably never seen before”
Media applications as well. Earlier in my career, I used to work at the Wall Street Journal , and the parent company of the Wall Street Journal was Dow Jones. They had a sister news department called Dow Jones Newswires , which was about getting financial news mainly to traders and folks that needed to act very quickly on that information as fast as possible through terminals and things like that. I think about what an AI could do to augment news or get news to the end user more quickly. Again, I don't think it's replacing journalists at all, I think it's augmenting the amount of information and the targeting we can provide to folks much more quickly.
I think about entertainment use cases. This promise of personalized television and premium content services has always been out there, but when you get to the long tail of internet content and user-generated content, it tends to be pretty low-quality. Could you have a high-quality, personalized content delivery service? I think AI could impact that equation in the future.
Talia Goldberg: I love the concept of personalization and everyone having their own experience. We went from handcrafted goods to mass-produced goods to mass personalization in a way we've probably never seen before. This is a totally new experience for everyone, which is super cool. I'll share one of the areas that I think is going to be wildly impactful and really promising, which is in life sciences and biotech.
“The AI is seeing something that we, as humans, have never before been able to see”
Applying AI to drug discovery and development using huge amounts of data to look at molecules and protein structures and genomic data can be really transformative. I read this study that I think was in Nature a month ago, and it described how some researchers gave an AI a bunch of images of a human retina, and the AI, with 90% accuracy, said which retina belonged to either a male or a female. That seems very basic – who cares? But what's really crazy about that is that no researcher, scientist, or AI expert has ever been able to find any sign of a retina correlating to gender of any form. The AI is seeing something that we, as humans, have never before been able to see.
You think about that, and then you apply that to cancer and different cells and otherwise, and the potential is just massive and really exciting. And we're already seeing a lot of applications. AI's going to transform a whole bunch of things – health, software, business applications, logistics, consumer… We could make a long list, but there are a ton of reasons to be super optimistic.
Mischen und Anpassen
Krystal Hu: When I talk to startups, when they're incorporating this kind of technology into their offerings, one choice they have to make is which model they work with. Do they only work with one type of model, or do they diversify their vendors to work with other companies besides OpenAI? I'm sure, Fergal, you've spent some time thinking about that. What was the experience like at Intercom?
Fergal Reid: With new technology, being right in the forefront, our head tends to go first to customer value. We're happy to use the most expensive or newest model to try and figure out, “Okay, can we really build a transformative experience for a customer with this that is a core part of the workflow and makes something valuable for them?” And once we do that, we're like, “Okay, now, how can we make it cost-effective?” And we're probably going to end up with a large mix of different models from, say, OpenAI, and we've also looked at other vendors like Anthropic, which are doing some really interesting work in this space too.
“It's highly likely that everyone's going to end up running a bespoke mix of many different models. It's going to get complex pretty fast”
It's an exploding space with many different people training large language models, and I think you'll have different large language models that are better and worse and have different trade-offs in terms of cost and latency and performance. Performance won't be one-size-fits-all. Some models are better at dealing with hallucinations, some are better at generating creative content, and I think we're already seeing that.
Our focus is to get whatever models we can, try them out, think if we can use these to build transformative value, get it live with our customers, and then figure out how to optimize that. Once we know it's delivering value, let's optimize it in terms of price and cost and work. It's highly likely that everyone's going to end up running a bespoke mix of many different models. You could have three different models in one customer interaction. So yeah, it's going to get complex pretty fast.
“There'll probably be a new set of metrics that everyone coalesces around that measure the effectiveness of your AI and your particular business problem”
Ethan Kurzweil: I think that's an interesting point that actually ties the question from before: how do you measure the success of this? Because I think lots of companies will try a model or many, and the question will be, “All right, which is best?” And that's such an oversimplification because you have to figure out what you are trying to achieve. Are you trying to achieve engagement with users? Are you trying to achieve a quick resolution?
I think there'll probably be a sort of metricization of this where people come to a standard, like the way Google Search created a new industry, AdWords, and the way we measure click-through rates and conversion rates and things like that. There'll probably be a new set of metrics that everyone coalesces around that measure the effectiveness of your AI and your particular business problem.
Fergal Reid: Yeah, even before these more recent language models, we've had bots that process natural language using pretty big neural networks, although not as big. And whenever we would do something like upgrade our bots, we would conduct a large-scale A/B test framed in terms of end-user metrics such as self-serve rate. Then, we would find edge cases for particular customers or domains where it performed less well, really dig into those, and make sure nothing was broken. I think there's probably a well-understood playbook, like Ethan's referring to, of metrics for given domains. A lot of the same things will apply to this new type of technology.
Fragen und Antworten
Krystal Hu: I'd love to get to the Q&A. I think we were able to address some of the questions during our discussions, but there are a bunch about the potential roadmaps from, I assume, Intercom's customers or companies working with Intercom who want to know what could be the next AI-aided feature that may come out, both in the short-term and long-term, and also how that will affect the pricing strategy.
Fergal Reid: Cool. Do you want to call out one particular question?
Krystal Hu: I think there was a question about your roadmap for the features for the next six months versus 12 to 18 months, and then the other person asked about the pricing strategy.
Fergal Reid: We have some things coming up that unfortunately, I can't talk about at the moment. I would say that six months is a really long time in this space. I expect you'll see a lot of movement in this space over the next two or three months. We will continue to sweat and invest in these features in our Inbox to make support reps more efficient. I've already talked about how we've got a Generation 1 version of features here at the moment, with summarization and expansion features to help edit a text, and we're definitely working on Generation 2 versions of those features.
We've also met two other exciting features in this space that we're really excited about, but unfortunately, I can't share any details at the moment – it's just a little bit too early to announce and launch those things. I can promise you're going to see a lot of action and excitement from us, and I'm sure from other companies in this space as well, over the next six months.
“Right now, there's a bit of a context limit for each interaction with an AI in a large language model, but there's a lot of exciting research pushing the boundaries”
Krystal Hu: Talia and Ethan, do you have any expectations or hopes on how fast the space could move?
Talia Goldberg: Well, it's moving a lot faster than we even anticipated. The space is moving really quickly in part because there are a whole bunch of technological advances happening at the same time as the hardware that these models are trained on gets better and improves at a Moore's Law rate, and there are new architectures and ways of scaling on that hardware. We're getting better and better at creating new experiences and models.
I don't have an exact prediction of how quickly we'll see different things, but one of the biggest areas that we're watching closely and expect to see a lot of advances in over the next six to 12 months is around personalization and being able to create far more personalized experiences. Right now, there's a bit of a context limit for each interaction with an AI in a large language model, but there's a lot of exciting research pushing the boundaries of those context windows, coming up with new frameworks to create far more personalized experiences and remember each person, each user, each customer, and tons of data points about that person to create a better experience.
“I would encourage everyone that's building new products to ride the ups and the downs”
Ethan Kurzweil: I completely agree with Fergal and Talia. We're going to see predictable and unpredictable applications of this over the next six months. There'll be some unsuccessful ones too, and then the narrative will quickly shift to, “Oh, that didn't do everything we thought it was going to do as quickly as we thought.” Right now, we're into the peak of momentum and euphoria and, dare I say, a little hype in the space. But over time, it'll become as big a deal as we thought.
I would encourage everyone that's building new products to ride the ups and the downs. Don't ride the up as high as it may be feeling like you should right now, but when the narrative changes a little bit, because it will – all new technologies have that “Oh, that wasn't as impactful as quickly as we thought” moment – I would encourage everyone to keep building through that as well.
Krystal Hu: Yeah, I'll definitely take that from you as a crypto investor.
Ethan Kurzweil: It's the same thing. Right now, there's clearly a trough of disillusionment for crypto. And good builders are figuring out, “Okay, what of this technology is applicable? What makes sense?” And we'll see those things come to market over the next couple of years.
Krystal Hu: One common question I saw in the Q&A is: how will this impact human jobs like human agent jobs? I'm curious to hear your thoughts on this specific case.
Ethan Kurzweil: Ever since the advent of the computer, there's been this prediction that it would be a massive replacement for human work at all levels. It does change the nature of work, and this will certainly change in some ways, but it's not going to be a wholesale replacement for humans in any broad way.
“Guess what? Every year, we need way more engineers. It's like Jevon's Paradox. The more that AI is available and the cost goes down, the more demand there is”
Just as Talia alluded to the example of Copilot and people, I've read many articles saying this was going to put all developers out of business over the next two to three years, and that's complete BS. Everyone knows that's not true. But it may allow for more productivity and for the cycle time on software to speed up. It may allow for different skills to be more important. I think it just makes us more productive. It's not that it won't have an impact and won't shift the nature of work in some ways. I don't mean to minimize that because that's very real. But looking at the whole, you'll see we come out ahead.
Talia Goldberg: At least until we reach the singularity, I'm pretty convinced of the need for more and more engineers. You could have gone back 10 years and been like, “Ah, there are all these cool developer tools now that are coming out and making it way easier to integrate things,” or, “Oh gosh, there are these self-serve products like Zapier that make it easy for non-technical people to connect products and integrate things.” And guess what? Every year, we need way more engineers. There's a shortage. It's like Jevon's Paradox. The more that AI is available and the cost goes down, the more demand there is. And I think, in a lot of areas, that paradigm will hold true. But as Ethan said, the exact skills and the way it looks may shift.
Krystal Hu: Yeah, that makes a lot of sense. I saw some interesting observations and questions about whether you should tell people that they are talking to an AI versus a real person. It's an interesting question because it presumes we wouldn't be able to tell.
Ethan Kurzweil: It's a good existential question. If you're talking to a person assisted by an AI, who are you talking to, and what disclosure do you have to make in that case? I don't have any answers to these questions, but they're great ones for us to debate.
Talia Goldberg: I find that AI can sometimes generate responses that are so detailed and so good that there's just no way that a human did it anyway. It's like the reverse of the Turing test.
Krystal Hu: Noch eine Frage zur Sicherheitsfunktion. Ich denke, wir haben das auch schon angesprochen, aber es gibt eine konkrete Frage: „Wie wichtig ist die vertikale Integration der Sicherheitsfunktionalität beim Modellanbieter? Wie wichtig ist es beispielsweise, die Moderations-API von OpenAI mit der Ausgabe des ChatGPT-Modells zu verwenden, im Vergleich zu Mix-and-Match mit der Perspective-API von Jigsaw?“ Fergal, vielleicht haben Sie dazu einige Gedanken oder Erfahrungen zu teilen.
Fergal Reid: Ja, ich bin mit Jigsaws Perspective API nicht vertraut, also weiß ich das nicht genau. Alle Leute bei OpenAI und Tropic und alle anderen, die große Sprachmodelle trainieren, kümmern sich sehr darum, sie nutzbar, sicher und ausgerichtet zu machen, und sie kümmern sich sehr darum, Halluzinationen zu vermeiden. Und sie werden weiterhin in diesen Bereichen arbeiten, um es Unternehmen wie Intercom zu erleichtern, diese auf vertrauenswürdige Weise einzusetzen. Ich bin nicht davon überzeugt, dass wir das vertikal integrieren müssen. Ich weiß nicht, dass Intercom im Geschäft sein muss, um seine eigenen massiven großen Sprachmodelle zu trainieren, damit wir die Produktisierung angehen und sie vertrauenswürdig genug machen können. Ich denke, wir werden sowieso viel Bewegung in diesem Bereich sehen.
Diese Art von generativer KI gibt dem Benutzer viel Freiheit, um herauszufinden, wie das Modell bereitgestellt werden kann. Es gibt diesen aufstrebenden Bereich des Prompt Engineering, und mein Team macht eine Menge davon, wo sie Prompts bearbeiten und versuchen herauszufinden, „Okay, wie frage ich das Modell, was ich will, auf die richtige Art und Weise, um es zu erreichen Geben Sie mir das Ergebnis, das ich suche?“ Das wird zumindest für eine Weile besser, das wird leistungsfähiger und die Modelle werden leichter zu kontrollieren sein.
Ich denke, wir werden sehen können, wie Unternehmen in der Position von Intercom viel Wert generieren und viele Anwendungen und Designs entwickeln. Wir lernen immer noch, wie man Produkte rund um diese neue Technologie entwickelt. Es gibt so viele Freiheitsgrade für Menschen in unserer Position, dies zu nutzen.
„Es gibt immer diese Spannung: Huckepack auf die allgemeine Sache? Wie viel besser wird das allgemeine Modell im Vergleich zur Feinabstimmung?“
Krystal Hu: Es gab auch Fragen dazu, dass Intercom ein eigenes Modell baut. Wie Sie bereits erwähnt haben, gibt es vielleicht Möglichkeiten, eine Mischung daraus zu machen, welches Modell für Ihre Anwendungsfälle besser geeignet ist, während Sie eine API oder ähnliches erstellen?
Fergal Reid: Ja, bei der Größenordnung, in der diese Modelle derzeit trainiert werden, scheint es wirtschaftlich nicht sinnvoll zu sein, dass jedes Unternehmen in der Größe von Intercom seine eigenen ausbildet. Aber auch hier gibt es ein Spektrum. Wir werden Fachwissen im Design um sie herum entwickeln und wissen, was wir von dem Modell verlangen müssen. Und wir werden wahrscheinlich neue Funktionen in Unternehmen wie Intercom-Feinabstimmungsmodellen sehen. Viele dieser neuen Modelle werden mit Reinforcement Learning mit menschlichem Feedback trainiert. Die Kosten dafür werden wahrscheinlich im Laufe der Zeit sinken, und wir können sie besser an unsere spezifischen Anwendungsfälle anpassen.
Da ist immer diese Spannung: Huckepack auf das Allgemeine? Wie viel besser wird das allgemeine Modell im Vergleich zur Feinabstimmung und Durchführung bestimmter Dinge? Wir werden sehen müssen, wie sich dieser Bereich entwickelt, aber ich denke, dass Unternehmen viele Freiheitsgrade haben werden, um diese Modelle zu übernehmen und sie für ihren Bereich anzupassen und zu produzieren. Wir befinden uns in den frühen Tagen der Produktisierung dieser Technologie. Es wird sich viel ändern, und es wird viel einfacher werden, Prioritäten zu setzen.
Krystal Hu: Wir nähern uns fast dem Ende unseres wunderbaren Gesprächs, aber wir können noch zwei Fragen stellen. Bei einem geht es darum, wie Unternehmen ChatGPT übernehmen und daraus Nutzen ziehen. Sie haben gesehen, wie Unternehmen begonnen haben, dies in ihre Angebote zu integrieren, und auf der anderen Seite haben sich Unternehmen, insbesondere stark regulierte Banken, meiner Meinung nach über den Informationsdienst und Datenschutzfragen gewundert und ihren Mitarbeitern verboten, auf Firmenlaptops herumzuspielen. Ich bin gespannt, was Talia und Ethan zu dieser Frage denken.
Talia Goldberg: In unserem gesamten Portfolio denken viele Softwareunternehmen, die vielleicht nicht einmal in Kategorien wie Intercom sind, die wirklich an der Spitze stehen, wie: „Hey, wie wichtig ist das für mein Geschäft und wie kann ich könnte ich einige dieser Modelle oder ChatGPT-APIs in mein Produkt integrieren?“ Sehr repetitive Aufgaben können für eine KI wirklich großartig sein, um sie zu automatisieren oder zu rationalisieren. Eines unserer Unternehmen erhält viele Buchhaltungsinformationen von seinen Kunden, und es muss abgleichen und kennzeichnen, wenn ein Fehler vorliegt oder etwas nicht stimmt. Und sie hatten diese regelbasierten Systeme in der Vergangenheit, aber Sie können KI anwenden und haben eine viel bessere Genauigkeit. Ein weiteres interessantes Beispiel bezieht sich auf das Zusammenfassungsstück. Wenn ein Kunde mit einem Callcenter-Agenten oder einem Vertriebsmitarbeiter spricht, können Sie dieses Gespräch zusammenfassen und benutzerdefinierte Marketingmaterialien nur für diese Person erstellen.
Krystal Hu: Eine letzte Frage an Talia und Ethan. Die Leute haben gefragt, wonach Sie suchen, wenn Sie in Pre-Seed-Startups oder, denke ich, Startups im Allgemeinen investieren.
„Wir versuchen, es auf die Schlüsselfrage herunterzubrechen: ‚Bewegt das wirklich die Nadel für eine bestimmte Rolle oder einen bestimmten Personentyp?'“
Ethan Kurzweil: Das ist eine großartige Frage. Darauf gibt es so viele unterschiedliche Antworten. Pre-Seed ist etwas früher, als wir normalerweise investieren, um diesen Haftungsausschluss herauszustellen – normalerweise investieren wir in einen späteren Seed oder Serie A oder B. Aber unsere Philosophie ist es, nach Hyper-Wachstumsmodellen zu suchen, wo immer wir sie finden können ihnen. Und normalerweise brechen wir das auf, indem wir versuchen, durch Roadmapping eine Vordiagnose zu stellen, und Talia war diejenige, die einen Großteil unseres Denkens über KI und ihre Anwendungen auf verschiedene Dinge gebracht hat, und wir haben diese Roadmaps von verschiedene thematische Bereiche, die wir für ziemlich interessant halten. Sie können sehr weit gefasst sein, wie Cloud Computing oder die Konsumerisierung des Gesundheitswesens, oder eng gefasst sein, wie die Auswirkungen von KI auf den Kundenservice.
Ich würde die Leute ermutigen, nachzuschauen, weil wir viel in unserem Blog und in den sozialen Medien unserer aktiven Abschlussarbeit veröffentlichen, um zu sehen, ob das, was Sie bauen, mit etwas übereinstimmt. Und dann suchen wir im Allgemeinen nach: „Hat dies die Art von Auswirkungen, die die Art und Weise verändern wird, wie wir arbeiten oder Unterhaltung machen, oder etwas, das ein Paradigmenwechsel in einigen Geschäftsprozessen oder Verbraucherbedürfnissen sein könnte?“ Darauf brechen wir es herunter. Wir haben festgestellt, dass jede breit angelegte Verhaltensänderung zu Hyperwachstumsunternehmen und Möglichkeiten für Startups führt, die Art und Weise, wie gearbeitet oder gespielt wird, oder was auch immer zuvor getan wurde, zu stören. Und so versuchen wir, es auf die Schlüsselfrage herunterzubrechen: „Bewegt das wirklich die Nadel für eine bestimmte Rolle oder einen bestimmten Personentyp?“
Krystal Hu: Das ist das Ende unseres Gesprächs. Für diejenigen, die noch keine Gelegenheit hatten, die neuen Funktionen von Intercom auszuprobieren, empfehle ich Ihnen, selbst mit der Zusammenfassung und einigen anderen Funktionen zu spielen. Und wenn Sie sich für den Venture-Bereich interessieren, werfen Sie unbedingt einen Blick auf die Website von Bessemer. Wie alle sagten, werden wir in sechs Monaten zurückblicken und einige der Vorhersagen werden wahr werden, und vielleicht werden einige völlig anders sein. Ich hoffe, wir haben ein anderes Mal Zeit, um zurückzugehen und weitere Fragen zu beantworten. Nochmals vielen Dank, Talia, Ethan und Fergal, für Ihre Zeit heute.
Ethan Kurzweil: Danke, dass Sie uns haben.
Talia Goldberg: Tschüss.
Fergal Reid: Vielen Dank an alle. Tschüss.