Efectul GPT: O nouă eră a serviciilor pentru clienți

Publicat: 2023-03-10

Descoperirile recente cu modele lingvistice mari au depășit toate așteptările noastre. Am reunit experți din industrie pentru o conversație despre GPT și despre cum va modela viitorul serviciului pentru clienți.

Nu putem spune că ne-a luat prin surprindere. De ani de zile, industria a lăudat potențialul AI și învățarea automată de a transforma radical modul în care lucrăm, mai ales că progresele în puterea de calcul și stocarea datelor au făcut posibilă antrenarea modelelor din ce în ce mai mari. Dar nu ne așteptam cât de repede vor debloca noi posibilități recentele progrese în ChatGPT OpenAI.

La Intercom, am expediat întotdeauna pentru a învăța. Numai prin livrarea rapidă a noilor funcții putem obține feedback adecvat, putem învăța din el și putem repeta din nou și din nou pentru a servi mai bine clienții noștri. Și, desigur, asta am făcut cu această nouă tehnologie. În ultimele două luni, am livrat câteva funcții bazate pe inteligență artificială către 160 de clienți. Și, deși este încă prea devreme pentru a spune cum se vor desfășura aceste modele lingvistice mari (LLM) în viața noastră, credem că am atins un punct de inflexiune crucial – mai ales când vine vorba de serviciul pentru clienți.

Și așa, săptămâna trecută, am găzduit un webinar pentru a aprofunda puțin în cazurile de utilizare a GPT în afaceri. Este acest val de inovație diferit de valurile trecute? Va transforma modul în care lucrăm și modul în care companiile interacționează cu clienții și potențialii? Poate declanșa o nouă generație de startup-uri? Pentru a vă oferi o perspectivă mai mică, am invitat câțiva oameni mari din scena startup-ului să intervină.

În episodul de astăzi, veți auzi de la:

  • Ethan Kurzweil, membru al consiliului de intercom și partener la Bessemer Venture Partners
  • Fergal Reid, propriul nostru director de Machine Learning
  • Krystal Hu, VC și reporter pentru startup-uri la Reuters
  • Talia Goldberg, partener la Bessemer Venture Partners

Vor vorbi despre modele lingvistice mari, cum ar fi ChatGPT, despre modul în care companiile încorporează această tehnologie și despre cum va modela viitorul industriei de servicii pentru clienți.

La scurt timp? Iată câteva concluzii cheie:

  • Începem să vedem cazurile de utilizare dificile ale modelelor de limbaj mari – există un potențial mare de creștere a serviciilor pentru clienți datorită regularității și utilizării limbajului natural.
  • Deocamdată, se așteaptă ca modelele mari de limbaj să sporească capacitățile umane, mai degrabă decât să le înlocuiască, deoarece pot ajuta profesioniștii să devină mai productivi și eficienți în munca lor.
  • Deși este încă prea devreme pentru a măsura succesul experimentului beta al Intercom, adoptarea și utilizarea celor mai recente funcții bazate pe inteligență artificială au fost uriașe, iar feedbackul timpuriu este foarte promițător.
  • Modelele de limbă mari se pot scumpi foarte repede. Totuși, în timp, vor deveni mai ieftine și mai omniprezente, permițând mai multe experimente și descoperiri.
  • Deși există încă probleme cu halucinațiile, puteți configura și constrânge aceste modele pentru a-l face mai demn de încredere atunci când situația necesită un grad mai mare de încredere.
  • Modelele nu sunt unice pentru toate. Este probabil ca, în viitor, companiile să ruleze o combinație personalizată de modele diferite, personalizabile, care se potrivesc diferitelor probleme de afaceri.

Dacă îți place discuția noastră, vezi mai multe episoade din podcastul nostru. Puteți urmări pe Apple Podcasturi, Spotify, YouTube sau puteți accesa fluxul RSS în playerul dorit. Ceea ce urmează este o transcriere ușor editată a episodului.


Creșterea ChatGPT

Krystal Hu: Vă mulțumesc foarte mult pentru toată lumea care și-a acordat timp să se alăture. Sunt Krystal Hu, și acopăr venture și startup-uri pentru Reuters. După cum știți mulți dintre voi, inteligența artificială și valul ChatGPT au izbucnit în scenă în ultimele luni, iar o mare parte din munca mea este să îmi dau seama tehnologia și modul în care aceasta schimbă diferite aspecte ale vieții. Pentru subiectul de astăzi, ne vom concentra asupra modului în care ChatGPT va modela viitorul serviciului pentru clienți. Vom discuta despre ce sunt exact modelele ChatGPT și de limbaj mari, cum va fi utilizată această tehnologie, impactul pe care îl va avea asupra tehnologiilor existente și viitoare, cum încorporează startup-urile această tehnologie și cum se construiesc noi companii.

Avem un panou grozav astăzi cu noi. Doi investitori extraordinari de la Bessemer: Talia Goldberg și Ethan Kurzweil. Talia are sediul în San Francisco, investește în afaceri de internet și software pentru consumatori și lucrează cu companii precum ServiceTitan și Discord. Ethan Kurzweil are, de asemenea, sediul în San Francisco și conduce investitori într-o varietate de verticale, inclusiv platforme de dezvoltare, infrastructură de date noi, aplicații digitale pentru consumatori și cripto.

Și apoi, îl vom avea pe directorul de învățare automată la Intercom, Fergal Reid, care ne oferă o privire din interior despre modul în care Intercom încorporează această tehnologie în cele mai recente oferte – inclusiv câteva funcții de asistent AI. Aștept cu nerăbdare să le aleg mintea și să aud ce văd atât în ​​ceea ce privește startup-ul, cât și în ceea ce privește riscul și schimbările pe care le-ar putea aduce GPT. Pe tot parcursul procesului, dacă aveți întrebări, nu ezitați să introduceți întrebarea dvs. în chat, iar apoi vom avea aproximativ 15 până la 20 de minute la sfârșitul conversației pentru a parcurge întrebările.

Bănuiesc că voi începe cu tine, Fergal, pentru că ești tehnologul din sală și ești în prima linie în incorporarea GPT în ofertele Intercom. Poate puteți începe prin a ne oferi câteva informații despre context și explicați ce este GPT și ChatGPT și cum ați ajuns să încorporați această tehnologie?

„Nu voi codifica reguli și nu voi spune în mod specific „Învățați să preziceți X versus Y””

Fergal Reid: Este o perioadă foarte interesantă în tehnologie. Voi presupune că mulți oameni au văzut probabil ChatGPT în acest moment, deoarece tocmai a făcut un val atât de mare. Dar din perspectiva tehnologiei, din viziunea mea îngustă asupra lumii, sunt la Intercom de aproximativ cinci ani și conduc echipa de învățare automată. Și lucrurile de învățare automată pe care le-am făcut folosesc algoritmi care au existat de ceva vreme – folosind algoritmi de învățare supravegheată, algoritmi care învață să deosebească lucrurile. Puteți spune: „Hei, haideți să prezicem dacă cineva va cere un lucru sau altul”. Cu aceste sisteme de învățare automată, le oferiți o mulțime de date de antrenament: „Hei, acesta este un exemplu dacă cineva ți-a pus o întrebare și acesta este un exemplu dacă cineva ți-a pus o altă întrebare.”

Și ceea ce este nou și diferit cu acest ultim val de IA generativă este că, în loc să înveți doar un model să prezică un lucru sau altul, spui: „Hei, model. Aflați cum să generați date noi de acest tip. Aflați cum să generați o imagine.” Îi dai ceva text și învață să genereze o imagine care se corelează cu acel text sau, cu ChatGPT, pur și simplu îi vorbești și îi dai ceva text și devine destul de bun la generarea mai multor text ca răspuns la asta.

„Avem acest model foarte mare, îi punem întrebări în engleză, îi spunem să facă lucruri în engleză și este destul de bun să facă ceea ce îi spunem.”

Este doar un mod diferit de a face învățarea automată. Nu voi codifica reguli și nu voi spune în mod specific „Învățați să preziceți X versus Y”. În schimb, voi lua o cantitate foarte mare de date de antrenament, voi face un model care este foarte bun în încercarea de a prezice acele date de antrenament și apoi, sper să-l pot face să facă lucruri utile, generând exemple noi.

Cu ChatGPT, îi întrebi ceva dându-i un text și spunând „Generează ceea ce urmează”. Și, în mod surprinzător, este destul de util. Puteți spune „Hei, iată o conversație de asistență pentru clienți, iar acesta este rezumatul conversației de asistență”, apoi să-l oferi ChatGPT și va genera ce se întâmplă în continuare sau ce s-ar aștepta să vadă în continuare. Și poate spuneți: „Acesta este rezumatul”, iar apoi apare un rezumat. Și asta este foarte util. Este un mod foarte general de a construi caracteristici și sisteme. În loc să codificăm un nou sistem de învățare automată pentru fiecare lucru mic, avem acest model foarte mare, îi punem întrebări în engleză, îi spunem să facă lucruri în engleză și este destul de bun să facă ceea ce îi spunem. Și așa, la Intercom, am încercat să folosim asta pentru a construi caracteristici ale produsului.

Un schimbător de joc pentru serviciul clienți

Krystal Hu: Vreau să-i aduc pe Talia și Ethan pe scenă ca investitori prolifici în spațiu. Ați văzut câteva valuri tehnologice. Cum este aceasta despre AI generativă diferită și care sunt domeniile de aplicații de care ești entuziasmat?

Talia Goldberg: Sigur, mulțumesc că m-ai primit. Aceasta a fost o imagine de ansamblu grozavă a ceea ce este IA generativă. Este amuzant, chiar înainte de această întâlnire, mă uitam la o bucată pe care am publicat-o pe blogul nostru vara trecută, poate cu opt sau nouă luni în urmă, și asta a fost cu câteva luni înainte de lansarea ChatGPT, dar începeam să vedem o mulțime de impuls. și motiv pentru a fi entuziasmat de ceea ce se întâmplă cu modelele de limbaj mari în special și de potențialul AI și al AI generativă ca acest nou val cu adevărat puternic de inteligență artificială.

Și am avut o predicție: „Astăzi, mai puțin de 1% din conținutul online este generat folosind AI, iar în următorii 10 ani, estimam că cel puțin 50% va fi generat sau amplificat de AI.” Și am dezbătut asta și ne-am gândit că este un lucru sălbatic de spus, dar la dracu, am subestimat cât de repede AI poate transforma multe din informațiile pe care le vedem. Aș spune că ar putea fi de 50% în următorii doi ani din interacțiunile noastre online, conținutul și media. Implicațiile acestui lucru, cred, sunt vaste pentru o mulțime de informații și cunoștințe, inclusiv asistența pentru clienți.

„Vedeți imediat cazurile de utilizare lipicioase în care tehnologia este pregătită pentru a perturba, îmbunătăți, crește și îmbunătăți, iar asistența pentru clienți este direct pe calea ferată pentru asta.”

Krystal Hu: Ethan, lucrezi cu Intercom de ceva vreme. Acesta este momentul pe care credeți că serviciul clienți l-a așteptat? Pentru că simt că tehnologia și oportunitatea sunt de aur pentru aplicațiile de servicii pentru clienți precum Intercom.

Ethan Kurzweil: Da, simt că aceasta este poate aplicația de vârf a modelelor mari de limbaj și ceea ce pot face ele. Dacă faci un pas înapoi și te gândești la schimbările tehnologice și la schimbările de platformă, cum ar fi momentul smartphone-ului, momentul iPhone și lucruri de genul acesta, ceea ce se întâmplă devreme este că există toată această entuziasm și o mulțime de dezvoltatori și creatori se grăbesc într-un spațiu, apoi ai acest washout în care vezi care sunt aplicațiile bleeding Edge unde se lipește mai întâi și cele în care nu te bagă într-un pic de deziluzie. Cred că probabil că suntem încă puțin devreme în această curbă, dar vedeți imediat cazurile de utilizare lipicioase în care tehnologia este pregătită pentru a perturba, îmbunătăți, crește și îmbunătăți, iar asistența pentru clienți este direct pe calea ferată pentru asta.

Lucrez cu Intercom acum aproape opt ani și jumătate, iar Intercom a fost o echipă care a fost întotdeauna în fruntea adoptării de noi tehnologii atunci când sunt gata. Și îmi amintesc că acum doi sau trei ani, oamenii spuneau: „Automatizare, automatizare, automatizare”. Iar conducerea de produs de la Intercom a spus întotdeauna: „Nu este încă suficient de bun. O putem face, o putem lipi în așa fel încât să putem bifa o casetă pe un formular de solicitare a funcțiilor, dar nu va duce la un flux uman foarte bun.” Intercom a fost întotdeauna fondat în jurul acestei idei de a face afacerile pe internet personale. Și dacă aveți un bot care nu sună personal, este ortogonal cu acesta.

Faptul că Intercom îl folosește cu atâta succes în fluxul lor vă arată că tehnologia este gata și că acesta este unul dintre multele, multele lucruri pe care le vom vedea cu impact. Nu totul dintr-o dată, dar în timp, vom vedea un impact mult mai mare, oferind unei mașini capacitatea de a conversa într-un mod asemănător omului.

„Vă uitați la curba și rata de îmbunătățire și va fi și mai bine peste câteva luni, peste câteva trimestre și peste câțiva ani.”

Talia Goldberg: Dacă pot adăuga un lucru, cred că asistența pentru clienți este domeniul inițial perfect pentru ca AI să înceapă să aibă un impact. Și unul dintre motivele pentru care este că folosește limbajul natural. Puteți comunica cu AI folosind limba engleză, iar acesta va răspunde în engleză. Nu trebuie să codificați - generează informații. Și așa este serviciul și asistența pentru clienți – generarea de experiențe grozave, asemănătoare omului, care pot fi personalizate, soluționând reclamațiile și devenind din ce în ce mai bune în timp. Prin urmare, obțineți și această buclă de feedback grozavă utilizând-o în asistența pentru clienți.

Chiar dacă pot exista unele provocări și lucruri care sunt dificile în prezent, tehnologia și potențialul sunt deja foarte mari, așa cum a spus Ethan. Te uiți la curba și rata de îmbunătățire și va fi și mai bine peste câteva luni, peste câteva trimestre și peste câțiva ani. Este una dintre categoriile de care suntem cel mai încântați și credem că fiecare companie poate profita de ea și trebuie să se gândească la asta.

Krystal Hu: Fergal, acesta este momentul potrivit pentru a ne oferi o privire de ansamblu asupra lansării recente a funcției la Intercom și a modului în care ați încorporat ChatGPT în ea.

Fergal Reid: Absolut. Și doar pentru a face ecou sentimentele lui Talia și Ethan aici, există atât de multă structură în domeniu, există atât de multe lucruri pe care un agent de asistență pentru clienți le face atunci când fac din nou același lucru pe care l-au făcut în ultima zi, sau poate unul. dintre colegii lor de echipă a făcut-o înainte și există atât de multă regularitate și structură încât se simte cu adevărat copt pentru un sistem care învață și folosește AI pentru a face oamenii mai rapid.

„Am simțit că cel mai bun loc pentru a începe a fost cu un om în buclă. Cineva este împachetat în Inbox și vrem să-l facem mai rapid, dar ei sunt în continuare capabili să verifice și să aprobe.”

Când s-a lansat ChatGPT, în același timp, OpenAI a lansat acest nou model pentru uzul dezvoltatorilor, text-davinci-003. Avem o relație cu OpenAI de mult timp și am simțit, atunci când ne-am uitat la acel model, că depășește cu adevărat un prag de utilitate și că putem construi cu el. Și așa, am făcut niște benchmarking inițial. Oamenii petrec mult timp în Inbox și un lucru pe care trebuie să îl facă mult este să scrie rezumate ale conversației pe care tocmai s-au uitat înainte de a o preda. Această tehnologie părea să fie cu adevărat grozavă în rezumarea conversațiilor și ne-am spus: „Putem construi o funcție care să facă asta și să o oferim clienților noștri beta?” Interfonul are acest principiu de „navi pentru a învăța”. Credem în livrarea de noi funcții extrem de rapid către clienți, astfel încât să putem afla dacă a rezolvat o problemă sau este mai mult o curiozitate.

Și așa, practic, la începutul lunii decembrie, am început un proiect pentru a vedea dacă am putea livra rapid unele funcții care să funcționeze cu reprezentanții de asistență pentru clienți în Inboxul propriu-zis pentru a le face mai rapide. Una a fost rezumarea, cu alte caracteristici care îi ajută să compună textul mai rapid. Și am simțit cu adevărat că este locul potrivit pentru a începe cu această tehnologie, deoarece AI generativă are un dezavantaj. Nu este întotdeauna atât de precis pe cât ai putea crede. Este ușor să te uiți la ChatGPT, să-i pui o întrebare, îți oferă un răspuns și te gândești: „Este uimitor”. Și apoi îl citești cu un pic mai detaliat și, de fapt, uneori, lucrurile înțeleg greșit. Am simțit că cel mai bun loc pentru a începe a fost cu un om în buclă. Cineva este împachetat în Inbox și vrem să-l facem mai rapid, dar poate să verifice și să aprobe în continuare. A fost un punct de plecare grozav.

Acum, văd oameni care întreabă în comentarii: „Hei, ce zici de boți și lucruri care pot răspunde la întrebări ei înșiși?” Credem că va veni și poate că va veni în curând, dar încă îl explorăm. Marea problemă pentru noi este acuratețea. Simțim că este pregătit acum să avem un om în buclă, în care repetarea de asistență este mai rapidă. Și probabil, în curând, sunt lucruri care merg în următorul pas. Este o zonă foarte interesantă.

Ethan Kurzweil: Pentru a discuta despre asta, primim câteva întrebări interesante, orientate spre viitor, cum ar fi: „Acest lucru îmi va face zilele numărate ca copywriter?” Nu cred deloc. Unde este și probabil să rămână această tehnologie pentru o perioadă este în creșterea capacităților umane și a inteligenței umane, făcându-vă mai productiv ca copywriter, dar nu vă înlocuiește neapărat pentru că, în primul rând, tehnologia nu este încă acolo și, în al doilea rând, bara pentru ceea ce este uimitoare asistență pentru clienți sau orice comunicare cu o companie va crește și va crește pe măsură ce avem aceste resurse. În timp ce tehnologia poate fi capabilă să se ocupe de unele cazuri de utilizare pentru copywriter și răspunsul de asistență pe cont propriu, bara pentru ceea ce va fi o copie foarte bună și un suport foarte bun și așa mai departe va crește pe măsură ce vom avea acces la aceste tehnologii . Starea ideală este că vei avea acces la aceste tehnologii pentru a fi mai productiv, dar nu te va înlocui prea curând.

Talia Goldberg: Da. Îmi place cum Wyatt tocmai a spus că este un multiplicator de abilități. Vorbim mult pe plan intern despre exemplul Copilot, care este ca auto-completarea pentru codare și deja îi face pe ingineri mult mai eficienți. Nu înlocuiește deloc inginerii sau ingineria, dar o poate spori. Un exemplu de bază în acest sens ar putea fi calculatorul. Pe vremuri, obișnuiam să facem matematică de mână. Acum folosim calculatoare, dar matematica este încă foarte importantă – toți trebuie să o învățăm, iar matematicienii sunt foarte importanți în această lume. Se poate spune că rolul tău poate deveni și mai important deoarece, pe măsură ce costul de creare a conținutului scade și există o mulțime de conținut și informații diferite, crearea de conținut și informații care pot ieși în evidență și să se ridice deasupra va fi și mai mare. primă în următorii câțiva ani.

Experimentul interfonului cu GPT

Krystal Hu: Au trecut câteva săptămâni de când Intercom și-a lansat funcțiile asistate de AI. Care este feedback-ul timpuriu pe care l-ați văzut? Cum măsurați succesul încorporării acestei tehnologii?

„Vedem multă adoptare, multă entuziasm și multă utilizare”

Fergal Reid: Voi fi foarte transparent în privința asta – încă nu am un răspuns pe deplin satisfăcător la acea întrebare. Ceea ce vă pot spune este că acum suntem live, avem mii de clienți care îl folosesc în mod regulat – am avut multă adopție. Probabil că vom încerca să măsurăm dacă acest lucru i-a făcut pe oameni mai productivi, pentru că să spunem, pentru propria noastră echipă CS, putem aduna telemetrie pe „Ești mai rapid dacă folosești aceste funcții?” și a pus împreună o formă de experiment controlat pentru asta. Ne place întotdeauna să încercăm să obținem o formă de date reale despre asta la un moment dat, dar nu suntem încă la acel moment. Probabil că vom avea câteva cifre despre asta sau mai multe despre o înțelegere, cel puțin pe plan intern, într-o lună sau două, cred.

Ceea ce vă pot spune în acest moment este că vedem multă adopție, multă entuziasm și multă utilizare. Există cu siguranță câteva caracteristici, cum ar fi rezumatul, despre care clienții ne spun că le economisește timp substanțial. Am avut clienți care ne-au spus lucruri precum „Hei, pentru unele conversații, poate dura atât de mult timp pentru a scrie rezumatul pentru o predare cât este nevoie pentru a rezolva problema utilizatorului final.” Și așa, cu siguranță ne simțim bine în privința asta.

În unele dintre celelalte caracteristici ale noastre, scrieți o scurtătură, un pic ca GitHub Copilot. Ne-am inspirat de la Copilot, iar în Copilot, dacă ești programator, poți scrie un comentariu sau stenografie, iar apoi va completa codul. Una dintre caracteristicile noastre este „extinderea”, în care scrieți o scurtătură și o transformă într-un mesaj de asistență mai lung. Uneori, asta funcționează și economisește timp oamenilor, dar încă nu avem date despre asta. Ceea ce avem live în acest moment este doar o versiune de generație 1 a acesteia. Și avem prototipuri ale unei versiuni de generația 2. În acest moment, scrieți stenografia, iar modelul de limbaj mare extinde asta. Ceea ce încercăm să facem în schimb este să spunem: „Hei, haideți să intrăm ultima dată când ați răspuns la o astfel de întrebare. Să introducem macrocomenzi care sunt relevante pentru asta.” Și avem câteva prototipuri interne care funcționează destul de bine. Încă inovăm și facem lucruri care vor muta cu adevărat acul, dar încă nu avem valori. Curând.

„Am în Tableau un grafic al cheltuielilor noastre zilnice cu OpenAI, pe care îl urmărim nervos”

Krystal Hu: Pentru a continua acest lucru, cum măsori costul? După cum am înțeles, probabil că trimiteți întrebări către OpenAI și ei percep, cred, doi cenți la o mie de caractere sau ceva de genul ăsta. Și cred că, pe măsură ce adopția ta crește, și acea factură se îngrămădește. Aveți vreo învățare sau observație de împărtășit despre încorporarea acestei tehnologii?

Fergal Reid: Am în Tableau un grafic al cheltuielilor noastre zilnice cu OpenAI, pe care îl urmărim nervos. Este cu siguranță o considerație. Am menționat caracteristica de rezumare și am construit-o într-un mod foarte uman în buclă, în care trebuie să solicitați rezumatul înainte de a preda întrebarea. Și un lucru pe care clienții noștri ne spun este: „Hei, de ce trebuie să cer acest rezumat? Vă rugăm să păstrați tot timpul un rezumat în bara laterală, astfel încât să nu fiu nevoit să-l cer niciodată.” Și asta ar deveni foarte scump pentru că dacă ar trebui să plătim doi cenți de fiecare dată când cineva spune ceva nou în conversație și rezumatul s-ar schimba, asta ar deveni extrem de scump. Trebuie neapărat să luăm în considerare costul într-un mod în care nu o facem cu modele mai tradiționale de învățare automată.

Acestea fiind spuse, OpenAI tocmai și-a anunțat API-ul ChatGPT și cred că a surprins mulți oameni, deoarece era de 10 ori mai ieftin decât modelele similare anterioare din acea serie. Este posibil ca costul să scadă destul de repede și aceste caracteristici să fie adoptate pe scară largă. Dar alte startup-uri sau companii care se construiesc în acest domeniu? Sfatul pe care l-am da la Intercom este să încercați să intrați rapid pe piață, deoarece există o valoare reală aici pentru clienții dvs. pe care o puteți construi și debloca. Și probabil că costul va scădea fie pentru că modelele vor deveni mai ieftine pe măsură ce furnizori precum OpenAI își vor da seama cum să le facă mai eficiente, fie pentru că veți găsi modalități mai eficiente de a le utiliza. Veți găsi modalități de a spune: „Hei, pot folosi un model generativ mai ieftin pentru prima parte a conversației și apoi, când am această sarcină mult mai grea care necesită mai multă acuratețe, îl voi folosi pe cel mai scump. .” Ethan și Talia probabil au o viziune mult mai largă despre asta decât mine și mi-ar plăcea să le aud gândurile.

„Nu ești niciodată sigur ce vor face dezvoltatorii cu o nouă tehnologie până când nu o au – și o au acolo unde nu plătesc doi cenți de fiecare dată când fac un apel API”

Ethan Kurzweil: Ei bine, este un bun exemplu a ceea ce vezi uneori cu aceste tehnologii de ultimă oră. La început, cazurile de utilizare de mare valoare le primesc, iar tu descrii actualizarea acelui principiu. La Intercom, aceasta este funcția de rezumat atunci când este solicitată astăzi. Dar, în timp, tehnologia va fi mult mai omniprezentă și mai ieftină. Și atunci poate prolifera în mai multe cazuri de utilizare în care costul marginal de a face asta este prohibitiv astăzi și asta le permite dezvoltatorilor să descopere alte aplicații ale modelelor de limbaj mari în acest tip de AI unde nu prea anticipăm.

La Bessemer, Talia și cu mine încercăm să găsim foi de parcurs despre unde credem că va ajunge tehnologia, dar, în calitate de investitor orientat spre dezvoltator, una dintre elementele primitive la care mă gândesc mereu este că nu ești niciodată sigur cu ce vor face dezvoltatorii. o nouă tehnologie, o nouă platformă, un nou acces la ceva până când îl au – și îl au acolo unde nu plătesc doi cenți de fiecare dată când efectuează un apel API – și pot face lucruri care sună absurd la început.

Sunt încântat că tehnologia ajunge la punctul în care există doar o mulțime de experimente. Sunt sigur că în foaia de parcurs al produselor Intercom, nu astăzi, ci peste un an, vor exista unele lucruri pe care nu le-am prezis, dar care au o valoare foarte mare pentru clienți. Și vor exista câteva startup-uri care tocmai au apărut pentru că au discutat despre un mod special în care poți folosi textul generativ și a creat o experiență de utilizator cu adevărat grozavă pentru cineva.

Talia Goldberg: Există un exemplu distractiv care cred că poate sublinia o parte din potențialul uman de a spori experiențele care sunt relevante pentru susținere. Dacă vorbesc cu, să zicem, unii din echipa Intercom cu accente irlandeze puternice și probabil că ei cred că am un accent occidental nebun, ne este greu, uneori, să ne înțelegem când suntem super entuziasmați și vorbesc foarte repede. Sună ca o limbă diferită, chiar dacă toată lumea vorbește engleză. AI poate, în timp real, să schimbe puțin accentele unei persoane pentru a o face mai ușor de înțeles în ambele moduri. Deci, dacă am un accent irlandez sau un accent britanic, asta se va traduce într-un accent din California și asta poate îmbunătăți într-adevăr experiența în anumite moduri prin scăderea barierelor de comunicare.

Ethan Kurzweil: Este un exemplu bun, deoarece tehnologia se află în mijlocul comunicării directe, dar o face mai asemănătoare omului, ceea ce sună ca un oximoron, dar dacă este bine implementată, te-ar putea face să te simți mai conectat într-un context de mesagerie sau comunicare.

Talia Goldberg: Aceasta este promisiunea internetului – ne aduce pe toți împreună și dărâmă barierele. Sunt cu adevărat un mare credincios în potențialul de a supraalimenta asta.

Coeficientul de încredere

Krystal Hu: Cred că mulți oameni au întrebări despre cum vă asigurați că totul va fi corect în ceea ce privește fluxul de informații și că va fi corect. Miza este diferită în diferite cazuri de utilizare, dar, în general, nu doriți să furnizați informații greșite clienților dumneavoastră. Cum te asiguri de asta?

„Nu este că tu, ca om, nu poți vedea niciodată acele lucruri pentru că ar fi imposibil, ci că poți să filtrezi în mod corespunzător. Așa mă gândesc la modelele mari de limbaj”

Talia Goldberg: Poate doar un comentariu, apoi cred că îl voi lăsa pe Fergal să răspundă mai precis despre Intercom. Modelele sunt antrenate pe cantități enorme de date – multe miliarde și miliarde de puncte de date și informații. Și așa, indiferent cât de mult ați încerca să păcăliți datele sau să introduceți date false, este încă o porțiune atât de minusculă din totalul datelor. Acesta este un lucru de reținut atunci când vă gândiți la modul în care sunt create aceste modele.

Un alt lucru sunt intrările de date. Știu că există îngrijorări cu privire la faptul că este antrenat pe date care sunt incorecte și nu mă înțelege greșit, cu siguranță există provocări cu halucinațiile și alte domenii, așa că sunt multe de îmbunătățit. Dar în viața ta, nu este că te plimbi și nu vezi lucruri care ar putea fi greșite sau părtinitoare sau chiar dezinformare. Întâlnești asta, dar îți folosești raționamentul și mintea și există o mulțime de alte date bune. Și așa, nu este că tu, ca om, nu poți vedea niciodată acele lucruri pentru că ar fi imposibil - ci că poți să filtrezi în mod corespunzător. Așa mă gândesc la modelele mari de limbaj. Vor exista unele situații în care există date și informații care nu sunt ceea ce ți-ai dori în setul de antrenament, dar capacitatea modelelor lingvistice de a le filtra și de a ajunge la răspunsul corect ar trebui să fie din ce în ce mai bună în timp.

„Acesta ar putea fi unul dintre parametrii: „Câtă încredere aveți în acest răspuns?” Dacă nu este suficient de bun, nu-l da”

Ethan Kurzweil: Există câteva întrebări interesante atât cu privire la confidențialitatea, cât și la acuratețea datelor. Un alt lucru de reținut la întrebarea privind acuratețea datelor înainte de a ajunge la partea de confidențialitate este că, în viitor, și în unele modele de limbă mari, puteți seta de fapt un coeficient de precizie. Este un fel ca atunci când un AI a fost programat să câștige Jeopardy – avea un interval de încredere în care știa răspunsul la o întrebare cu 90% de încredere sau 60% de încredere. Și în acel context, în care pierzi doar câteva puncte cu un răspuns greșit, ei stabilesc intervalul destul de scăzut la 40% sau ceva de genul. Dacă ești 40% sigur sau mai mult, ce naiba, du-te și încearcă să răspunzi la întrebare.

Poate exista un context în care doriți precizie la nivel uman, o setați acolo și, de multe ori, când IA nu poate ajunge la percentila 99, va trece la un om sau ceva de genul ăsta. Poate exista un anumit context chiar și în armată, chiar și în industriile foarte reglementate, unde aveți mai multă toleranță pentru o presupunere educată asistată de AI. Și acesta ar putea fi unul dintre parametrii: „Câtă încredere aveți în acest răspuns?” Dacă nu este suficient de bun, nu-l da.

Fergal Reid: Pentru a intra despre asta, Ethan, aceasta este cu siguranță o convingere puternică a produsului pe care o avem în interior în Intercom, și anume că este foarte probabil să existe o varietate de toleranțe aici. Vor fi niște clienți cu o toleranță destul de mare pentru „Dă-mi sugestia; este în regulă dacă sugestia este greșită ocazional.” Și vor exista și alți clienți cu o toleranță foarte scăzută. Ne așteptăm că va trebui să avem un anumit grad de configurare în jurul acestui lucru.

„Avem această nouă tehnologie care poate face predicții mult mai bune și poate face lucrurile mult mai repede. Cum să luăm asta și să-l facem suficient de demn de încredere, sau cel puțin să permitem clienților să aleagă?”

Doar pentru a te scufunda în nebunia cu unele dintre lucrurile la care ne uităm în viitor, să presupunem că ai ceva care încearcă să consume un articol și să răspundă la o întrebare despre acel conținut. Un exemplu este că îl constrângeți să spună: „Ai voie să răspunzi doar cu un citat exact din asta.” Și poate pune acel citat în context, dar citatul trebuie să fie acolo. Acesta este un mod conservator de a utiliza aceste noi modele de limbaj mari pentru a face o treabă mai bună în înțelegerea interogării și a regăsirii informațiilor, dar constrângând ceea ce pot spune de fapt. Un alt exemplu este că luați un model generativ și îi permiteți să fie generativ sub capotă, dar poate interacționa cu un utilizator final doar printr-o serie predefinită de acțiuni sau lucruri pe care le poate spune.

Există o mulțime de tehnici pentru a lua motorul puternic și a încerca să-l facă mai sigur, mai demn de încredere și mai restrâns. Și cred că vei vedea mulți oameni care lucrează cu această tehnică. Avem această nouă tehnologie care poate face predicții mult mai bune și poate face lucrurile mult mai repede. Cum să luăm asta și să-l facem suficient de demn de încredere, sau cel puțin să permitem clienților să aleagă? Cred că veți vedea multă mișcare în acest spațiu în următoarele două luni.

Personalizare în masă în diferite industrii

Krystal Hu: În această notă, Ethan, Talia, în afară de serviciul pentru clienți, mai sunt și alte aplicații pe care le vezi în acest spațiu de care sunteți deosebit de entuziasmați?

Ethan Kurzweil: Pot să merg primul. Privind unele aplicații pentru consumatori, jocurile sunt una de care suntem încântați. Dacă te gândești la ceea ce face jocurile distractive, de multe ori, aceasta este rata de reîmprospătare a conținutului nou și asta necesită venirea constantă cu idei creative. Începem să vedem oameni care se gândesc la: „Dacă fiecare experiență pentru fiecare jucător poate fi nouă?” You couldn't have a personal copywriter writing that much content for each person, but an AI could do it. And it could get down to a level where each decision you make generates a new experience based on whatever temporal inputs you want to give the system.

“We went from handcrafted goods to mass-produced goods to mass personalization in a way we've probably never seen before”

Media applications as well. Earlier in my career, I used to work at the Wall Street Journal , and the parent company of the Wall Street Journal was Dow Jones. They had a sister news department called Dow Jones Newswires , which was about getting financial news mainly to traders and folks that needed to act very quickly on that information as fast as possible through terminals and things like that. I think about what an AI could do to augment news or get news to the end user more quickly. Again, I don't think it's replacing journalists at all, I think it's augmenting the amount of information and the targeting we can provide to folks much more quickly.

I think about entertainment use cases. This promise of personalized television and premium content services has always been out there, but when you get to the long tail of internet content and user-generated content, it tends to be pretty low-quality. Could you have a high-quality, personalized content delivery service? I think AI could impact that equation in the future.

Talia Goldberg: I love the concept of personalization and everyone having their own experience. We went from handcrafted goods to mass-produced goods to mass personalization in a way we've probably never seen before. This is a totally new experience for everyone, which is super cool. I'll share one of the areas that I think is going to be wildly impactful and really promising, which is in life sciences and biotech.

“The AI is seeing something that we, as humans, have never before been able to see”

Applying AI to drug discovery and development using huge amounts of data to look at molecules and protein structures and genomic data can be really transformative. I read this study that I think was in Nature a month ago, and it described how some researchers gave an AI a bunch of images of a human retina, and the AI, with 90% accuracy, said which retina belonged to either a male or a female. That seems very basic – who cares? But what's really crazy about that is that no researcher, scientist, or AI expert has ever been able to find any sign of a retina correlating to gender of any form. The AI is seeing something that we, as humans, have never before been able to see.

You think about that, and then you apply that to cancer and different cells and otherwise, and the potential is just massive and really exciting. And we're already seeing a lot of applications. AI's going to transform a whole bunch of things – health, software, business applications, logistics, consumer… We could make a long list, but there are a ton of reasons to be super optimistic.

Mix and match

Krystal Hu: When I talk to startups, when they're incorporating this kind of technology into their offerings, one choice they have to make is which model they work with. Do they only work with one type of model, or do they diversify their vendors to work with other companies besides OpenAI? I'm sure, Fergal, you've spent some time thinking about that. What was the experience like at Intercom?

Fergal Reid: With new technology, being right in the forefront, our head tends to go first to customer value. We're happy to use the most expensive or newest model to try and figure out, “Okay, can we really build a transformative experience for a customer with this that is a core part of the workflow and makes something valuable for them?” And once we do that, we're like, “Okay, now, how can we make it cost-effective?” And we're probably going to end up with a large mix of different models from, say, OpenAI, and we've also looked at other vendors like Anthropic, which are doing some really interesting work in this space too.

“It's highly likely that everyone's going to end up running a bespoke mix of many different models. It's going to get complex pretty fast”

It's an exploding space with many different people training large language models, and I think you'll have different large language models that are better and worse and have different trade-offs in terms of cost and latency and performance. Performance won't be one-size-fits-all. Some models are better at dealing with hallucinations, some are better at generating creative content, and I think we're already seeing that.

Our focus is to get whatever models we can, try them out, think if we can use these to build transformative value, get it live with our customers, and then figure out how to optimize that. Once we know it's delivering value, let's optimize it in terms of price and cost and work. It's highly likely that everyone's going to end up running a bespoke mix of many different models. You could have three different models in one customer interaction. So yeah, it's going to get complex pretty fast.

“There'll probably be a new set of metrics that everyone coalesces around that measure the effectiveness of your AI and your particular business problem”

Ethan Kurzweil: I think that's an interesting point that actually ties the question from before: how do you measure the success of this? Because I think lots of companies will try a model or many, and the question will be, “All right, which is best?” And that's such an oversimplification because you have to figure out what you are trying to achieve. Are you trying to achieve engagement with users? Are you trying to achieve a quick resolution?

I think there'll probably be a sort of metricization of this where people come to a standard, like the way Google Search created a new industry, AdWords, and the way we measure click-through rates and conversion rates and things like that. There'll probably be a new set of metrics that everyone coalesces around that measure the effectiveness of your AI and your particular business problem.

Fergal Reid: Yeah, even before these more recent language models, we've had bots that process natural language using pretty big neural networks, although not as big. And whenever we would do something like upgrade our bots, we would conduct a large-scale A/B test framed in terms of end-user metrics such as self-serve rate. Then, we would find edge cases for particular customers or domains where it performed less well, really dig into those, and make sure nothing was broken. I think there's probably a well-understood playbook, like Ethan's referring to, of metrics for given domains. A lot of the same things will apply to this new type of technology.

Întrebări și răspunsuri

Krystal Hu: I'd love to get to the Q&A. I think we were able to address some of the questions during our discussions, but there are a bunch about the potential roadmaps from, I assume, Intercom's customers or companies working with Intercom who want to know what could be the next AI-aided feature that may come out, both in the short-term and long-term, and also how that will affect the pricing strategy.

Fergal Reid: Cool. Do you want to call out one particular question?

Krystal Hu: I think there was a question about your roadmap for the features for the next six months versus 12 to 18 months, and then the other person asked about the pricing strategy.

Fergal Reid: We have some things coming up that unfortunately, I can't talk about at the moment. I would say that six months is a really long time in this space. I expect you'll see a lot of movement in this space over the next two or three months. We will continue to sweat and invest in these features in our Inbox to make support reps more efficient. I've already talked about how we've got a Generation 1 version of features here at the moment, with summarization and expansion features to help edit a text, and we're definitely working on Generation 2 versions of those features.

We've also met two other exciting features in this space that we're really excited about, but unfortunately, I can't share any details at the moment – it's just a little bit too early to announce and launch those things. I can promise you're going to see a lot of action and excitement from us, and I'm sure from other companies in this space as well, over the next six months.

“Right now, there's a bit of a context limit for each interaction with an AI in a large language model, but there's a lot of exciting research pushing the boundaries”

Krystal Hu: Talia and Ethan, do you have any expectations or hopes on how fast the space could move?

Talia Goldberg: Well, it's moving a lot faster than we even anticipated. The space is moving really quickly in part because there are a whole bunch of technological advances happening at the same time as the hardware that these models are trained on gets better and improves at a Moore's Law rate, and there are new architectures and ways of scaling on that hardware. We're getting better and better at creating new experiences and models.

I don't have an exact prediction of how quickly we'll see different things, but one of the biggest areas that we're watching closely and expect to see a lot of advances in over the next six to 12 months is around personalization and being able to create far more personalized experiences. Right now, there's a bit of a context limit for each interaction with an AI in a large language model, but there's a lot of exciting research pushing the boundaries of those context windows, coming up with new frameworks to create far more personalized experiences and remember each person, each user, each customer, and tons of data points about that person to create a better experience.

“I would encourage everyone that's building new products to ride the ups and the downs”

Ethan Kurzweil: I completely agree with Fergal and Talia. We're going to see predictable and unpredictable applications of this over the next six months. There'll be some unsuccessful ones too, and then the narrative will quickly shift to, “Oh, that didn't do everything we thought it was going to do as quickly as we thought.” Right now, we're into the peak of momentum and euphoria and, dare I say, a little hype in the space. But over time, it'll become as big a deal as we thought.

I would encourage everyone that's building new products to ride the ups and the downs. Don't ride the up as high as it may be feeling like you should right now, but when the narrative changes a little bit, because it will – all new technologies have that “Oh, that wasn't as impactful as quickly as we thought” moment – I would encourage everyone to keep building through that as well.

Krystal Hu: Yeah, I'll definitely take that from you as a crypto investor.

Ethan Kurzweil: It's the same thing. Right now, there's clearly a trough of disillusionment for crypto. And good builders are figuring out, “Okay, what of this technology is applicable? What makes sense?” And we'll see those things come to market over the next couple of years.

Krystal Hu: One common question I saw in the Q&A is: how will this impact human jobs like human agent jobs? I'm curious to hear your thoughts on this specific case.

Ethan Kurzweil: Ever since the advent of the computer, there's been this prediction that it would be a massive replacement for human work at all levels. It does change the nature of work, and this will certainly change in some ways, but it's not going to be a wholesale replacement for humans in any broad way.

“Guess what? Every year, we need way more engineers. It's like Jevon's Paradox. The more that AI is available and the cost goes down, the more demand there is”

Just as Talia alluded to the example of Copilot and people, I've read many articles saying this was going to put all developers out of business over the next two to three years, and that's complete BS. Everyone knows that's not true. But it may allow for more productivity and for the cycle time on software to speed up. It may allow for different skills to be more important. I think it just makes us more productive. It's not that it won't have an impact and won't shift the nature of work in some ways. I don't mean to minimize that because that's very real. But looking at the whole, you'll see we come out ahead.

Talia Goldberg: At least until we reach the singularity, I'm pretty convinced of the need for more and more engineers. You could have gone back 10 years and been like, “Ah, there are all these cool developer tools now that are coming out and making it way easier to integrate things,” or, “Oh gosh, there are these self-serve products like Zapier that make it easy for non-technical people to connect products and integrate things.” And guess what? Every year, we need way more engineers. There's a shortage. It's like Jevon's Paradox. The more that AI is available and the cost goes down, the more demand there is. And I think, in a lot of areas, that paradigm will hold true. But as Ethan said, the exact skills and the way it looks may shift.

Krystal Hu: Yeah, that makes a lot of sense. I saw some interesting observations and questions about whether you should tell people that they are talking to an AI versus a real person. It's an interesting question because it presumes we wouldn't be able to tell.

Ethan Kurzweil: It's a good existential question. If you're talking to a person assisted by an AI, who are you talking to, and what disclosure do you have to make in that case? I don't have any answers to these questions, but they're great ones for us to debate.

Talia Goldberg: I find that AI can sometimes generate responses that are so detailed and so good that there's just no way that a human did it anyway. It's like the reverse of the Turing test.

Krystal Hu: O altă întrebare despre funcționalitatea de siguranță. Cred că am atins și acest lucru mai devreme, dar există o întrebare specifică: „Cât de importantă este integrarea verticală a funcționalității de siguranță cu furnizorul de modele? De exemplu, cât de important este să utilizați API-ul de moderare al OpenAI cu ieșirea modelului ChatGPT versus amestecarea și potrivirea cu API-ul Jigsaw's Perspective? Fergal, s-ar putea să ai câteva gânduri sau experiențe de împărtășit cu privire la asta.

Fergal Reid: Da, nu sunt familiarizat cu Jigsaw's Perspective API, așa că nu știu asta în mod specific. Tuturor celor de la OpenAI și Tropic și oricine altcineva care antrenează modele de limbă mari le pasă foarte mult să le facă utilizabile, sigure și aliniate și le pasă foarte mult să evite halucinațiile. Și vor continua să lucreze în aceste domenii pentru a le facilita companiilor precum Intercom să le implementeze în moduri de încredere. Nu sunt convins că trebuie să integrăm asta pe verticală. Nu știu că Intercom trebuie să fie în afacerea de a-și pregăti propriile modele lingvistice masive pentru ca noi să ne ocupăm de producție și să le facem suficient de demne de încredere. Cred că oricum vom vedea multă mișcare în acest spațiu.

Acest tip de inteligență artificială generativă oferă utilizatorului multă libertate de a încerca să descopere cum să implementeze modelul. Există acest domeniu în curs de dezvoltare al ingineriei prompte, iar echipa mea face multe din acest lucru, în care editează solicitări și încearcă să-și dea seama: „Bine, cum pot întreba modelul ce vreau în modul corect pentru a-l obține. da-mi rezultatul pe care il caut?” Asta se va îmbunătăți, cel puțin pentru o vreme, va deveni mai puternic, iar modelele vor deveni mai ușor de controlat.

Cred că vom putea vedea companiile din poziția Intercom generând multă valoare și descoperind o mulțime de aplicații și design. Încă învățăm cum să proiectăm produse în jurul acestei noi tehnologii. Există atât de multe grade de libertate pentru ca oamenii din poziția noastră să le folosească.

„Există întotdeauna această tensiune: te aduci doar la chestia generală? Cât de mult devine mai bun modelul general față de reglajul fin?”

Krystal Hu: Au existat și întrebări despre construirea propriului model de Intercom. După cum ați menționat mai devreme, poate că vor exista oportunități de a face o combinație a modelului care funcționează mai bine pentru cazurile dvs. de utilizare în timp ce creați un API sau ceva de genul acesta?

Fergal Reid: Da, având în vedere amploarea la care sunt antrenate aceste modele în acest moment, nu pare să aibă sens din punct de vedere economic ca fiecare companie de dimensiunea Intercom să-și pregătească propria lor. Dar din nou, există un spectru aici. Vom dezvolta expertiză în proiectarea în jurul lor și pentru a ști ce să cerem modelului. Și probabil că vom vedea funcționalități emergente în jurul unor companii precum modelele de reglare fină a intercomului. Multe dintre aceste modele noi sunt instruite cu învățare prin consolidare cu feedback uman. Costul efectuării acestui lucru va scădea probabil în timp și le vom putea personaliza mai mult pentru cazurile noastre de utilizare specifice.

Întotdeauna există această tensiune: pur și simplu te împingi la chestia generală? Cât de mult devine mai bun modelul general față de reglajul fin și de a face lucruri specifice? Va trebui să vedem cum se desfășoară acest spațiu, dar cred că vor exista multe grade de libertate pentru companiile de a lua aceste modele și de a le personaliza și produce pentru zona lor. Ne aflăm în primele zile ale producției acestei tehnologii. Se va schimba foarte mult și va deveni mult mai ușor de prioritizat.

Krystal Hu: Ne apropiem de sfârșitul minunatei noastre conversații, dar mai putem răspunde la două întrebări. Unul este despre modul în care companiile adoptă și extrag valoare din ChatGPT. Ați văzut companii care au început să integreze asta în ofertele lor și, pe de altă parte, cred că companiile, în special băncile foarte reglementate, se întrebau despre serviciile de informare și problemele de confidențialitate și le interziceau angajaților să se joace pe laptopurile companiei. Sunt curios să aud gândurile lui Talia și Ethan cu privire la această întrebare.

Talia Goldberg: În portofoliul nostru, o mulțime de companii de software care poate nici măcar nu se află în categorii precum Intercom, care sunt într-adevăr în frunte, se gândesc astfel: „Hei, cât de important este acest lucru pentru afacerea mea și care sunt modalitățile prin care am ar putea integra unele dintre aceste modele sau API-uri ChatGPT în produsul meu?” Sarcinile foarte repetitive pot fi foarte bune pentru o IA pentru a ajuta la automatizarea sau eficientizarea. Una dintre companiile noastre primește o mulțime de informații contabile de la clienții lor, iar aceștia trebuie să reconcilieze și să semnaleze dacă există o eroare sau ceva defect. Și au avut aceste sisteme bazate pe reguli în trecut, dar puteți aplica AI și aveți o precizie mult mai bună. Un alt exemplu interesant este legat de piesa de rezumat. Dacă un client vorbește cu un agent de call center sau cu un reprezentant de vânzări, puteți rezuma acea conversație și puteți crea garanții de marketing personalizate doar pentru acea persoană.

Krystal Hu: O ultimă întrebare pentru Talia și Ethan. Oamenii te întrebau ce cauți atunci când investești în startup-uri pre-seed sau, cred, în startup-uri în general.

„Încercăm să o descompunem la acea întrebare cheie: „Mișcă acest lucru cu adevărat acul pentru un anumit rol sau tip de persoană?””

Ethan Kurzweil: Aceasta este o întrebare grozavă. Există atât de multe răspunsuri diferite la asta. Pre-însămânțarea este puțin mai devreme decât investim de obicei, pentru a scoate acea declinare a răspunderii – de obicei, investim într-o sămânță ulterioară sau într-o serie A sau B. Dar filozofia noastră este să căutăm modele de hiper-creștere oriunde putem găsi. lor. Și, de obicei, modul în care defalcăm acest lucru este să încercăm să diagnosticăm în prealabil prin roadmapping, iar Talia a fost cea care ne-a împins o mare parte din gândirea în jurul AI și a aplicațiilor sale la diferite lucruri și am venit cu aceste foi de parcurs de diferite domenii tematice considerăm că sunt destul de interesante. Ele ar putea fi cu adevărat largi, cum ar fi cloud computing sau consumerizarea asistenței medicale, sau restrânse, cum ar fi impactul AI asupra serviciilor pentru clienți.

Aș încuraja oamenii să se uite, pentru că publicăm mult pe blogul nostru și pe rețelele sociale ale tezei noastre active, pentru a vedea dacă ceea ce construiești este aliniat cu ceva. Și apoi, în general, căutăm: „Are acest tip de impact care va schimba modul în care lucrăm sau facem divertisment sau ceva care ar putea fi o schimbare de paradigmă în anumite procese de afaceri sau nevoi ale consumatorilor?” În asta o descompunem. Am observat că de fiecare dată când ai o schimbare amplă de comportament, care duce la companii cu hipercreștere și oportunități pentru startup-uri de a perturba modul în care se lucrează sau se joacă sau orice altceva se făcea înainte. Și așa că încercăm să o descompunem la întrebarea cheie: „Mișcă acest lucru cu adevărat acul pentru un anumit rol sau tip de persoană?”

Krystal Hu: Acesta este sfârșitul conversației noastre. Pentru cei care nu au avut ocazia să încerce noile funcții ale Intercomului, vă încurajez să vă jucați cu rezumatul și cu alte câteva caracteristici. Și dacă sunteți interesat de spațiul de risc, cu siguranță aruncați o privire pe site-ul lui Bessemer. După cum a spus toată lumea, peste șase luni, ne vom uita în urmă și unele dintre predicții se vor îndeplini, iar poate unele vor fi total diferite. Sper că vom avea un alt moment să ne întoarcem și să acoperim mai multe întrebări. Mulțumesc din nou, Talia, Ethan și Fergal, pentru timpul acordat astăzi.

Ethan Kurzweil: Mulțumim că ne-ați primit.

Talia Goldberg: La revedere.

Fergal Reid: Vă mulțumesc mult, tuturor. Pa! Pa.

Podcast Intercom interior (orizontal) (1)