Efekt GPT: Nowa era obsługi klienta

Opublikowany: 2023-03-10

Ostatnie przełomy z dużymi modelami językowymi przekroczyły wszelkie nasze oczekiwania. Zebraliśmy ekspertów branżowych, aby porozmawiać o GPT i o tym, jak wpłynie to na przyszłość obsługi klienta.

Nie możemy powiedzieć, że nas to zaskoczyło. Od lat branża wychwala potencjał sztucznej inteligencji i uczenia maszynowego do radykalnej zmiany sposobu, w jaki pracujemy, zwłaszcza że postęp w zakresie mocy obliczeniowej i przechowywania danych umożliwił trenowanie coraz większych modeli. Ale nie spodziewaliśmy się, jak szybko ostatnie postępy w ChatGPT OpenAI odblokują nowe możliwości.

W Intercom zawsze wysyłaliśmy, aby się uczyć. Tylko dzięki szybkiemu dostarczaniu nowych funkcji możemy uzyskać odpowiednie informacje zwrotne, uczyć się na ich podstawie i wprowadzać kolejne iteracje, aby lepiej służyć naszym klientom. I tak naturalnie zrobiliśmy to z tą nową technologią. W ciągu ostatnich kilku miesięcy dostarczyliśmy 160 klientom kilka funkcji opartych na sztucznej inteligencji. I chociaż jest jeszcze za wcześnie, aby stwierdzić, jak te duże modele językowe (LLM) odegrają rolę w naszym życiu, wierzymy, że osiągnęliśmy kluczowy punkt zwrotny – zwłaszcza jeśli chodzi o obsługę klienta.

Dlatego w zeszłym tygodniu zorganizowaliśmy seminarium internetowe, aby zagłębić się nieco w biznesowe przypadki użycia GPT. Czy ta fala innowacji różni się czymś od wcześniejszych fal? Czy zmieni sposób, w jaki pracujemy i sposób, w jaki firmy wchodzą w interakcje z klientami i potencjalnymi klientami? Czy może zapoczątkować nową generację startupów? Aby dać ci trochę więcej wglądu, zaprosiliśmy kilka dużych ryb ze sceny startupowej do rozważenia.

W dzisiejszym odcinku usłyszycie m.in.

  • Ethan Kurzweil, członek zarządu Intercom i partner w Bessemer Venture Partners
  • Fergal Reid, nasz dyrektor ds. uczenia maszynowego
  • Krystal Hu, VC i Startups Reporter w Reuters
  • Talia Goldberg, partner w Bessemer Venture Partners

Opowiedzą o dużych modelach językowych, takich jak ChatGPT, o tym, jak firmy wykorzystują tę technologię i jak wpłynie ona na przyszłość branży obsługi klienta.

Brak czasu? Oto kilka kluczowych wniosków:

  • Zaczynamy dostrzegać lepkie przypadki użycia dużych modeli językowych – istnieje ogromny potencjał usprawnienia obsługi klienta ze względu na jej regularność i użycie języka naturalnego.
  • Na razie oczekuje się, że duże modele językowe zwiększą ludzkie możliwości, a nie je zastąpią, ponieważ mogą pomóc profesjonalistom w zwiększeniu produktywności i wydajności ich pracy.
  • Chociaż jest jeszcze za wcześnie, aby zmierzyć sukces eksperymentu beta Intercom, przyjęcie i wykorzystanie najnowszych funkcji opartych na sztucznej inteligencji było ogromne, a wczesne opinie są bardzo obiecujące.
  • Duże modele językowe mogą bardzo szybko stać się bardzo drogie. Jednak z czasem staną się tańsze i bardziej wszechobecne, co pozwoli na więcej eksperymentów i odkryć.
  • Chociaż nadal występują problemy z halucynacjami, możesz skonfigurować i ograniczyć ten model, aby był bardziej godny zaufania, gdy sytuacja wymaga wyższego stopnia pewności.
  • Modele nie są uniwersalne. Prawdopodobne jest, że w przyszłości firmy będą oferować zindywidualizowaną mieszankę różnych, konfigurowalnych modeli, które odpowiadają różnym problemom biznesowym.

Jeśli podoba Ci się nasza dyskusja, sprawdź więcej odcinków naszego podcastu. Możesz śledzić w Apple Podcasts, Spotify, YouTube lub pobrać kanał RSS w wybranym odtwarzaczu. Poniżej znajduje się lekko zredagowana transkrypcja odcinka.


Powstanie ChatGPT

Krystal Hu: Dziękuję bardzo wszystkim za poświęcenie czasu na dołączenie. Nazywam się Krystal Hu i zajmuję się przedsięwzięciami typu venture i startupami dla agencji Reuters. Jak wielu z was wie, sztuczna inteligencja i fala ChatGPT pojawiły się na scenie w ciągu ostatnich kilku miesięcy, a dużą częścią mojej pracy jest odkrywanie technologii i tego, jak zmienia ona różne aspekty życia. W dzisiejszym temacie skupimy się na tym, jak ChatGPT ukształtuje przyszłość obsługi klienta. Omówimy, czym dokładnie jest ChatGPT i duże modele językowe, w jaki sposób ta technologia będzie wykorzystywana, jaki będzie miała wpływ na istniejące i przyszłe technologie, w jaki sposób startupy wykorzystują tę technologię i jak powstają nowe firmy.

Mamy dziś z sobą świetny panel. Dwóch niesamowitych inwestorów z Bessemer: Talia Goldberg i Ethan Kurzweil. Talia ma siedzibę w San Francisco, inwestuje w Internet konsumencki i oprogramowanie oraz współpracuje z takimi firmami jak ServiceTitan i Discord. Ethan Kurzweil również ma siedzibę w San Francisco i kieruje inwestorami w różnych branżach, w tym platform programistycznych, nowej infrastruktury danych, cyfrowych aplikacji konsumenckich i kryptowalut.

Następnie dyrektor ds. uczenia maszynowego w firmie Intercom, Fergal Reid, przedstawi nam wewnętrzne spojrzenie na to, w jaki sposób Intercom włącza tę technologię do swoich najnowszych ofert – w tym kilka funkcji asystenta AI. Nie mogę się doczekać, aż wybiorę ich mózgi i usłyszę, co widzą zarówno na froncie startupów i przedsięwzięć, jak i zmian, które może przynieść GPT. W trakcie całego procesu, jeśli masz jakieś pytania, możesz zadać je na czacie, a pod koniec rozmowy będziemy mieć około 15 do 20 minut na omówienie pytań.

Myślę, że zacznę od ciebie, Fergal, ponieważ jesteś technologiem w pokoju i jesteś na pierwszej linii włączenia GPT do oferty Intercom. Może możesz zacząć od przedstawienia nam trochę tła i wyjaśnienia, czym są GPT i ChatGPT oraz jak doszło do włączenia tej technologii?

„Nie zamierzam kodować reguł i nie zamierzam konkretnie powiedzieć:„ Naucz się przewidywać X w porównaniu z Y ””

Fergal Reid: To bardzo ekscytujący czas w technologii. Zakładam, że wiele osób prawdopodobnie widziało w tym momencie ChatGPT, ponieważ zrobiło to tak dużą falę. Ale z punktu widzenia technologii, z mojego wąskiego spojrzenia na świat, jestem w Intercom od około pięciu lat i kieruję zespołem uczenia maszynowego. A rzeczy, które zrobiliśmy w zakresie uczenia maszynowego, wykorzystują algorytmy, które istnieją już od jakiegoś czasu – używając algorytmów uczenia nadzorowanego, algorytmów, które uczą się odróżniać różne rzeczy. Możesz powiedzieć: „Hej, przewidujmy, czy ktoś poprosi o tę czy inną rzecz”. Dzięki tym systemom uczenia maszynowego przekazujesz im wiele danych treningowych: „Hej, to jest przykład, jeśli ktoś zada ci jedno pytanie, a to jest przykład, jeśli ktoś zada ci inne pytanie”.

Nowością i odmiennością tej najnowszej fali generatywnej sztucznej inteligencji jest to, że zamiast po prostu uczyć model przewidywania jednej lub drugiej rzeczy, mówisz: „Hej, model. Dowiedz się, jak generować nowe dane tego typu. Dowiedz się, jak wygenerować obraz”. Dajesz mu trochę tekstu, a on uczy się generować obraz, który odwzorowuje ten tekst, lub, z ChatGPT, po prostu rozmawiasz z nim i dajesz mu trochę tekstu, a on robi się całkiem niezły w generowaniu większej ilości tekstu w odpowiedzi na to.

„Mamy ten naprawdę duży model, zadajemy mu pytania po angielsku, mówimy mu, żeby robił rzeczy po angielsku, a on jest całkiem niezły w robieniu tego, co mu każemy”

To po prostu inny sposób uczenia maszynowego. Nie zamierzam kodować reguł i nie zamierzam konkretnie powiedzieć: „Naucz się przewidywać X kontra Y”. Zamiast tego wezmę naprawdę dużą ilość danych treningowych, stworzę model, który jest bardzo dobry w próbie przewidywania tych danych treningowych, a potem, mam nadzieję, zmuszę go do robienia użytecznych rzeczy poprzez generowanie nowych przykładów.

Dzięki ChatGPT pytasz go o coś, podając tekst i mówiąc: „Wygeneruj, co będzie dalej”. I, co zaskakujące, jest to całkiem przydatne. Możesz powiedzieć: „Hej, tutaj jest rozmowa z obsługą klienta, a to jest podsumowanie rozmowy z pomocą techniczną”, a następnie przekazać ją do ChatGPT, a ona wygeneruje, co będzie dalej lub czego oczekuje w następnej kolejności. I być może powiesz: „To jest podsumowanie”, a potem wyskakuje podsumowanie. I to jest bardzo przydatne. Jest to bardzo ogólny sposób budowania funkcji i systemów. Zamiast kodować nowy system uczenia maszynowego dla każdej małej rzeczy, mamy ten naprawdę duży model, zadajemy mu pytania po angielsku, każemy mu robić rzeczy po angielsku, a on jest całkiem dobry w robieniu tego, co mu każemy. Dlatego w firmie Intercom staraliśmy się wykorzystać to do tworzenia funkcji produktu.

Zmieniacz zasad obsługi klienta

Krystal Hu: Chcę wprowadzić Talię i Ethana na scenę jako płodnych inwestorów w kosmos. Widziałeś kilka fal technologicznych. Czym różni się ten dotyczący generatywnej sztucznej inteligencji i jakie obszary zastosowań Cię ekscytują?

Talia Goldberg: Jasne, dziękuję za przyjęcie mnie. To był świetny przegląd tego, czym jest generatywna sztuczna inteligencja. To zabawne, tuż przed tym spotkaniem przeglądałem artykuł, który opublikowaliśmy na naszym blogu zeszłego lata, może osiem lub dziewięć miesięcy temu, a było to kilka miesięcy przed uruchomieniem ChatGPT, ale zaczynaliśmy dostrzegać duży rozmach i powód do ekscytacji tym, co dzieje się w szczególności z dużymi modelami językowymi, a także potencjałem sztucznej inteligencji i generatywnej sztucznej inteligencji jako tej nowej, naprawdę potężnej fali sztucznej inteligencji.

I mieliśmy prognozę: „Obecnie mniej niż 1% treści online jest generowanych przy użyciu sztucznej inteligencji, a przewidujemy, że w ciągu najbliższych 10 lat co najmniej 50% zostanie wygenerowanych przez sztuczną inteligencję lub przez nią wzmocnionych”. Debatowaliśmy nad tym i pomyśleliśmy, że to szalone, ale cholera, nie doceniliśmy, jak szybko sztuczna inteligencja może przekształcić wiele informacji, które widzimy. Powiedziałbym, że może to być 50% w ciągu najbliższych dwóch lat naszych interakcji online, treści i mediów. Konsekwencje tego, jak sądzę, są ogromne dla wielu informacji i wiedzy, w tym dla obsługi klienta.

„Od razu widzisz lepkie przypadki użycia, w których technologia jest dojrzała do zakłócania, ulepszania, rozszerzania i ulepszania, a obsługa klienta jest od razu na torze”

Krystal Hu: Ethan, od jakiegoś czasu pracujesz z Intercom. Myślisz, że to jest moment, na który czekała obsługa klienta? Ponieważ czuję, że technologia i możliwości są złotem dla aplikacji obsługi klienta, takich jak Intercom.

Ethan Kurzweil: Tak, wydaje mi się, że jest to najnowsza aplikacja dużych modeli językowych i ich możliwości. Jeśli cofniesz się o krok wstecz i pomyślisz o zmianach technologicznych i platformach, takich jak chwila na smartfona, chwilę na iPhone'a i tym podobne, to, co dzieje się na początku, to całe to podekscytowanie i wielu programistów i twórców spieszy się w przestrzeń, a potem masz to wypłukanie, w którym widzisz, które aplikacje są najbardziej krwawiące, w których trzyma się pierwsze, i te, w których nie wprowadza cię to w odrobinę rozczarowania. Myślę, że prawdopodobnie jesteśmy jeszcze trochę za wcześnie na tej krzywej, ale od razu widać lepkie przypadki użycia, w których technologia jest dojrzała do zakłócania, ulepszania, rozszerzania i ulepszania, a obsługa klienta jest na to gotowa.

Współpracuję z Intercom od prawie ośmiu i pół roku, a Intercom to zespół, który zawsze był na czele wdrażania nowych technologii, kiedy były na to gotowe. I pamiętam, że dwa lub trzy lata temu ludzie mówili: „Automatyzacja, automatyzacja, automatyzacja”. Kierownictwo produktu w firmie Intercom zawsze powtarzało: „Jeszcze nie jest wystarczająco dobre. Możemy to zrobić, możemy to włożyć w taki sposób, że moglibyśmy zaznaczyć pole w formularzu żądania funkcji, ale nie doprowadzi to do naprawdę dobrego przepływu podobnego do ludzkiego. Firma Intercom zawsze opierała się na idei uczynienia biznesu internetowego osobistym. A jeśli masz bota, który nie brzmi osobiście, jest to prostopadłe do tego.

Fakt, że Intercom używa go tak skutecznie w swoim przepływie, pokazuje, że technologia jest gotowa i że jest to jedna z wielu, wielu rzeczy, na które będziemy mieli wpływ. Nie wszystko na raz od razu, ale z biegiem czasu zobaczymy znacznie większy wpływ, dając maszynie możliwość rozmawiania w sposób ludzki.

„Patrzysz na krzywą i tempo poprawy, a za kilka miesięcy, za kilka kwartałów i za kilka lat będzie jeszcze lepiej”

Talia Goldberg: Jeśli mogę dodać jedną rzecz, myślę, że obsługa klienta jest idealnym początkowym obszarem, w którym sztuczna inteligencja może zacząć wywierać wpływ. Jednym z powodów jest to, że używa języka naturalnego. Możesz komunikować się z AI za pomocą języka angielskiego, a ona odpowie w języku angielskim. Nie musisz kodować – to generuje informacje. I taka właśnie jest obsługa klienta i wsparcie — generowanie wspaniałych, ludzkich doświadczeń, które można spersonalizować, rozwiązywanie skarg i stawanie się coraz lepszymi z biegiem czasu. Tak więc możesz również uzyskać tę świetną pętlę informacji zwrotnych, używając jej w obsłudze klienta.

Chociaż dzisiaj mogą pojawić się pewne wyzwania i rzeczy, które są trudne na krawędzi, technologia i potencjał są już naprawdę świetne, jak powiedział Ethan. Patrzysz na krzywą i tempo poprawy, a za kilka miesięcy, za kilka kwartałów i za kilka lat będzie jeszcze lepiej. To jedna z kategorii, którymi jesteśmy najbardziej podekscytowani i uważamy, że każda firma może z niej skorzystać i musi o tym pomyśleć.

Krystal Hu: Fergal, to właściwy moment, abyś opowiedział nam o niedawnej premierze funkcji w Intercom io tym, jak włączyłeś do niej ChatGPT.

Fergal Reid: Oczywiście. I żeby powtórzyć odczucia Talii i Ethana, w domenie jest tak dużo struktury, jest tak wiele rzeczy, które agent obsługi klienta robi, gdy robi to samo, co zrobił poprzedniego dnia, lub że może ich kolegów z drużyny zrobiło to już wcześniej i jest tam tak wiele regularności i struktury, że wydaje się, że system, który uczy się i wykorzystuje sztuczną inteligencję, aby przyspieszyć ludzi, wydaje się naprawdę dojrzały.

„Czuliśmy, że najlepszym miejscem do rozpoczęcia jest człowiek w pętli. Ktoś jest zawinięty w skrzynkę odbiorczą i chcemy go przyspieszyć, ale nadal może to sprawdzić i zatwierdzić”

Gdy uruchomiono ChatGPT, w tym samym czasie OpenAI udostępniło ten nowy model do użytku programistów, text-davinci-003. Od dawna współpracujemy z OpenAI i kiedy spojrzeliśmy na ten model, poczuliśmy, że naprawdę przekracza próg użyteczności i że możemy na nim budować. Zrobiliśmy więc kilka wstępnych testów porównawczych. Ludzie spędzają dużo czasu w skrzynce odbiorczej, a jedną z rzeczy, które muszą często robić, jest pisanie podsumowań konwersacji, którą właśnie obejrzeli, zanim ją przekażą. Ta technologia wydawała się naprawdę świetna w podsumowaniu konwersacji, więc pomyśleliśmy: „Czy możemy zbudować funkcję, która to zrobi i udostępnić ją naszym klientom w wersji beta?” Intercom ma tę zasadę „statek do nauki”. Wierzymy, że nowe funkcje są dostarczane klientom bardzo szybko, dzięki czemu możemy dowiedzieć się, czy rozwiązało to problem, czy jest bardziej ciekawostką.

I tak w zasadzie na początku grudnia rozpoczęliśmy projekt, aby sprawdzić, czy możemy szybko udostępnić niektóre funkcje, które będą działać z przedstawicielami obsługi klienta w rzeczywistej skrzynce odbiorczej, aby przyspieszyć ich działanie. Jednym z nich było podsumowanie, a inne funkcje pomagały im szybciej komponować tekst. I naprawdę czuliśmy, że to właściwe miejsce, aby zacząć od tej technologii, ponieważ generatywna sztuczna inteligencja ma wadę. Nie zawsze jest to tak dokładne, jak mogłoby się wydawać. Łatwo jest spojrzeć na ChatGPT, zadać mu pytanie, a otrzymasz odpowiedź i pomyślisz: „To jest niesamowite”. A potem czytasz to z odrobiną więcej szczegółów, i faktycznie, czasami robi się źle. Czuliśmy, że najlepiej zacząć od człowieka w pętli. Ktoś jest umieszczony w skrzynce odbiorczej i chcemy go przyspieszyć, ale nadal może to sprawdzić i zatwierdzić. To był świetny punkt wyjścia.

Teraz widzę, jak ludzie pytają w komentarzach: „Hej, a co z botami i rzeczami, które same odpowiadają na pytania?” Uważamy, że to nadchodzi i może wkrótce nadejść, ale wciąż to badamy. Dużym problemem jest dla nas dokładność. Uważamy, że nadszedł czas, aby mieć człowieka w pętli, dzięki czemu przedstawiciel wsparcia jest szybszy. I prawdopodobnie wkrótce pojawią się rzeczy, które przejdą na następny stopień. To bardzo ciekawy obszar.

Ethan Kurzweil: Aby to przemyśleć, otrzymujemy kilka interesujących, wybiegających w przyszłość pytań, takich jak: „Czy to sprawi, że moje dni jako copywritera będą policzone?” Wcale tak nie myślę. Tam, gdzie ta technologia jest i prawdopodobnie pozostanie przez jakiś czas, zwiększa ludzkie możliwości i ludzką inteligencję, czyniąc cię bardziej produktywnym jako copywriter, ale niekoniecznie cię zastępując, ponieważ po pierwsze technologia jeszcze nie istnieje, a po drugie wszystko poprzeczka niesamowitej obsługi klienta lub jakiejkolwiek komunikacji z firmą będzie się podnosić, ponieważ mamy te zasoby. Podczas gdy technologia może być w stanie samodzielnie poradzić sobie z niektórymi przypadkami użycia copywritera i odpowiedzi na wsparcie, poprzeczka dla tego, co będzie naprawdę dobrą kopią i naprawdę dobrym wsparciem itd. . Idealny stan jest taki, że będziesz mieć dostęp do tych technologii, aby być bardziej produktywnym, ale nie zastąpi cię to w najbliższym czasie.

Talia Goldberg: Tak. Uwielbiam, jak Wyatt właśnie powiedział, że to mnożnik umiejętności. Wewnętrznie dużo rozmawiamy o przykładzie Copilot, który jest jak autouzupełnianie dla kodowania i już teraz znacznie zwiększa wydajność inżynierów. W ogóle nie zastępuje inżynierów ani inżynierów, ale może je wzmocnić. Bardzo prostym tego przykładem może być kalkulator. Dawniej matematykę robiliśmy ręcznie. Teraz używamy kalkulatorów, ale matematyka jest nadal bardzo ważna – wszyscy musimy się jej nauczyć, a matematycy są bardzo ważni na tym świecie. Prawdopodobnie twoja rola może stać się jeszcze ważniejsza, ponieważ wraz ze spadkiem kosztów tworzenia treści i zalewem wielu różnych treści i informacji tworzenie treści i informacji, które mogą się wyróżniać i wznosić się ponad, będzie jeszcze bardziej kosztować premię w ciągu najbliższych kilku lat.

Eksperyment Intercomu z GPT

Krystal Hu: Minęło kilka tygodni, odkąd Intercom uruchomił funkcje wspomagane przez sztuczną inteligencję. Jakie były pierwsze opinie? Jak mierzysz sukces wdrożenia tej technologii?

„Widzimy wiele adopcji, wiele emocji i wiele zastosowań”

Fergal Reid: Będę bardzo szczery w tej kwestii – nie mam jeszcze w pełni satysfakcjonującej odpowiedzi na to pytanie. Mogę wam powiedzieć, że już działamy, mamy tysiące klientów korzystających z niej regularnie – mieliśmy wiele adopcji. Prawdopodobnie spróbujemy zmierzyć, czy rzeczywiście zwiększyło to produktywność ludzi, ponieważ załóżmy, że dla naszego własnego zespołu CS możemy zebrać dane telemetryczne na temat: „Czy jesteś szybszy, jeśli korzystasz z tych funkcji?” i zorganizowali w tym celu jakąś formę kontrolowanego eksperymentu. Zawsze lubimy próbować uzyskać jakąś formę rzeczywistych danych na ten temat w pewnym momencie, ale jeszcze nie jesteśmy w tym punkcie. Prawdopodobnie będziemy mieć jakieś liczby na ten temat lub więcej zrozumienia, przynajmniej wewnętrznie, za miesiąc lub dwa, jak sądzę.

W tej chwili mogę wam powiedzieć, że obserwujemy wiele adopcji, wiele emocji i wiele zastosowań. Z pewnością istnieją pewne funkcje, takie jak podsumowanie, które według klientów pozwalają zaoszczędzić znaczną ilość czasu. Zdarzało się, że klienci mówili nam na przykład: „Hej, w przypadku niektórych rozmów napisanie podsumowania przekazania może zająć tyle samo czasu, ile zajmuje rozwiązanie problemu użytkownika końcowego”. I tak, zdecydowanie dobrze się z tym czujemy.

W niektórych innych naszych funkcjach piszesz skróty, trochę jak GitHub Copilot. Zainspirował nas Copilot, aw Copilot, jeśli jesteś programistą, możesz napisać komentarz lub skrót, a następnie wypełni kod. Jedną z naszych funkcji jest „rozwiń”, w której piszesz skrót, który zamienia go w dłuższą wiadomość wsparcia. Czasami to działa i oszczędza czas, ale nie mamy jeszcze danych na ten temat. To, co mamy obecnie na żywo, to tylko wersja 1. generacji. I mamy prototypy wersji 2. generacji. W tej chwili piszesz skrót, a duży model językowy to rozszerza. Zamiast tego próbujemy powiedzieć: „Hej, przypomnijmy sobie, kiedy ostatnio odpowiedziałeś na takie pytanie. Wciągnijmy makra, które są do tego odpowiednie”. Mamy też kilka wewnętrznych prototypów, które działają całkiem nieźle. Wciąż wprowadzamy innowacje i robimy rzeczy, które naprawdę poruszą igłę, ale nie mamy jeszcze danych. Wkrótce.

„Mam w Tableau wykres naszych codziennych wydatków z OpenAI, na którym nerwowo obserwujemy”

Krystal Hu: Kontynuując, jak mierzysz koszt? Jak rozumiem, prawdopodobnie wysyłasz zapytania do OpenAI, a oni pobierają, jak sądzę, dwa centy za tysiąc znaków lub coś w tym rodzaju. I myślę, że wraz ze wzrostem twojej adopcji, ten rachunek również się piętrzy. Czy masz jakieś wnioski lub obserwacje, którymi chciałbyś się podzielić na temat zastosowania tej technologii?

Fergal Reid: Mam w Tableau wykres naszych codziennych wydatków z OpenAI, na którym nerwowo obserwujemy. To zdecydowanie do rozważenia. Wspomniałem o funkcji podsumowania i zbudowaliśmy ją w bardzo prosty sposób, w którym musisz poprosić o podsumowanie przed przekazaniem pytania. A nasi klienci mówią do nas: „Hej, dlaczego muszę prosić o to podsumowanie? Proszę po prostu przechowywać podsumowanie przez cały czas na pasku bocznym, żebym nigdy nie musiał o nie prosić”. A to byłoby naprawdę drogie, ponieważ gdybyśmy musieli płacić dwa centy za każdym razem, gdy ktoś powiedział coś nowego w rozmowie i podsumowanie się zmieniło, byłoby to bardzo kosztowne. Bezwzględnie musimy wziąć pod uwagę koszty w sposób, w jaki nie robimy tego w przypadku bardziej tradycyjnych modeli uczenia maszynowego.

To powiedziawszy, OpenAI właśnie ogłosiło swoje API ChatGPT i myślę, że zaskoczyło to wiele osób, ponieważ było 10 razy tańsze niż poprzednie podobne modele z tej serii. Możliwe, że koszt spadnie dość szybko, a funkcje te staną się powszechnie stosowane. A co z innymi startupami lub firmami budującymi w tej okolicy? Rada, której udzielilibyśmy w Intercom, to próba szybkiego wejścia na rynek, ponieważ jest to prawdziwa wartość dla Twoich klientów, którą możesz zbudować i odblokować. A koszt prawdopodobnie spadnie, ponieważ modele staną się tańsze, gdy dostawcy tacy jak OpenAI dowiedzą się, jak zwiększyć ich wydajność, lub ponieważ wymyślisz bardziej wydajne sposoby ich wykorzystania. Wymyślisz sposoby, by powiedzieć: „Hej, mogę użyć tańszego modelu generatywnego w pierwszej części rozmowy, a potem, kiedy mam o wiele trudniejsze zadanie, które wymaga większej dokładności, użyję droższego modelu. ”. Ethan i Talia prawdopodobnie mają na to znacznie szersze spojrzenie niż ja i chciałbym usłyszeć ich zdanie.

„Nigdy nie masz pewności, co programiści zamierzają zrobić z nową technologią, dopóki jej nie zdobędą – i to w miejscu, w którym nie płacą dwóch centów za każdym razem, gdy wykonują wywołanie interfejsu API”

Ethan Kurzweil: Cóż, to dobry przykład tego, co czasami można zobaczyć w przypadku tych najnowocześniejszych technologii. Na początku otrzymują je przypadki użycia o wysokiej wartości, a ty opisujesz aktualizację tej zasady. W firmie Intercom jest to funkcja podsumowania na żądanie dzisiaj. Ale z biegiem czasu technologia będzie znacznie bardziej wszechobecna i tańsza. I wtedy może rozprzestrzenić się na więcej przypadków użycia, w których koszt krańcowy jest dziś zaporowy, co pozwala programistom odkrywać inne zastosowania dużych modeli językowych w tego typu sztucznej inteligencji, których tak naprawdę nie przewidujemy.

W firmie Bessemer, Talia i ja staramy się opracować plany rozwoju technologii, ale jako inwestor zorientowany na programistów zawsze myślę o jednej z podstawowych zasad: nigdy nie masz pewności, co programiści zamierzają zrobić z nową technologię, nową platformę, nowy dostęp do czegoś, dopóki tego nie mają – i to w miejscu, w którym nie płacą dwóch centów za każdym razem, gdy wykonują wywołanie API – i mogą riffować i robić rzeczy, które na pierwszy rzut oka wydają się absurdalne.

Jestem podekscytowany tym, że technologia doszła do punktu, w którym jest tylko mnóstwo eksperymentów. Jestem pewien, że w planie rozwoju produktów Intercom, nie dzisiaj, ale za rok, znajdą się rzeczy, których nie przewidzieliśmy, ale które będą miały naprawdę dużą wartość dla klientów. I będzie kilka startupów, które właśnie wyszły, ponieważ wymyślały jakiś szczególny sposób, w jaki można użyć tekstu generatywnego, i stworzyło to dla kogoś naprawdę świetne wrażenia użytkownika.

Talia Goldberg: Jest zabawny przykład, który moim zdaniem może uwypuklić ludzki potencjał zwiększania doświadczeń, który jest istotny dla wsparcia. Jeśli rozmawiam, powiedzmy, z kimś z zespołu Intercom, który mówi z silnym irlandzkim akcentem, a oni prawdopodobnie myślą, że mam szalony zachodni akcent, czasami trudno nam się zrozumieć, kiedy jesteśmy bardzo podekscytowani i mówić naprawdę szybko. Brzmi jak inny język, mimo że wszyscy mówią po angielsku. Sztuczna inteligencja może w czasie rzeczywistym nieco zmienić akcent osoby, aby uczynić ją bardziej zrozumiałą w obie strony. Tak więc, jeśli mam akcent irlandzki lub brytyjski, przełoży się to na akcent kalifornijski, a to może naprawdę poprawić wrażenia w pewien sposób, obniżając bariery komunikacyjne.

Ethan Kurzweil: To dobry przykład, ponieważ technologia wchodzi w środek bezpośredniej komunikacji, ale czyni ją bardziej ludzką, co brzmi jak oksymoron, ale jeśli zostanie dobrze wdrożona, może sprawić, że poczujesz się bardziej połączony w kontekście przesyłania wiadomości lub komunikacji.

Talia Goldberg: To jest obietnica internetu – zbliża nas wszystkich i przełamuje bariery. Naprawdę głęboko wierzę w potencjał doładowania tego.

Współczynnik ufności

Krystal Hu: Myślę, że wiele osób zadaje sobie pytanie, jak upewnić się, że wszystko będzie poprawne pod względem przepływu informacji i że będzie dokładne. Stawka jest różna w różnych przypadkach użycia, ale generalnie nie chcesz podawać klientom błędnych informacji. Jak to zapewnić?

„Nie chodzi o to, że ty, jako człowiek, nigdy nie możesz zobaczyć tych rzeczy, ponieważ byłoby to niemożliwe – chodzi o to, że jesteś w stanie odpowiednio filtrować. Tak myślę o dużych modelach językowych”

Talia Goldberg: Może tylko jeden komentarz, a potem myślę, że pozwolę Fergalowi odpowiedzieć bardziej szczegółowo na temat interkomu. Modele są trenowane na ogromnych ilościach danych — wielu miliardach punktów danych i informacji. I tak, bez względu na to, jak bardzo próbujesz oszukać dane lub wprowadzić fałszywe dane, wciąż jest to bardzo malutka, malutka część ogólnych danych. To jedna rzecz, o której należy pamiętać, myśląc o tym, jak te modele są tworzone.

Kolejna sprawa to wprowadzanie danych. Wiem, że istnieje obawa, czy jest szkolona na danych, które są niepoprawne, i nie zrozumcie mnie źle, z pewnością są wyzwania związane z halucynacjami i innymi obszarami, więc jest wiele do poprawy. Ale w twoim życiu nie chodzi o to, że chodzisz w kółko i nie widzisz rzeczy, które mogą być błędne, stronnicze lub nawet dezinformacyjne. Natrafiasz na to, ale używasz swojego osądu i umysłu, a jest wiele innych dobrych danych. A więc nie chodzi o to, że ty, jako człowiek, nigdy nie możesz zobaczyć tych rzeczy, ponieważ byłoby to niemożliwe – chodzi o to, że jesteś w stanie odpowiednio filtrować. Tak myślę o dużych modelach językowych. Będzie kilka przypadków, w których dane i informacje nie będą tym, czego oczekujesz w zbiorze treningowym, ale zdolność modeli językowych do ich filtrowania i uzyskiwania właściwej odpowiedzi powinna z czasem być coraz lepsza.

„To może być jeden z parametrów: „Jakie masz zaufanie do tej odpowiedzi?” Jeśli to nie jest wystarczająco dobre, nie dawaj tego”

Ethan Kurzweil: Istnieje kilka interesujących pytań dotyczących prywatności i dokładności danych. Inną rzeczą, o której należy pamiętać w kwestii dokładności danych, zanim przejdziemy do części dotyczącej prywatności, jest to, że w przyszłości, w niektórych dużych modelach językowych, można faktycznie ustawić iloraz dokładności. To trochę tak, jak sztuczna inteligencja została zaprogramowana do wygrania Jeopardy – miała przedział ufności, że znała odpowiedź na pytanie z 90% lub 60% pewnością. I w tym kontekście, gdzie po prostu tracisz kilka punktów z błędną odpowiedzią, ustawili interwał dość nisko na 40% lub coś takiego. Jeśli masz co najmniej 40% pewności, co do diabła, idź i spróbuj odpowiedzieć na pytanie.

Może istnieć jakiś kontekst, w którym chcesz dokładności na poziomie człowieka, ustawiasz ją tam i wiele razy, kiedy sztuczna inteligencja nie może osiągnąć 99 percentyla, przerzuci się na człowieka lub coś w tym stylu. Może istnieć pewien kontekst nawet w wojsku, nawet w wysoce regulowanych branżach, gdzie masz większą tolerancję na wykształcone domysły wspomagane przez sztuczną inteligencję. I to może być jeden z parametrów: „Jakie masz zaufanie do tej odpowiedzi?” Jeśli to nie jest wystarczająco dobre, nie dawaj tego.

Fergal Reid: Wtrącę się do tego, Ethan, to jest zdecydowanie silne przekonanie o produkcie, które mamy wewnętrznie w Intercom, a mianowicie, że jest całkiem prawdopodobne, że będzie tutaj wiele tolerancji. Znajdą się klienci z dość dużą tolerancją na: „Daj mi sugestię; jest w porządku, jeśli od czasu do czasu sugestia jest błędna”. I będą inni klienci z bardzo niską tolerancją. Spodziewamy się, że będziemy potrzebować pewnego stopnia konfiguracji wokół tego.

„Mamy tę nową technologię, która może znacznie lepiej przewidywać i robić rzeczy znacznie szybciej. Jak to zrobić i sprawić, by było wystarczająco godne zaufania, a przynajmniej pozwolić klientom na wybór?”

Aby zagłębić się w temat niektórych rzeczy, którym przyglądamy się w przyszłości, załóżmy, że masz coś, co próbuje pochłonąć artykuł i odpowiedzieć na pytanie dotyczące tej treści. Jednym z przykładów jest ograniczenie go do powiedzenia: „Możesz odpowiedzieć tylko dokładnym cytatem z tego”. I może umieścić ten cytat w kontekście, ale cytat musi tam być. To konserwatywny sposób wykorzystania tych nowych dużych modeli językowych do lepszego zrozumienia zapytania i wyszukiwania informacji, ale ograniczający to, co mogą faktycznie powiedzieć. Innym przykładem jest branie modelu generatywnego i pozwalanie, aby był generatywny pod maską, ale może on wchodzić w interakcje z użytkownikiem końcowym tylko poprzez predefiniowaną serię działań lub rzeczy, które może powiedzieć.

Istnieje wiele technik wykorzystania potężnego silnika i uczynienia go bezpieczniejszym, bardziej godnym zaufania i ograniczonym. I myślę, że zobaczysz wielu ludzi pracujących z tą techniką. Mamy tę nową technologię, która może znacznie lepiej przewidywać i robić rzeczy znacznie szybciej. Jak to zrobić i uczynić go wystarczająco godnym zaufania, a przynajmniej pozwolić klientom na wybór? Myślę, że w ciągu najbliższych kilku miesięcy będziecie świadkami dużego ruchu w tej przestrzeni.

Masowa personalizacja w różnych branżach

Krystal Hu: W tej notatce, Ethan, Talia, czy poza obsługą klienta są jakieś inne aplikacje, które widzisz w tej przestrzeni, którymi jesteś szczególnie podekscytowany?

Ethan Kurzweil: Mogę iść pierwszy. Patrząc na niektóre aplikacje konsumenckie, ekscytujemy się grami. Jeśli często myślisz o tym, co sprawia, że ​​gry są zabawne, jest to częstotliwość odświeżania nowych treści, a to wymaga ciągłego wymyślania kreatywnych pomysłów. Zaczynamy widzieć, jak ludzie zastanawiają się: „A co, jeśli każde doświadczenie dla każdego gracza może być nowe?” You couldn't have a personal copywriter writing that much content for each person, but an AI could do it. And it could get down to a level where each decision you make generates a new experience based on whatever temporal inputs you want to give the system.

“We went from handcrafted goods to mass-produced goods to mass personalization in a way we've probably never seen before”

Media applications as well. Earlier in my career, I used to work at the Wall Street Journal , and the parent company of the Wall Street Journal was Dow Jones. They had a sister news department called Dow Jones Newswires , which was about getting financial news mainly to traders and folks that needed to act very quickly on that information as fast as possible through terminals and things like that. I think about what an AI could do to augment news or get news to the end user more quickly. Again, I don't think it's replacing journalists at all, I think it's augmenting the amount of information and the targeting we can provide to folks much more quickly.

I think about entertainment use cases. This promise of personalized television and premium content services has always been out there, but when you get to the long tail of internet content and user-generated content, it tends to be pretty low-quality. Could you have a high-quality, personalized content delivery service? I think AI could impact that equation in the future.

Talia Goldberg: I love the concept of personalization and everyone having their own experience. We went from handcrafted goods to mass-produced goods to mass personalization in a way we've probably never seen before. This is a totally new experience for everyone, which is super cool. I'll share one of the areas that I think is going to be wildly impactful and really promising, which is in life sciences and biotech.

“The AI is seeing something that we, as humans, have never before been able to see”

Applying AI to drug discovery and development using huge amounts of data to look at molecules and protein structures and genomic data can be really transformative. I read this study that I think was in Nature a month ago, and it described how some researchers gave an AI a bunch of images of a human retina, and the AI, with 90% accuracy, said which retina belonged to either a male or a female. That seems very basic – who cares? But what's really crazy about that is that no researcher, scientist, or AI expert has ever been able to find any sign of a retina correlating to gender of any form. The AI is seeing something that we, as humans, have never before been able to see.

You think about that, and then you apply that to cancer and different cells and otherwise, and the potential is just massive and really exciting. And we're already seeing a lot of applications. AI's going to transform a whole bunch of things – health, software, business applications, logistics, consumer… We could make a long list, but there are a ton of reasons to be super optimistic.

Mix and match

Krystal Hu: When I talk to startups, when they're incorporating this kind of technology into their offerings, one choice they have to make is which model they work with. Do they only work with one type of model, or do they diversify their vendors to work with other companies besides OpenAI? I'm sure, Fergal, you've spent some time thinking about that. What was the experience like at Intercom?

Fergal Reid: With new technology, being right in the forefront, our head tends to go first to customer value. We're happy to use the most expensive or newest model to try and figure out, “Okay, can we really build a transformative experience for a customer with this that is a core part of the workflow and makes something valuable for them?” And once we do that, we're like, “Okay, now, how can we make it cost-effective?” And we're probably going to end up with a large mix of different models from, say, OpenAI, and we've also looked at other vendors like Anthropic, which are doing some really interesting work in this space too.

“It's highly likely that everyone's going to end up running a bespoke mix of many different models. It's going to get complex pretty fast”

It's an exploding space with many different people training large language models, and I think you'll have different large language models that are better and worse and have different trade-offs in terms of cost and latency and performance. Performance won't be one-size-fits-all. Some models are better at dealing with hallucinations, some are better at generating creative content, and I think we're already seeing that.

Our focus is to get whatever models we can, try them out, think if we can use these to build transformative value, get it live with our customers, and then figure out how to optimize that. Once we know it's delivering value, let's optimize it in terms of price and cost and work. It's highly likely that everyone's going to end up running a bespoke mix of many different models. You could have three different models in one customer interaction. So yeah, it's going to get complex pretty fast.

“There'll probably be a new set of metrics that everyone coalesces around that measure the effectiveness of your AI and your particular business problem”

Ethan Kurzweil: I think that's an interesting point that actually ties the question from before: how do you measure the success of this? Because I think lots of companies will try a model or many, and the question will be, “All right, which is best?” And that's such an oversimplification because you have to figure out what you are trying to achieve. Are you trying to achieve engagement with users? Are you trying to achieve a quick resolution?

I think there'll probably be a sort of metricization of this where people come to a standard, like the way Google Search created a new industry, AdWords, and the way we measure click-through rates and conversion rates and things like that. There'll probably be a new set of metrics that everyone coalesces around that measure the effectiveness of your AI and your particular business problem.

Fergal Reid: Yeah, even before these more recent language models, we've had bots that process natural language using pretty big neural networks, although not as big. And whenever we would do something like upgrade our bots, we would conduct a large-scale A/B test framed in terms of end-user metrics such as self-serve rate. Then, we would find edge cases for particular customers or domains where it performed less well, really dig into those, and make sure nothing was broken. I think there's probably a well-understood playbook, like Ethan's referring to, of metrics for given domains. A lot of the same things will apply to this new type of technology.

Q&A

Krystal Hu: I'd love to get to the Q&A. I think we were able to address some of the questions during our discussions, but there are a bunch about the potential roadmaps from, I assume, Intercom's customers or companies working with Intercom who want to know what could be the next AI-aided feature that may come out, both in the short-term and long-term, and also how that will affect the pricing strategy.

Fergal Reid: Cool. Do you want to call out one particular question?

Krystal Hu: I think there was a question about your roadmap for the features for the next six months versus 12 to 18 months, and then the other person asked about the pricing strategy.

Fergal Reid: We have some things coming up that unfortunately, I can't talk about at the moment. I would say that six months is a really long time in this space. I expect you'll see a lot of movement in this space over the next two or three months. We will continue to sweat and invest in these features in our Inbox to make support reps more efficient. I've already talked about how we've got a Generation 1 version of features here at the moment, with summarization and expansion features to help edit a text, and we're definitely working on Generation 2 versions of those features.

We've also met two other exciting features in this space that we're really excited about, but unfortunately, I can't share any details at the moment – it's just a little bit too early to announce and launch those things. I can promise you're going to see a lot of action and excitement from us, and I'm sure from other companies in this space as well, over the next six months.

“Right now, there's a bit of a context limit for each interaction with an AI in a large language model, but there's a lot of exciting research pushing the boundaries”

Krystal Hu: Talia and Ethan, do you have any expectations or hopes on how fast the space could move?

Talia Goldberg: Well, it's moving a lot faster than we even anticipated. The space is moving really quickly in part because there are a whole bunch of technological advances happening at the same time as the hardware that these models are trained on gets better and improves at a Moore's Law rate, and there are new architectures and ways of scaling on that hardware. We're getting better and better at creating new experiences and models.

I don't have an exact prediction of how quickly we'll see different things, but one of the biggest areas that we're watching closely and expect to see a lot of advances in over the next six to 12 months is around personalization and being able to create far more personalized experiences. Right now, there's a bit of a context limit for each interaction with an AI in a large language model, but there's a lot of exciting research pushing the boundaries of those context windows, coming up with new frameworks to create far more personalized experiences and remember each person, each user, each customer, and tons of data points about that person to create a better experience.

“I would encourage everyone that's building new products to ride the ups and the downs”

Ethan Kurzweil: I completely agree with Fergal and Talia. We're going to see predictable and unpredictable applications of this over the next six months. There'll be some unsuccessful ones too, and then the narrative will quickly shift to, “Oh, that didn't do everything we thought it was going to do as quickly as we thought.” Right now, we're into the peak of momentum and euphoria and, dare I say, a little hype in the space. But over time, it'll become as big a deal as we thought.

I would encourage everyone that's building new products to ride the ups and the downs. Don't ride the up as high as it may be feeling like you should right now, but when the narrative changes a little bit, because it will – all new technologies have that “Oh, that wasn't as impactful as quickly as we thought” moment – I would encourage everyone to keep building through that as well.

Krystal Hu: Yeah, I'll definitely take that from you as a crypto investor.

Ethan Kurzweil: It's the same thing. Right now, there's clearly a trough of disillusionment for crypto. And good builders are figuring out, “Okay, what of this technology is applicable? What makes sense?” And we'll see those things come to market over the next couple of years.

Krystal Hu: One common question I saw in the Q&A is: how will this impact human jobs like human agent jobs? I'm curious to hear your thoughts on this specific case.

Ethan Kurzweil: Ever since the advent of the computer, there's been this prediction that it would be a massive replacement for human work at all levels. It does change the nature of work, and this will certainly change in some ways, but it's not going to be a wholesale replacement for humans in any broad way.

“Guess what? Every year, we need way more engineers. It's like Jevon's Paradox. The more that AI is available and the cost goes down, the more demand there is”

Just as Talia alluded to the example of Copilot and people, I've read many articles saying this was going to put all developers out of business over the next two to three years, and that's complete BS. Everyone knows that's not true. But it may allow for more productivity and for the cycle time on software to speed up. It may allow for different skills to be more important. I think it just makes us more productive. It's not that it won't have an impact and won't shift the nature of work in some ways. I don't mean to minimize that because that's very real. But looking at the whole, you'll see we come out ahead.

Talia Goldberg: At least until we reach the singularity, I'm pretty convinced of the need for more and more engineers. You could have gone back 10 years and been like, “Ah, there are all these cool developer tools now that are coming out and making it way easier to integrate things,” or, “Oh gosh, there are these self-serve products like Zapier that make it easy for non-technical people to connect products and integrate things.” I zgadnij co? Every year, we need way more engineers. There's a shortage. It's like Jevon's Paradox. The more that AI is available and the cost goes down, the more demand there is. And I think, in a lot of areas, that paradigm will hold true. But as Ethan said, the exact skills and the way it looks may shift.

Krystal Hu: Yeah, that makes a lot of sense. I saw some interesting observations and questions about whether you should tell people that they are talking to an AI versus a real person. It's an interesting question because it presumes we wouldn't be able to tell.

Ethan Kurzweil: It's a good existential question. If you're talking to a person assisted by an AI, who are you talking to, and what disclosure do you have to make in that case? I don't have any answers to these questions, but they're great ones for us to debate.

Talia Goldberg: I find that AI can sometimes generate responses that are so detailed and so good that there's just no way that a human did it anyway. It's like the reverse of the Turing test.

Krystal Hu: Kolejne pytanie dotyczące funkcji bezpieczeństwa. Wydaje mi się, że poruszyliśmy ten temat również wcześniej, ale pojawia się konkretne pytanie: „Jak ważna jest pionowa integracja funkcji bezpieczeństwa z dostawcą modelu? Na przykład, jak ważne jest używanie interfejsu API moderacji OpenAI z danymi wyjściowymi modelu ChatGPT w porównaniu z mieszaniem i dopasowywaniem z interfejsem API Perspective Jigsawa?” Fergal, możesz mieć jakieś przemyślenia albo doświadczenia by podzielić się na tamtym.

Fergal Reid: Tak, nie jestem zaznajomiony z Perspective API Jigsawa, więc nie znam się na tym konkretnie. Wszyscy ludzie z OpenAI i Tropic oraz wszyscy inni, którzy trenują duże modele językowe, bardzo dbają o to, aby były one użyteczne, bezpieczne i dopasowane, a także bardzo zależy im na unikaniu halucynacji. I będą nadal pracować w tych obszarach, aby ułatwić firmom takim jak Intercom wdrażanie ich w godny zaufania sposób. Nie jestem przekonany, że musimy to zintegrować pionowo. Nie wiem, czy Intercom musi zajmować się szkoleniem własnych, ogromnych, dużych modeli językowych, abyśmy mogli zająć się produktywizacją i uczynić je wystarczająco godnymi zaufania. Myślę, że i tak będziemy świadkami dużego ruchu w tej przestrzeni.

Ten rodzaj generatywnej sztucznej inteligencji daje użytkownikowi dużą swobodę, aby spróbować dowiedzieć się, jak wdrożyć model. Pojawia się nowa dziedzina inżynierii monitów, a mój zespół dużo tego robi, edytując podpowiedzi i próbując dowiedzieć się: „Dobrze, jak zapytać modela, czego chcę we właściwy sposób, dać mi wynik, którego szukam?” To się poprawi, przynajmniej na jakiś czas, stanie się potężniejsze, a modele staną się łatwiejsze do kontrolowania.

Myślę, że będziemy mogli zobaczyć, jak firmy na pozycji Intercomu generują dużą wartość i wymyślają wiele aplikacji i projektów. Wciąż uczymy się, jak projektować produkty w oparciu o tę nową technologię. Jest tak wiele stopni swobody dla ludzi na naszej pozycji, aby z tego korzystać.

„Zawsze jest to napięcie: czy po prostu czepiasz się ogólnej rzeczy? O ile lepszy jest model ogólny w porównaniu z modelem dostrajającym?”

Krystal Hu: Były też pytania o to, czy Intercom zbuduje swój własny model. Jak wspomniałeś wcześniej, być może pojawią się możliwości zrobienia miksu, który model lepiej pasuje do twoich przypadków użycia podczas tworzenia interfejsu API lub czegoś w tym rodzaju?

Fergal Reid: Tak, biorąc pod uwagę skalę, w jakiej te modele są obecnie szkolone, wydaje się, że nie ma ekonomicznego sensu, aby każda firma wielkości Intercom szkoliła swoich. Ale znowu, jest tu spektrum. Rozwiniemy ekspertyzę w projektowaniu wokół nich i wiedząc, o co zapytać modelkę. I prawdopodobnie zobaczymy pojawiającą się funkcjonalność wokół firm, takich jak modele dostrajania interkomu. Wiele z tych nowych modeli jest trenowanych za pomocą uczenia się przez wzmacnianie z ludzkimi opiniami. Koszt tego prawdopodobnie spadnie z czasem i będziemy mogli bardziej dostosować je do naszych konkretnych przypadków użycia.

Zawsze jest to napięcie: czy po prostu czepiasz się ogólnej rzeczy? O ile lepszy jest ogólny model w porównaniu z dostrajaniem i robieniem konkretnych rzeczy? Będziemy musieli zobaczyć, jak ta przestrzeń się potoczy, ale myślę, że firmy będą miały wiele stopni swobody w braniu tych modeli i dostosowywaniu ich oraz produkowaniu ich dla swojego obszaru. Jesteśmy na początkowym etapie opracowywania tej technologii. Wiele się zmieni i znacznie łatwiej będzie ustalić priorytety.

Krystal Hu: Zbliżamy się do końca naszej wspaniałej rozmowy, ale możemy zadać jeszcze dwa pytania. Jeden dotyczy sposobu, w jaki firmy korporacyjne przyjmują i wydobywają wartość z ChatGPT. Widzieliście firmy, które zaczęły integrować to w swoich ofertach, a z drugiej strony myślę, że firmy, zwłaszcza banki o wysokim stopniu regulacji, zastanawiały się nad usługami informacyjnymi i kwestiami prywatności oraz zabraniały swoim pracownikom bawienia się na firmowych laptopach. Ciekaw jestem opinii Talii i Ethana na ten temat.

Talia Goldberg: W naszym portfolio wiele firm programistycznych, które mogą nawet nie należeć do kategorii takich jak Intercom, które naprawdę przodują, myśli w stylu: „Hej, jakie to ważne dla mojej firmy i jakie są sposoby, może zintegrować niektóre z tych modeli lub interfejsów API ChatGPT z moim produktem?” Wysoce powtarzalne zadania mogą być naprawdę świetne dla AI, aby pomóc zautomatyzować lub usprawnić. Jedna z naszych firm otrzymuje od swoich klientów wiele informacji księgowych, które muszą uzgodnić i zgłosić, jeśli wystąpił błąd lub coś jest nie tak. I mieli te systemy oparte na regułach w przeszłości, ale możesz zastosować sztuczną inteligencję i mieć znacznie lepszą dokładność. Inny ciekawy przykład dotyczy fragmentu podsumowującego. Jeśli klient rozmawia z agentem call center lub przedstawicielem handlowym, możesz podsumować tę rozmowę i stworzyć niestandardowe materiały marketingowe tylko dla tej osoby.

Krystal Hu: Ostatnie pytanie do Talii i Ethana. Ludzie pytali, czego szukasz, inwestując w start-upy przed zalążkiem lub, jak sądzę, w start-upy w ogóle.

„Próbujemy rozbić to na kluczowe pytanie:„ czy to naprawdę porusza igłę dla określonej roli lub typu osoby? ”

Ethan Kurzweil: To świetne pytanie. Jest na to tak wiele różnych odpowiedzi. Pre-seed jest nieco wcześniej niż zazwyczaj inwestujemy, żeby to zaprzeczyć – zazwyczaj inwestujemy w późniejsze seedy lub serie A lub B. Ale naszą filozofią jest poszukiwanie modeli hiper-wzrostu, gdziekolwiek możemy je znaleźć ich. I zwykle sposobem, w jaki to rozbijamy, jest próba wstępnej diagnozy poprzez tworzenie map drogowych, a Talia była tą, która forsowała wiele z naszego myślenia o sztucznej inteligencji i jej zastosowaniach do różnych rzeczy, i wymyślaliśmy te mapy drogowe różne obszary tematyczne, które naszym zdaniem są całkiem interesujące. Mogą być naprawdę szerokie, jak przetwarzanie w chmurze lub konsumeryzacja opieki zdrowotnej, lub wąskie, jak wpływ sztucznej inteligencji na obsługę klienta.

Zachęcam ludzi do przyjrzenia się, ponieważ często publikujemy na naszym blogu i w mediach społecznościowych naszą aktywną tezę, aby zobaczyć, czy to, co budujesz, jest z czymś zgodne. A następnie, ogólnie rzecz biorąc, szukamy: „Czy ma to wpływ, który zmieni sposób, w jaki pracujemy lub zajmujemy się rozrywką, lub coś, co może być zmianą paradygmatu w niektórych procesach biznesowych lub potrzebach konsumentów?” Tak to rozkładamy. Zauważyliśmy, że za każdym razem, gdy następuje szeroko zakrojona zmiana zachowań, prowadzi to do hiperrozwoju firm i możliwości dla startupów, aby zakłócić sposób pracy, rozrywki lub cokolwiek innego, co robiono wcześniej. Próbujemy więc rozbić to na kluczowe pytanie: „czy to naprawdę porusza igłę dla jakiejś konkretnej roli lub typu osoby?”

Krystal Hu: To koniec naszej rozmowy. Tych, którzy nie mieli okazji wypróbować nowych funkcji Intercomu, zachęcam do samodzielnej zabawy z podsumowaniem i kilkoma innymi funkcjami. A jeśli interesuje Cię przestrzeń venture, koniecznie zajrzyj na stronę internetową Bessemera. Jak wszyscy mówili, za sześć miesięcy spojrzymy wstecz i niektóre przewidywania się spełnią, a niektóre będą zupełnie inne. Mam nadzieję, że będziemy mieć inny czas, aby wrócić i odpowiedzieć na więcej pytań. Jeszcze raz dziękuję Talii, Ethanowi i Fergalowi za poświęcony nam dzisiaj czas.

Ethan Kurzweil: Dzięki, że nas gościsz.

Talia Goldberg: Cześć.

Fergal Reid: Dziękuję bardzo wszystkim. PA pa.

Podcast domofonu wewnętrznego (w poziomie) (1)