Efek GPT: Era baru layanan pelanggan
Diterbitkan: 2023-03-10Terobosan terbaru dengan model bahasa besar telah melampaui semua harapan kami. Kami telah mengumpulkan pakar industri untuk berdiskusi tentang GPT dan bagaimana GPT akan membentuk masa depan layanan pelanggan.
Kita tidak bisa mengatakan itu mengejutkan kita. Selama bertahun-tahun, industri memuji potensi AI dan pembelajaran mesin untuk secara radikal mengubah cara kita bekerja, terutama karena kemajuan dalam daya komputasi dan penyimpanan data memungkinkan untuk melatih model yang semakin besar. Tapi kami tidak terlalu berharap seberapa cepat kemajuan terbaru dalam ChatGPT OpenAI akan membuka kemungkinan baru.
Di Interkom, kami selalu mengirim untuk belajar. Hanya dengan mengirimkan fitur baru dengan cepat, kami dapat memperoleh umpan balik yang tepat, belajar darinya, dan terus mengulang untuk melayani pelanggan kami dengan lebih baik. Jadi, tentu saja, itulah yang kami lakukan dengan teknologi baru ini. Selama beberapa bulan terakhir, kami mengirimkan beberapa fitur bertenaga AI ke 160 pelanggan. Dan meskipun masih terlalu dini untuk mengetahui bagaimana model bahasa besar (LLM) ini akan berperan dalam kehidupan kita, kami yakin bahwa kami telah mencapai titik perubahan yang penting – terutama dalam hal layanan pelanggan.
Jadi, minggu lalu, kami menyelenggarakan webinar untuk menggali lebih dalam tentang kasus penggunaan bisnis GPT. Apakah gelombang inovasi ini berbeda dengan gelombang sebelumnya? Akankah ini mengubah cara kita bekerja dan cara bisnis berinteraksi dengan pelanggan dan prospek? Bisakah itu memicu generasi baru startup? Untuk memberi Anda sedikit lebih banyak wawasan, kami telah mengundang beberapa petinggi di kancah startup untuk mempertimbangkan.
Dalam episode hari ini, Anda akan mendengar dari:
- Ethan Kurzweil, anggota dewan Interkom dan Mitra di Bessemer Venture Partners
- Fergal Reid, Direktur Machine Learning kami sendiri
- Krystal Hu, VC dan Reporter Startups di Reuters
- Talia Goldberg, Mitra di Bessemer Venture Partners
Mereka akan berbicara tentang model bahasa besar seperti ChatGPT, bagaimana bisnis menggabungkan teknologi ini, dan bagaimana hal itu akan membentuk masa depan industri layanan pelanggan.
Singkat waktu? Berikut adalah beberapa takeaways utama:
- Kami mulai melihat kasus penggunaan model bahasa yang besar – ada potensi besar untuk menambah layanan pelanggan karena keteraturan dan penggunaan bahasa alami.
- Untuk saat ini, model bahasa besar diharapkan untuk menambah kemampuan manusia daripada menggantikannya, karena model tersebut dapat membantu para profesional menjadi lebih produktif dan efisien dalam pekerjaan mereka.
- Meskipun masih terlalu dini untuk mengukur keberhasilan eksperimen beta Intercom, adopsi dan penggunaan fitur-fitur bertenaga AI terbaru sangat besar dan umpan balik awal sangat menjanjikan.
- Model bahasa besar bisa menjadi sangat mahal dengan sangat cepat. Namun, seiring waktu, mereka akan menjadi lebih murah dan lebih umum, memungkinkan lebih banyak eksperimen dan penemuan.
- Meskipun masih ada masalah dengan halusinasi, Anda dapat mengonfigurasi dan membatasi model ini agar lebih dapat dipercaya saat situasinya membutuhkan tingkat kepercayaan yang lebih tinggi.
- Model bukanlah satu ukuran untuk semua. Kemungkinan besar, di masa mendatang, perusahaan akan menjalankan perpaduan model yang berbeda dan dapat disesuaikan yang sesuai dengan masalah bisnis yang berbeda.
Jika Anda menikmati diskusi kami, lihat lebih banyak episode podcast kami. Anda dapat mengikuti Apple Podcasts, Spotify, YouTube, atau mengambil umpan RSS di pemutar pilihan Anda. Berikut ini adalah transkrip episode yang diedit ringan.
Munculnya ChatGPT
Krystal Hu: Terima kasih banyak untuk semua orang yang meluangkan waktu untuk bergabung. Saya Krystal Hu, dan saya meliput usaha dan startup untuk Reuters. Seperti yang kalian ketahui, AI dan gelombang ChatGPT telah muncul dalam beberapa bulan terakhir, dan sebagian besar pekerjaan saya adalah mencari tahu teknologi dan bagaimana hal itu mengubah berbagai aspek kehidupan. Untuk topik hari ini, kami akan berfokus pada bagaimana ChatGPT akan membentuk masa depan layanan pelanggan. Kami akan membahas apa sebenarnya ChatGPT dan model bahasa besar, bagaimana teknologi ini akan digunakan, dampaknya terhadap teknologi yang ada dan yang akan datang, bagaimana startup menggabungkan teknologi ini, dan bagaimana perusahaan baru dibangun.
Kami memiliki panel hebat hari ini bersama kami. Dua investor luar biasa dari Bessemer: Talia Goldberg dan Ethan Kurzweil. Talia berbasis di San Francisco, berinvestasi di internet konsumen dan bisnis perangkat lunak, dan bekerja dengan perusahaan seperti ServiceTitan dan Discord. Ethan Kurzweil juga berbasis di San Francisco, dan dia memimpin investor di berbagai vertikal, termasuk platform pengembang, infra data baru, aplikasi konsumen digital, dan crypto.
Dan kemudian, kami akan meminta Director of Machine Learning di Intercom, Fergal Reid, memberi kami pandangan mendalam tentang bagaimana Intercom menggabungkan teknologi ini dalam penawaran terbarunya – termasuk beberapa fitur asisten AI. Saya berharap untuk memilih otak mereka dan mendengar apa yang mereka lihat di depan startup dan ventura dan perubahan yang mungkin dibawa oleh GPT. Sepanjang proses, jika Anda memiliki pertanyaan, jangan ragu untuk mengajukan pertanyaan Anda di obrolan, lalu kami akan memiliki waktu sekitar 15 hingga 20 menit di akhir percakapan untuk menjawab pertanyaan.
Saya kira saya akan mulai dengan Anda, Fergal, karena Anda adalah teknolog di ruangan itu, dan Anda berada di garis depan dalam memasukkan GPT ke dalam penawaran Intercom. Mungkin Anda bisa mulai dengan memberi kami sedikit latar belakang dan menjelaskan apa itu GPT dan ChatGPT, dan bagaimana Anda bisa menggabungkan teknologi ini?
“Saya tidak akan membuat aturan kode, dan saya tidak akan secara khusus mengatakan, 'Belajar memprediksi X versus Y'”
Fergal Reid: Ini adalah waktu yang sangat menyenangkan dalam teknologi. Saya akan menganggap banyak orang mungkin telah melihat ChatGPT pada saat ini karena baru saja membuat gelombang besar. Namun dari perspektif teknologi, dari pandangan sempit saya tentang dunia, saya telah bekerja di Interkom selama sekitar lima tahun, dan saya menjalankan tim pembelajaran mesin. Dan pembelajaran mesin yang telah kami lakukan menggunakan algoritme yang sudah ada sejak lama – menggunakan algoritme pembelajaran terawasi, algoritme yang belajar membedakan berbagai hal. Anda bisa seperti, "Hei, mari kita prediksi apakah seseorang akan meminta satu atau lain hal." Dengan sistem pembelajaran mesin ini, Anda memberi mereka banyak data pelatihan: "Hei, ini adalah contoh jika seseorang menanyakan satu pertanyaan kepada Anda, dan ini adalah contoh jika seseorang mengajukan pertanyaan lain kepada Anda."
Dan apa yang baru dan berbeda dengan gelombang AI generatif terbaru ini adalah bahwa alih-alih hanya mengajarkan model untuk memprediksi satu atau lain hal, Anda berkata, “Hei, model. Pelajari cara membuat data baru jenis ini. Pelajari cara menghasilkan gambar.” Anda memberinya beberapa teks dan ia belajar membuat gambar yang dipetakan ke teks itu, atau, dengan ChatGPT, Anda cukup berbicara dengannya dan memberikannya beberapa teks, dan ia menjadi cukup bagus dalam menghasilkan lebih banyak teks sebagai tanggapannya.
“Kami memiliki model yang sangat besar ini, kami mengajukan pertanyaan dalam bahasa Inggris, menyuruhnya melakukan sesuatu dalam bahasa Inggris, dan cukup bagus dalam melakukan apa yang kami perintahkan”
Itu hanya cara berbeda dalam melakukan pembelajaran mesin. Saya tidak akan membuat aturan kode, dan saya tidak akan secara khusus mengatakan, "Belajar memprediksi X versus Y." Sebagai gantinya, saya akan mengambil data pelatihan dalam jumlah yang sangat besar, membuat model yang sangat bagus dalam mencoba memprediksi data pelatihan tersebut, dan kemudian, semoga, saya dapat membuatnya melakukan hal-hal yang berguna dengan membuat contoh baru.
Dengan ChatGPT, Anda menanyakan sesuatu dengan memberinya beberapa teks dan berkata, "Hasilkan apa yang akan terjadi selanjutnya." Dan yang mengejutkan, itu sangat berguna. Anda dapat mengatakan, "Hei, ini percakapan dukungan pelanggan, dan ini adalah ringkasan percakapan dukungan", lalu berikan ke ChatGPT, dan itu akan menghasilkan apa yang terjadi selanjutnya atau apa yang diharapkan untuk dilihat selanjutnya. Dan mungkin, Anda berkata, "Ini ringkasannya," dan kemudian ringkasan muncul. Dan itu sangat berguna. Ini adalah cara yang sangat umum untuk membangun fitur dan sistem. Alih-alih membuat kode sistem pembelajaran mesin baru untuk setiap hal kecil, kami memiliki model yang sangat besar ini, kami mengajukan pertanyaan dalam bahasa Inggris, menyuruhnya melakukan sesuatu dalam bahasa Inggris, dan cukup bagus dalam melakukan apa yang kami perintahkan. Jadi, di Interkom, kami mencoba menggunakannya untuk membuat fitur produk.
Pengubah permainan untuk layanan pelanggan
Krystal Hu: Saya ingin membawa Talia dan Ethan ke atas panggung sebagai investor produktif di luar angkasa. Anda telah melihat beberapa gelombang teknologi. Apa perbedaan AI generatif ini, dan bidang aplikasi apa yang Anda sukai?
Talia Goldberg: Tentu, terima kasih sudah menerima saya. Itulah gambaran umum yang bagus tentang apa itu AI generatif. Lucu, tepat sebelum pertemuan ini, saya melihat artikel yang kami publikasikan di blog kami musim panas lalu, mungkin delapan atau sembilan bulan yang lalu, dan ini beberapa bulan sebelum ChatGPT diluncurkan, tetapi kami mulai melihat banyak momentum dan alasan untuk bersemangat tentang apa yang terjadi dengan model bahasa besar khususnya, dan potensi AI dan AI generatif sebagai gelombang baru kecerdasan buatan yang sangat kuat ini.
Dan kami memiliki prediksi: “Saat ini, kurang dari 1% konten online dihasilkan menggunakan AI, dan dalam 10 tahun ke depan, kami memperkirakan bahwa setidaknya 50% akan dihasilkan atau ditambah oleh AI.” Dan kami memperdebatkannya, dan kami pikir itu hal yang liar untuk dikatakan, tapi sial, kami meremehkan seberapa cepat AI dapat mengubah banyak informasi yang kami lihat. Saya akan mengatakan itu bisa menjadi 50% dalam dua tahun ke depan dari interaksi online, konten, dan media kami. Implikasinya, menurut saya, sangat luas di banyak pekerjaan informasi dan pengetahuan, termasuk dukungan pelanggan.
“Anda langsung melihat kasus penggunaan yang lengket di mana teknologi siap untuk mengganggu, meningkatkan, menambah, dan membuat lebih baik, dan dukungan pelanggan tepat untuk itu”
Krystal Hu: Ethan, kamu sudah lama bekerja dengan Intercom. Apakah ini saat yang menurut Anda ditunggu-tunggu oleh layanan pelanggan? Karena saya merasa teknologi dan peluangnya emas untuk aplikasi layanan pelanggan seperti Intercom.
Ethan Kurzweil: Ya, saya merasa ini mungkin aplikasi paling mutakhir dari model bahasa besar dan apa yang dapat mereka lakukan. Jika Anda melangkah mundur dan berpikir tentang perubahan teknologi dan pergeseran platform seperti momen smartphone, momen iPhone, dan hal-hal seperti itu, yang terjadi sejak awal adalah bahwa ada semua kegembiraan ini dan banyak pengembang dan pencipta bergegas ke luar angkasa, dan kemudian Anda memiliki pencucian ini di mana Anda melihat mana aplikasi tepi yang berdarah di mana ia menempel lebih dulu, dan yang tidak membuat Anda sedikit kecewa. Saya pikir kita mungkin masih sedikit lebih awal pada kurva itu, tetapi Anda langsung melihat kasus penggunaan yang lengket di mana teknologi siap untuk mengganggu, meningkatkan, menambah, dan membuat lebih baik, dan dukungan pelanggan tepat untuk itu.
Saya telah bekerja dengan Intercom sekarang selama hampir delapan setengah tahun, dan Intercom adalah tim yang selalu berada di garis depan dalam mengadopsi teknologi baru saat mereka siap. Dan saya ingat dua atau tiga tahun lalu, orang berkata, "Otomasi, otomatisasi, otomatisasi." Dan pimpinan produk di Intercom selalu berkata, “Ini belum cukup baik. Kami dapat melakukannya, kami dapat memasukkannya sedemikian rupa sehingga kami dapat mencentang kotak pada beberapa formulir permintaan fitur, tetapi itu tidak akan menghasilkan alur seperti manusia yang benar-benar bagus. Interkom selalu didasarkan pada gagasan menjadikan bisnis internet pribadi. Dan jika Anda memiliki bot yang tidak terdengar pribadi, itu ortogonal.
Fakta bahwa Interkom menggunakannya dengan sangat sukses dalam alirannya menunjukkan kepada Anda bahwa teknologinya sudah siap dan ini adalah salah satu dari banyak hal yang akan kita lihat dampaknya. Tidak semuanya sekaligus sekaligus, tetapi seiring waktu, kita akan melihat lebih banyak dampak dengan memberi mesin kemampuan untuk berkomunikasi dengan cara yang mirip manusia.
“Anda melihat kurva dan tingkat peningkatan, dan itu akan menjadi lebih baik beberapa bulan dari sekarang, beberapa kuartal dari sekarang, dan beberapa tahun dari sekarang”
Talia Goldberg: Jika saya dapat menambahkan satu hal, menurut saya dukungan pelanggan adalah area awal yang sempurna bagi AI untuk mulai memberikan dampak. Dan salah satu alasannya adalah karena menggunakan bahasa alami. Anda dapat berkomunikasi dengan AI menggunakan bahasa Inggris, dan AI akan merespons dalam bahasa Inggris. Anda tidak perlu membuat kode – ini menghasilkan informasi. Dan seperti itulah layanan dan dukungan pelanggan – menghasilkan pengalaman hebat seperti manusia yang dapat dipersonalisasi, menyelesaikan keluhan, dan menjadi lebih baik dan lebih baik dari waktu ke waktu. Jadi, Anda juga mendapatkan umpan balik yang bagus ini dengan menggunakannya di dukungan pelanggan.
Meskipun mungkin ada beberapa tantangan dan hal-hal yang sulit di sekitar saat ini, teknologi dan potensinya sudah sangat bagus, seperti yang dikatakan Ethan. Anda melihat kurva dan tingkat peningkatan, dan itu akan menjadi lebih baik beberapa bulan dari sekarang, beberapa kuartal dari sekarang, dan beberapa tahun dari sekarang. Ini adalah salah satu kategori yang paling kami sukai, dan menurut kami setiap bisnis dapat memanfaatkannya dan perlu memikirkannya.
Krystal Hu: Fergal, ini adalah waktu yang tepat bagi Anda untuk memberi kami ikhtisar tentang peluncuran fitur baru-baru ini di Intercom dan bagaimana Anda memasukkan ChatGPT ke dalamnya.
Fergal Reid: Tentu saja. Dan hanya untuk menggemakan sentimen Talia dan Ethan di sini, ada begitu banyak struktur dalam domain, ada begitu banyak hal yang dilakukan agen dukungan pelanggan di mana mereka melakukan hal yang sama seperti yang mereka lakukan di hari terakhir lagi, atau mungkin satu yang telah dilakukan rekan satu tim mereka sebelumnya, dan ada begitu banyak keteraturan dan struktur yang terasa sangat matang untuk sistem yang mempelajari dan menggunakan AI untuk membuat orang lebih cepat.
“Kami merasa bahwa tempat terbaik untuk memulai adalah dengan manusia yang terlibat. Seseorang memasukkan Kotak Masuk dan kami ingin membuatnya lebih cepat, tetapi mereka masih dapat memeriksa dan menyetujuinya”
Saat ChatGPT diluncurkan, pada saat yang sama, OpenAI merilis model baru ini untuk digunakan pengembang, text-davinci-003. Kami telah menjalin hubungan dengan OpenAI untuk waktu yang lama, dan kami merasa, ketika kami melihat model itu, itu benar-benar melewati batas kegunaan dan kami dapat membangun dengannya. Jadi, kami melakukan pembandingan awal. Orang-orang menghabiskan banyak waktu di Kotak Masuk, dan satu hal yang harus sering mereka lakukan adalah menulis ringkasan percakapan yang baru saja mereka lihat sebelum menyerahkannya. Teknologi ini tampaknya sangat hebat dalam melakukan peringkasan percakapan, dan kami seperti, "Bisakah kami membuat fitur yang melakukan ini dan meluncurkannya ke pelanggan beta kami?" Interkom memiliki prinsip "kapal untuk belajar". Kami percaya dalam mengirimkan fitur baru dengan sangat cepat kepada pelanggan, sehingga kami dapat mempelajari apakah itu memecahkan masalah atau lebih merupakan rasa ingin tahu.
Jadi, pada dasarnya, pada awal Desember, kami memulai sebuah proyek untuk melihat apakah kami dapat dengan cepat mengirimkan beberapa fitur yang akan berfungsi dengan perwakilan dukungan pelanggan di Kotak Masuk yang sebenarnya untuk membuatnya lebih cepat. Salah satunya adalah peringkasan, dengan fitur lain untuk membantu mereka menulis teks lebih cepat. Dan kami benar-benar merasa ini adalah tempat yang tepat untuk memulai dengan teknologi ini karena AI generatif memang memiliki kelemahan. Itu tidak selalu seakurat yang Anda kira. Sangat mudah untuk melihat ChatGPT, mengajukan pertanyaan, memberi Anda jawaban, dan Anda berpikir, "Ini luar biasa." Dan kemudian Anda membacanya dengan sedikit lebih detail, dan sebenarnya, kadang-kadang, ada yang salah. Kami merasa bahwa tempat terbaik untuk memulai adalah dengan manusia yang terlibat. Seseorang memasukkan Kotak Masuk dan kami ingin membuatnya lebih cepat, tetapi mereka masih dapat memeriksa dan menyetujuinya. Itu adalah titik awal yang bagus.
Sekarang, saya melihat orang-orang bertanya di komentar, "Hei, bagaimana dengan bot dan hal-hal yang dapat menjawab pertanyaan itu sendiri?" Kami pikir itu akan datang dan mungkin akan segera hadir, tetapi kami masih menjelajahinya. Masalah besar bagi kami adalah akurasi. Kami merasa saat ini sudah matang untuk memiliki manusia di lingkaran yang membuat perwakilan dukungan lebih cepat. Dan mungkin, segera hadir, adalah hal-hal yang turun ke langkah selanjutnya. Itu daerah yang sangat menarik.
Ethan Kurzweil: Untuk membahasnya, kami mendapatkan beberapa pertanyaan berwawasan ke depan yang menarik seperti, "Apakah ini akan membuat hari-hari saya dihitung sebagai copywriter?" Saya tidak berpikir begitu sama sekali. Di mana teknologi ini ada dan kemungkinan akan bertahan untuk sementara waktu adalah dalam meningkatkan kemampuan manusia dan kecerdasan manusia, membuat Anda lebih produktif sebagai copywriter tetapi belum tentu menggantikan Anda karena, pertama-tama, teknologinya belum ada, dan kedua, standar untuk dukungan pelanggan yang luar biasa atau komunikasi apa pun dengan bisnis akan terus meningkat karena kami memiliki sumber daya ini. Sementara teknologi mungkin dapat menangani beberapa copywriter dan mendukung kasus penggunaan respons dengan sendirinya, batasan untuk apa yang akan menjadi salinan yang sangat bagus dan dukungan yang sangat bagus dan seterusnya dan seterusnya akan meningkat karena kami memiliki akses ke teknologi ini . Keadaan idealnya adalah Anda akan memiliki akses ke teknologi ini untuk menjadi lebih produktif, tetapi itu tidak akan menggantikan Anda dalam waktu dekat.
Talia Goldberg: Ya. Saya suka bagaimana Wyatt baru saja mengatakan itu adalah pengganda kemampuan. Kami berbicara banyak secara internal tentang contoh Copilot, yang seperti pelengkapan otomatis untuk pengkodean, dan itu telah membuat para insinyur jauh lebih efisien. Itu tidak menggantikan insinyur atau teknik sama sekali, tetapi dapat menambahnya. Contoh yang sangat mendasar dari itu mungkin adalah kalkulator. Dulu, kami biasa mengerjakan matematika dengan tangan. Sekarang kita menggunakan kalkulator, tetapi matematika masih sangat penting – kita semua perlu mempelajarinya, dan ahli matematika sangat penting di dunia ini. Bisa dibilang, peran Anda mungkin menjadi lebih penting karena ketika biaya untuk membuat konten turun dan ada banyak konten dan informasi yang berbeda, membuat konten dan informasi yang dapat menonjol dan naik di atas akan menjadi lebih besar. premium selama beberapa tahun ke depan.
Eksperimen interkom dengan GPT
Krystal Hu: Sudah beberapa minggu sejak Intercom meluncurkan fitur bantuan AI-nya. Apa umpan balik awal yang Anda lihat? Bagaimana Anda mengukur keberhasilan menggabungkan teknologi ini?
“Kami melihat banyak adopsi, banyak kegembiraan, dan banyak penggunaan”
Fergal Reid: Saya akan sangat transparan tentang itu – saya belum memiliki jawaban yang sepenuhnya memuaskan untuk pertanyaan itu. Apa yang dapat saya katakan kepada Anda adalah bahwa kami sekarang hidup, kami memiliki ribuan pelanggan yang menggunakannya secara teratur – kami memiliki banyak adopsi. Kami kemungkinan akan mencoba dan mengukur apakah ini benar-benar membuat orang lebih produktif, karena katakanlah, untuk tim CS kami sendiri, kami dapat mengumpulkan telemetri tentang, "Apakah Anda lebih cepat jika menggunakan fitur ini?" dan mengumpulkan beberapa bentuk percobaan terkontrol untuk itu. Kami selalu ingin mencoba dan mendapatkan beberapa bentuk data aktual tentang ini di beberapa titik, tetapi kami belum sampai pada titik itu. Kami mungkin akan memiliki beberapa angka tentang itu atau lebih dari pemahaman tentang itu, setidaknya secara internal, dalam satu atau dua bulan, saya kira.
Apa yang dapat saya sampaikan kepada Anda saat ini adalah kami melihat banyak adopsi, banyak kegembiraan, dan banyak penggunaan. Pasti ada beberapa fitur seperti ringkasan yang menurut pelanggan menghemat banyak waktu mereka. Kami memiliki pelanggan yang memberi tahu kami hal-hal seperti, "Hei, untuk beberapa percakapan, mungkin perlu waktu lama untuk menulis ringkasan penyerahan sebanyak yang diperlukan untuk menyelesaikan masalah pengguna akhir." Jadi, kami pasti merasa senang tentang itu.
Di beberapa fitur kami yang lain, Anda menulis steno, mirip seperti GitHub Copilot. Kami terinspirasi oleh Copilot, dan di Copilot, jika Anda seorang programmer, Anda dapat menulis komentar atau singkatan, dan kemudian akan mengisi kodenya. Salah satu fitur kami adalah "perluas", di mana Anda menulis steno, dan mengubahnya menjadi pesan dukungan yang lebih panjang. Terkadang, itu berhasil dan menghemat waktu orang, tetapi kami belum memiliki datanya. Apa yang kami miliki saat ini hanyalah versi Generasi 1 dari itu. Dan kami memiliki prototipe versi Generasi 2. Saat ini, Anda menulis steno, dan model bahasa besar mengembangkannya. Apa yang kami coba lakukan adalah mengatakan, “Hei, mari kita tarik terakhir kali Anda menjawab pertanyaan seperti itu. Mari tarik makro yang relevan dengan ini.” Dan kami memiliki beberapa prototipe internal yang bekerja dengan cukup baik. Kami masih berinovasi dan melakukan hal-hal yang benar-benar berhasil, tetapi kami belum memiliki metrik. Segera.
“Saya memiliki bagan di Tableau tentang pengeluaran harian kami dengan OpenAI yang terus kami waspadai”
Krystal Hu: Untuk menindaklanjutinya, bagaimana Anda mengukur biayanya? Seperti yang saya pahami, Anda mungkin mengirim pertanyaan ke OpenAI dan mereka mengenakan biaya, saya kira, dua sen per seribu karakter atau semacamnya. Dan saya kira, saat adopsi Anda meningkat, tagihan itu juga menumpuk. Apakah Anda memiliki pembelajaran atau pengamatan untuk dibagikan tentang menggabungkan teknologi ini?
Fergal Reid: Saya memiliki bagan di Tableau tentang pengeluaran harian kami dengan OpenAI yang terus kami waspadai. Itu pasti menjadi pertimbangan. Saya menyebutkan fitur peringkasan, dan kami membuatnya dengan cara yang sangat manusiawi di mana Anda harus meminta ringkasan sebelum menyerahkan pertanyaan. Dan satu hal yang dikatakan pelanggan kepada kami adalah, “Hai, mengapa saya harus meminta ringkasan ini? Tolong pertahankan ringkasan setiap saat di sidebar jadi saya tidak perlu memintanya. Dan itu akan menjadi sangat mahal karena jika kita harus membayar dua sen setiap kali seseorang mengatakan sesuatu yang baru dalam percakapan dan ringkasannya berubah, itu akan menjadi sangat mahal. Kami benar-benar harus mempertimbangkan biaya dengan cara yang tidak kami lakukan dengan model pembelajaran mesin yang lebih tradisional.
Yang mengatakan, OpenAI baru saja mengumumkan API ChatGPT mereka, dan saya pikir itu mengejutkan banyak orang karena harganya 10 kali lebih murah daripada model serupa sebelumnya dalam seri itu. Ada kemungkinan biaya turun cukup cepat dan fitur ini diadopsi secara luas. Bagaimana dengan startup atau perusahaan lain yang membangun di area ini? Saran yang akan kami berikan di Intercom adalah mencoba dan masuk ke pasar dengan cepat karena ada nilai nyata di sini bagi pelanggan Anda yang dapat Anda bangun dan buka. Dan biayanya mungkin akan turun karena modelnya akan menjadi lebih murah karena vendor seperti OpenAI mencari cara untuk membuatnya lebih efisien atau karena Anda akan menemukan cara yang lebih efisien untuk menggunakannya. Anda akan menemukan cara untuk mengatakan, “Hei, saya dapat menggunakan model generatif yang lebih murah untuk bagian pertama percakapan, dan kemudian, ketika saya memiliki tugas yang jauh lebih sulit yang membutuhkan lebih banyak akurasi, saya akan menggunakan yang lebih mahal. .” Ethan dan Talia mungkin memiliki pandangan yang jauh lebih luas daripada saya, dan saya ingin mendengar pendapat mereka.
“Anda tidak pernah yakin apa yang akan dilakukan pengembang dengan teknologi baru sampai mereka memilikinya – dan memilikinya di mana mereka tidak membayar dua sen setiap kali melakukan panggilan API”
Ethan Kurzweil: Ya, ini adalah contoh bagus dari apa yang terkadang Anda lihat dengan teknologi mutakhir ini. Pada awalnya, kasus penggunaan bernilai tinggi mendapatkannya, dan Anda menjelaskan aktualisasi prinsip itu. Di Intercom, itulah fitur ringkasan saat diminta hari ini. Namun seiring waktu, teknologinya akan jauh lebih umum dan lebih murah. Dan saat itulah itu dapat berkembang menjadi lebih banyak kasus penggunaan di mana biaya marjinal untuk melakukannya saat ini menjadi penghalang, dan itu memungkinkan pengembang untuk menemukan aplikasi lain dari model bahasa besar dalam jenis AI ini yang tidak benar-benar kami prediksi.
Di Bessemer, Talia dan saya mencoba membuat peta jalan ke mana menurut kami teknologi akan mengarah, tetapi sebagai investor yang berorientasi pada pengembang, salah satu kunci primitif yang selalu saya pikirkan adalah Anda tidak pernah yakin apa yang akan dilakukan pengembang dengan teknologi baru, platform baru, akses baru ke sesuatu sampai mereka memilikinya – dan memilikinya di mana mereka tidak membayar dua sen setiap kali mereka melakukan panggilan API – dan dapat mengubah dan melakukan hal-hal yang terdengar tidak masuk akal pada awalnya.
Saya senang dengan teknologi yang sampai pada titik di mana hanya ada satu ton eksperimen. Saya yakin bahwa dalam peta jalan produk Intercom, bukan hari ini, tetapi setahun dari sekarang, akan ada beberapa hal yang tidak kami prediksi tetapi memiliki nilai yang sangat tinggi bagi pelanggan. Dan akan ada beberapa startup yang baru saja keluar karena mereka menemukan cara tertentu agar Anda dapat menggunakan teks generatif, dan itu menciptakan pengalaman pengguna yang sangat hebat bagi seseorang.
Talia Goldberg: Ada contoh menyenangkan yang menurut saya dapat menekankan beberapa potensi mirip manusia untuk menambah pengalaman yang relevan untuk didukung. Jika saya berbicara dengan, katakanlah, beberapa tim Interkom dengan aksen Irlandia yang kuat, dan mereka mungkin mengira saya memiliki aksen Barat yang gila, kadang-kadang sulit bagi kami untuk memahami satu sama lain saat kami sangat bersemangat dan berbicara sangat cepat. Kedengarannya seperti bahasa yang berbeda meskipun semua orang berbicara bahasa Inggris. AI dapat, secara real time, sedikit mengubah aksen seseorang agar lebih mudah dipahami dalam dua cara. Jadi, jika saya memiliki aksen Irlandia atau Inggris, itu akan diterjemahkan menjadi aksen California, dan itu benar-benar dapat meningkatkan pengalaman dalam beberapa hal dengan menurunkan hambatan komunikasi.
Ethan Kurzweil: Ini adalah contoh yang bagus karena teknologi berada di tengah-tengah komunikasi langsung tetapi membuatnya lebih mirip manusia, yang terdengar seperti sebuah oxymoron, tetapi jika digunakan dengan baik, itu bisa membuat Anda merasa lebih terhubung dalam pesan atau konteks komunikasi.
Talia Goldberg: Inilah janji internet – menyatukan kita semua dan meruntuhkan penghalang. Saya benar-benar sangat percaya pada potensi untuk meningkatkan itu.
Hasil bagi kepercayaan
Krystal Hu: Saya pikir banyak orang memiliki pertanyaan tentang bagaimana Anda memastikan semuanya akan benar dalam hal aliran informasi dan itu akan akurat. Taruhannya berbeda dalam kasus penggunaan yang berbeda, tetapi, secara umum, Anda tidak ingin memberikan informasi yang salah kepada pelanggan Anda. Bagaimana Anda memastikannya?
“Bukannya Anda, sebagai manusia, tidak pernah dapat melihat hal-hal itu karena itu tidak mungkin – Anda dapat memfilter dengan tepat. Begitulah cara saya berpikir tentang model bahasa besar ”
Talia Goldberg: Mungkin hanya satu komentar, dan kemudian saya pikir saya akan membiarkan Fergal menjawab lebih spesifik tentang Interkom. Model dilatih untuk data dalam jumlah yang sangat besar – miliaran dan miliaran titik data dan informasi. Jadi, tidak peduli seberapa banyak Anda mencoba dan menipu data atau memasukkan data palsu, itu masih merupakan bagian yang sangat kecil dari keseluruhan data. Itu satu hal yang perlu diingat saat Anda memikirkan tentang bagaimana model ini dibuat.
Hal lainnya adalah input data. Saya tahu ada kekhawatiran tentang apakah itu dilatih pada data yang salah, dan jangan salah paham, pasti ada tantangan dengan halusinasi dan area lainnya, jadi banyak yang harus diperbaiki. Namun dalam hidup Anda, bukan berarti Anda berkeliling dan tidak melihat hal-hal yang mungkin salah atau bias atau bahkan salah informasi. Anda menemukan itu, tetapi Anda menggunakan penilaian dan pikiran Anda, dan ada banyak data bagus lainnya. Jadi, bukan karena Anda, sebagai manusia, tidak pernah dapat melihat hal-hal itu karena itu tidak mungkin – Anda dapat memfilter dengan tepat. Begitulah cara saya berpikir tentang model bahasa besar. Akan ada beberapa contoh di mana ada data dan informasi yang tidak Anda inginkan dalam set pelatihan, tetapi kemampuan model bahasa untuk memfilternya dan mendapatkan jawaban yang benar harus lebih baik dan lebih baik dari waktu ke waktu.
“Itu bisa menjadi salah satu parameternya: 'Seberapa besar kepercayaan Anda terhadap tanggapan ini?' Jika tidak cukup baik, jangan berikan”
Ethan Kurzweil: Ada beberapa pertanyaan menarik tentang privasi dan akurasi data. Hal lain yang perlu diingat tentang pertanyaan akurasi data sebelum kita masuk ke bagian privasi adalah, di masa mendatang, dan dalam beberapa model bahasa besar, Anda sebenarnya dapat menyetel hasil bagi akurasi. Ini seperti ketika AI diprogram untuk memenangkan Jeopardy – ia memiliki interval kepercayaan bahwa ia mengetahui jawaban atas pertanyaan dengan kepercayaan 90% atau kepercayaan 60%. Dan dalam konteks itu, di mana Anda kehilangan beberapa poin dengan jawaban yang salah, mereka menetapkan interval cukup rendah pada 40% atau lebih. Jika Anda 40% yakin atau lebih, apa-apaan ini, pergi dan coba jawab pertanyaannya.
Mungkin ada beberapa konteks di mana Anda menginginkan akurasi tingkat manusia, Anda menetapkannya di sana, dan sering kali, ketika AI tidak dapat mencapai persentil 99, AI akan beralih ke manusia atau semacamnya. Mungkin ada beberapa konteks bahkan di militer, bahkan di industri yang sangat diatur, di mana Anda memiliki lebih banyak toleransi untuk tebakan berbantuan AI yang berpendidikan. Dan itu bisa menjadi salah satu parameternya: "Seberapa besar kepercayaan Anda terhadap tanggapan ini?" Jika tidak cukup baik, jangan berikan.
Fergal Reid: Hanya untuk mengetahuinya, Ethan, itu pasti keyakinan produk yang kuat yang kami miliki secara internal di Interkom, yaitu kemungkinan besar akan ada berbagai toleransi di sini. Akan ada beberapa pelanggan dengan toleransi yang cukup tinggi untuk, “Beri saya saran; tidak apa-apa jika sarannya terkadang salah. Dan akan ada pelanggan lain dengan toleransi yang sangat rendah. Kami berharap kami perlu memiliki beberapa tingkat konfigurasi untuk hal ini.
“Kami memiliki teknologi baru yang dapat membuat prediksi lebih baik dan melakukan banyak hal lebih cepat. Bagaimana kami mengambilnya dan membuatnya cukup dapat dipercaya, atau setidaknya memungkinkan pelanggan untuk memilih?
Hanya untuk menyelami rumput liar dengan beberapa hal yang kita lihat di masa depan, katakanlah Anda memiliki sesuatu yang mencoba menggunakan artikel dan menjawab pertanyaan tentang konten itu. Salah satu contohnya adalah Anda membatasinya untuk mengatakan, "Anda hanya diperbolehkan menanggapi dengan kutipan yang tepat dari ini." Dan itu bisa menempatkan kutipan itu dalam konteksnya, tetapi kutipan itu harus ada di sana. Itu adalah cara konservatif untuk menggunakan model bahasa baru yang besar ini untuk melakukan pekerjaan yang lebih baik dalam memahami kueri Anda dan mengambil informasinya, tetapi membatasi apa yang sebenarnya dapat mereka katakan. Contoh lain adalah Anda mengambil model generatif dan membiarkannya menjadi generatif di bawah tenda, tetapi model tersebut hanya dapat berinteraksi dengan pengguna akhir melalui serangkaian tindakan yang telah ditentukan atau hal-hal yang dapat dikatakannya.
Ada banyak teknik untuk menggunakan mesin yang bertenaga dan mencoba membuatnya lebih aman, lebih dapat dipercaya, dan terbatas. Dan saya pikir Anda akan melihat banyak orang bekerja dengan teknik itu. Kami memiliki teknologi baru ini yang dapat membuat prediksi lebih baik dan melakukan banyak hal lebih cepat. Bagaimana kita mengambilnya dan membuatnya cukup dapat dipercaya, atau setidaknya mengizinkan pelanggan untuk memilih? Saya pikir Anda akan melihat banyak pergerakan di ruang ini selama beberapa bulan ke depan.
Personalisasi massal lintas industri
Krystal Hu: Pada catatan itu, Ethan, Talia, selain layanan pelanggan, apakah ada aplikasi lain yang Anda lihat di ruang ini yang membuat Anda sangat bersemangat?
Ethan Kurzweil: Saya bisa pergi dulu. Melihat beberapa aplikasi konsumen, game adalah salah satu yang kami sukai. Jika Anda sering memikirkan tentang apa yang membuat game menyenangkan, itulah kecepatan penyegaran pada konten baru, dan itu membutuhkan ide kreatif yang terus-menerus muncul. Kami mulai melihat orang-orang berpikir tentang, "Bagaimana jika setiap pengalaman untuk setiap pemain bisa menjadi pengalaman baru?" You couldn't have a personal copywriter writing that much content for each person, but an AI could do it. And it could get down to a level where each decision you make generates a new experience based on whatever temporal inputs you want to give the system.
“We went from handcrafted goods to mass-produced goods to mass personalization in a way we've probably never seen before”
Media applications as well. Earlier in my career, I used to work at the Wall Street Journal , and the parent company of the Wall Street Journal was Dow Jones. They had a sister news department called Dow Jones Newswires , which was about getting financial news mainly to traders and folks that needed to act very quickly on that information as fast as possible through terminals and things like that. I think about what an AI could do to augment news or get news to the end user more quickly. Again, I don't think it's replacing journalists at all, I think it's augmenting the amount of information and the targeting we can provide to folks much more quickly.
I think about entertainment use cases. This promise of personalized television and premium content services has always been out there, but when you get to the long tail of internet content and user-generated content, it tends to be pretty low-quality. Could you have a high-quality, personalized content delivery service? I think AI could impact that equation in the future.
Talia Goldberg: I love the concept of personalization and everyone having their own experience. We went from handcrafted goods to mass-produced goods to mass personalization in a way we've probably never seen before. This is a totally new experience for everyone, which is super cool. I'll share one of the areas that I think is going to be wildly impactful and really promising, which is in life sciences and biotech.
“The AI is seeing something that we, as humans, have never before been able to see”
Applying AI to drug discovery and development using huge amounts of data to look at molecules and protein structures and genomic data can be really transformative. I read this study that I think was in Nature a month ago, and it described how some researchers gave an AI a bunch of images of a human retina, and the AI, with 90% accuracy, said which retina belonged to either a male or a female. That seems very basic – who cares? But what's really crazy about that is that no researcher, scientist, or AI expert has ever been able to find any sign of a retina correlating to gender of any form. The AI is seeing something that we, as humans, have never before been able to see.
You think about that, and then you apply that to cancer and different cells and otherwise, and the potential is just massive and really exciting. And we're already seeing a lot of applications. AI's going to transform a whole bunch of things – health, software, business applications, logistics, consumer… We could make a long list, but there are a ton of reasons to be super optimistic.
Mix and match
Krystal Hu: When I talk to startups, when they're incorporating this kind of technology into their offerings, one choice they have to make is which model they work with. Do they only work with one type of model, or do they diversify their vendors to work with other companies besides OpenAI? I'm sure, Fergal, you've spent some time thinking about that. What was the experience like at Intercom?
Fergal Reid: With new technology, being right in the forefront, our head tends to go first to customer value. We're happy to use the most expensive or newest model to try and figure out, “Okay, can we really build a transformative experience for a customer with this that is a core part of the workflow and makes something valuable for them?” And once we do that, we're like, “Okay, now, how can we make it cost-effective?” And we're probably going to end up with a large mix of different models from, say, OpenAI, and we've also looked at other vendors like Anthropic, which are doing some really interesting work in this space too.
“It's highly likely that everyone's going to end up running a bespoke mix of many different models. It's going to get complex pretty fast”
It's an exploding space with many different people training large language models, and I think you'll have different large language models that are better and worse and have different trade-offs in terms of cost and latency and performance. Performance won't be one-size-fits-all. Some models are better at dealing with hallucinations, some are better at generating creative content, and I think we're already seeing that.
Our focus is to get whatever models we can, try them out, think if we can use these to build transformative value, get it live with our customers, and then figure out how to optimize that. Once we know it's delivering value, let's optimize it in terms of price and cost and work. It's highly likely that everyone's going to end up running a bespoke mix of many different models. You could have three different models in one customer interaction. So yeah, it's going to get complex pretty fast.
“There'll probably be a new set of metrics that everyone coalesces around that measure the effectiveness of your AI and your particular business problem”
Ethan Kurzweil: I think that's an interesting point that actually ties the question from before: how do you measure the success of this? Because I think lots of companies will try a model or many, and the question will be, “All right, which is best?” And that's such an oversimplification because you have to figure out what you are trying to achieve. Are you trying to achieve engagement with users? Are you trying to achieve a quick resolution?
I think there'll probably be a sort of metricization of this where people come to a standard, like the way Google Search created a new industry, AdWords, and the way we measure click-through rates and conversion rates and things like that. There'll probably be a new set of metrics that everyone coalesces around that measure the effectiveness of your AI and your particular business problem.
Fergal Reid: Yeah, even before these more recent language models, we've had bots that process natural language using pretty big neural networks, although not as big. And whenever we would do something like upgrade our bots, we would conduct a large-scale A/B test framed in terms of end-user metrics such as self-serve rate. Then, we would find edge cases for particular customers or domains where it performed less well, really dig into those, and make sure nothing was broken. I think there's probably a well-understood playbook, like Ethan's referring to, of metrics for given domains. A lot of the same things will apply to this new type of technology.
Tanya Jawab
Krystal Hu: I'd love to get to the Q&A. I think we were able to address some of the questions during our discussions, but there are a bunch about the potential roadmaps from, I assume, Intercom's customers or companies working with Intercom who want to know what could be the next AI-aided feature that may come out, both in the short-term and long-term, and also how that will affect the pricing strategy.
Fergal Reid: Cool. Do you want to call out one particular question?
Krystal Hu: I think there was a question about your roadmap for the features for the next six months versus 12 to 18 months, and then the other person asked about the pricing strategy.
Fergal Reid: We have some things coming up that unfortunately, I can't talk about at the moment. I would say that six months is a really long time in this space. I expect you'll see a lot of movement in this space over the next two or three months. We will continue to sweat and invest in these features in our Inbox to make support reps more efficient. I've already talked about how we've got a Generation 1 version of features here at the moment, with summarization and expansion features to help edit a text, and we're definitely working on Generation 2 versions of those features.
We've also met two other exciting features in this space that we're really excited about, but unfortunately, I can't share any details at the moment – it's just a little bit too early to announce and launch those things. I can promise you're going to see a lot of action and excitement from us, and I'm sure from other companies in this space as well, over the next six months.
“Right now, there's a bit of a context limit for each interaction with an AI in a large language model, but there's a lot of exciting research pushing the boundaries”
Krystal Hu: Talia and Ethan, do you have any expectations or hopes on how fast the space could move?
Talia Goldberg: Well, it's moving a lot faster than we even anticipated. The space is moving really quickly in part because there are a whole bunch of technological advances happening at the same time as the hardware that these models are trained on gets better and improves at a Moore's Law rate, and there are new architectures and ways of scaling on that hardware. We're getting better and better at creating new experiences and models.
I don't have an exact prediction of how quickly we'll see different things, but one of the biggest areas that we're watching closely and expect to see a lot of advances in over the next six to 12 months is around personalization and being able to create far more personalized experiences. Right now, there's a bit of a context limit for each interaction with an AI in a large language model, but there's a lot of exciting research pushing the boundaries of those context windows, coming up with new frameworks to create far more personalized experiences and remember each person, each user, each customer, and tons of data points about that person to create a better experience.
“I would encourage everyone that's building new products to ride the ups and the downs”
Ethan Kurzweil: I completely agree with Fergal and Talia. We're going to see predictable and unpredictable applications of this over the next six months. There'll be some unsuccessful ones too, and then the narrative will quickly shift to, “Oh, that didn't do everything we thought it was going to do as quickly as we thought.” Right now, we're into the peak of momentum and euphoria and, dare I say, a little hype in the space. But over time, it'll become as big a deal as we thought.
I would encourage everyone that's building new products to ride the ups and the downs. Don't ride the up as high as it may be feeling like you should right now, but when the narrative changes a little bit, because it will – all new technologies have that “Oh, that wasn't as impactful as quickly as we thought” moment – I would encourage everyone to keep building through that as well.
Krystal Hu: Yeah, I'll definitely take that from you as a crypto investor.
Ethan Kurzweil: It's the same thing. Right now, there's clearly a trough of disillusionment for crypto. And good builders are figuring out, “Okay, what of this technology is applicable? What makes sense?” And we'll see those things come to market over the next couple of years.
Krystal Hu: One common question I saw in the Q&A is: how will this impact human jobs like human agent jobs? I'm curious to hear your thoughts on this specific case.
Ethan Kurzweil: Ever since the advent of the computer, there's been this prediction that it would be a massive replacement for human work at all levels. It does change the nature of work, and this will certainly change in some ways, but it's not going to be a wholesale replacement for humans in any broad way.
“Guess what? Every year, we need way more engineers. It's like Jevon's Paradox. The more that AI is available and the cost goes down, the more demand there is”
Just as Talia alluded to the example of Copilot and people, I've read many articles saying this was going to put all developers out of business over the next two to three years, and that's complete BS. Everyone knows that's not true. But it may allow for more productivity and for the cycle time on software to speed up. It may allow for different skills to be more important. I think it just makes us more productive. It's not that it won't have an impact and won't shift the nature of work in some ways. I don't mean to minimize that because that's very real. But looking at the whole, you'll see we come out ahead.
Talia Goldberg: At least until we reach the singularity, I'm pretty convinced of the need for more and more engineers. You could have gone back 10 years and been like, “Ah, there are all these cool developer tools now that are coming out and making it way easier to integrate things,” or, “Oh gosh, there are these self-serve products like Zapier that make it easy for non-technical people to connect products and integrate things.” Dan coba tebak? Every year, we need way more engineers. There's a shortage. It's like Jevon's Paradox. The more that AI is available and the cost goes down, the more demand there is. And I think, in a lot of areas, that paradigm will hold true. But as Ethan said, the exact skills and the way it looks may shift.
Krystal Hu: Yeah, that makes a lot of sense. I saw some interesting observations and questions about whether you should tell people that they are talking to an AI versus a real person. It's an interesting question because it presumes we wouldn't be able to tell.
Ethan Kurzweil: It's a good existential question. If you're talking to a person assisted by an AI, who are you talking to, and what disclosure do you have to make in that case? I don't have any answers to these questions, but they're great ones for us to debate.
Talia Goldberg: I find that AI can sometimes generate responses that are so detailed and so good that there's just no way that a human did it anyway. It's like the reverse of the Turing test.
Krystal Hu: Pertanyaan lain tentang fungsi keselamatan. Saya rasa kita juga menyinggung hal ini sebelumnya, tetapi ada pertanyaan khusus: “Seberapa pentingkah integrasi vertikal fungsionalitas keselamatan dengan penyedia model? Misalnya, seberapa pentingkah menggunakan API moderasi OpenAI dengan keluaran model ChatGPT versus mencampur dan mencocokkan dengan API Perspektif Jigsaw?” Fergal, Anda mungkin memiliki beberapa pemikiran atau pengalaman untuk dibagikan tentang itu.
Fergal Reid: Ya, saya tidak terbiasa dengan API Perspektif Jigsaw, jadi saya tidak mengetahuinya secara spesifik. Semua orang di OpenAI dan Tropic dan siapa pun yang melatih model bahasa besar sangat peduli untuk membuatnya dapat digunakan dan aman serta selaras, dan mereka sangat peduli untuk menghindari halusinasi. Dan mereka akan terus bekerja di area ini untuk memudahkan perusahaan seperti Intercom menerapkannya dengan cara yang dapat dipercaya. Saya tidak yakin bahwa kita perlu mengintegrasikannya secara vertikal. Saya tidak tahu bahwa Interkom perlu melatih model bahasa besarnya sendiri yang besar agar kami dapat menangani produksi dan membuatnya cukup dapat dipercaya. Saya pikir kita akan melihat banyak pergerakan di ruang ini.
AI generatif semacam ini memberikan banyak kebebasan kepada pengguna untuk mencoba dan mencari cara menerapkan model. Ada bidang rekayasa prompt yang baru muncul, dan tim saya melakukan banyak hal ini, di mana mereka mengedit prompt dan mencoba mencari tahu, “Oke, bagaimana cara menanyakan model apa yang saya inginkan dengan cara yang benar untuk mendapatkannya. memberi saya hasil yang saya cari?” Itu akan menjadi lebih baik, setidaknya untuk sementara, itu akan menjadi lebih bertenaga, dan modelnya akan lebih mudah dikendalikan.
Saya pikir kita akan dapat melihat perusahaan di posisi Intercom menghasilkan banyak nilai dan mengetahui banyak aplikasi dan desain. Kami masih mempelajari cara merancang produk dengan teknologi baru ini. Ada begitu banyak derajat kebebasan bagi orang-orang di posisi kita untuk menggunakannya.
“Selalu ada ketegangan ini: apakah Anda hanya mendukung hal-hal umum? Seberapa baik model umum dibandingkan dengan fine-tuning?”
Krystal Hu: Ada juga pertanyaan tentang Intercom yang membangun modelnya sendiri. Seperti yang Anda sebutkan sebelumnya, mungkin akan ada peluang untuk melakukan campuran model mana yang bekerja lebih baik untuk kasus penggunaan Anda saat membuat API atau semacamnya?
Fergal Reid: Ya, dengan skala pelatihan model-model ini saat ini, tampaknya tidak masuk akal secara ekonomi bagi setiap perusahaan seukuran Intercom untuk melatih perusahaan mereka sendiri. Tapi sekali lagi, ada spektrum di sini. Kami akan mengembangkan keahlian dalam mendesain di sekitar mereka dan mengetahui apa yang harus diminta dari model tersebut. Dan kita mungkin akan melihat fungsionalitas yang muncul di sekitar perusahaan seperti model penyempurnaan Intercom. Banyak dari model baru ini dilatih dengan pembelajaran penguatan dengan umpan balik manusia. Biaya untuk melakukannya mungkin akan turun seiring waktu, dan kami akan dapat menyesuaikannya lebih banyak untuk kasus penggunaan khusus kami.
Selalu ada ketegangan ini: apakah Anda hanya membonceng hal umum? Seberapa baik model umum dibandingkan dengan penyetelan halus dan melakukan hal-hal tertentu? Kita harus melihat bagaimana ruang ini dimainkan, tetapi menurut saya akan ada banyak tingkat kebebasan bagi perusahaan untuk menggunakan model ini dan menyesuaikan serta memproduksinya untuk area mereka. Kami berada di masa-masa awal produksi teknologi ini. Ini akan banyak berubah, dan akan menjadi jauh lebih mudah untuk diprioritaskan.
Krystal Hu: Kita hampir mendekati akhir dari percakapan indah kita, tapi kita bisa mengajukan dua pertanyaan lagi. Salah satunya adalah tentang bagaimana perusahaan perusahaan mengadopsi dan mengambil nilai dari ChatGPT. Anda telah melihat perusahaan mulai mengintegrasikannya dalam penawaran mereka, dan di sisi lain, saya pikir perusahaan, terutama bank yang diatur dengan ketat, bertanya-tanya tentang layanan informasi dan masalah privasi dan melarang karyawan mereka bermain-main di laptop perusahaan. Saya ingin tahu pendapat Talia dan Ethan tentang pertanyaan ini.
Talia Goldberg: Di seluruh portofolio kami, banyak perusahaan perangkat lunak yang mungkin tidak termasuk dalam kategori seperti Interkom, yang benar-benar berada di garis depan, berpikir seperti, “Hei, betapa pentingnya hal ini untuk bisnis saya dan cara apa yang saya lakukan mungkin mengintegrasikan beberapa model atau API ChatGPT ini ke dalam produk saya?” Tugas yang sangat berulang bisa sangat bagus untuk AI untuk membantu mengotomatisasi atau merampingkan. Salah satu perusahaan kami mendapatkan banyak informasi akuntansi dari pelanggan mereka, dan mereka perlu melakukan rekonsiliasi dan menandai jika ada kesalahan atau sesuatu yang salah. Dan mereka telah memiliki sistem berbasis aturan ini di masa lalu, tetapi Anda dapat menerapkan AI dan memiliki akurasi yang jauh lebih baik. Contoh menarik lainnya terkait dengan bagian ringkasan. Jika pelanggan berbicara dengan agen pusat panggilan atau perwakilan penjualan, Anda dapat meringkas percakapan tersebut dan membuat jaminan pemasaran khusus hanya untuk orang tersebut.
Krystal Hu: Satu pertanyaan terakhir untuk Talia dan Ethan. Orang-orang bertanya apa yang Anda cari saat berinvestasi di startup pra-benih atau, saya kira, startup pada umumnya.
“Kami mencoba memecahnya menjadi pertanyaan kunci, 'apakah ini benar-benar menggerakkan jarum untuk beberapa peran atau tipe orang tertentu?'”
Ethan Kurzweil: Itu pertanyaan yang bagus. Ada begitu banyak jawaban berbeda untuk itu. Pre-seed sedikit lebih awal dari yang biasanya kami investasikan, untuk menghilangkan penafian itu – biasanya, kami berinvestasi di seed atau seri A atau B yang lebih baru. Tetapi filosofi kami adalah mencari model pertumbuhan tinggi di mana pun kami dapat menemukan mereka. Dan biasanya, cara kami menguraikannya adalah dengan mencoba melakukan pra-diagnosis melalui pemetaan jalan, dan Talia adalah orang yang banyak mendorong pemikiran kami seputar AI dan aplikasinya ke berbagai hal berbeda, dan kami menghasilkan peta jalan ini. area tematik yang berbeda menurut kami cukup menarik. Mereka bisa sangat luas, seperti komputasi awan atau konsumerisasi perawatan kesehatan, atau sempit, seperti dampak AI pada layanan pelanggan.
Saya akan mendorong orang-orang untuk melihat, karena kami melakukan banyak penerbitan di blog dan media sosial kami dari tesis aktif kami, untuk melihat apakah yang Anda bangun selaras dengan sesuatu. Dan kemudian, secara umum, kami mencari, "Apakah ini memiliki dampak yang akan mengubah cara kami bekerja atau melakukan hiburan atau sesuatu yang dapat menjadi perubahan paradigma dalam beberapa proses bisnis atau kebutuhan konsumen?" Itulah yang kami pecahkan. Kami telah memperhatikan bahwa setiap kali Anda memiliki perubahan perilaku berbasis luas, itu mengarah pada perusahaan yang tumbuh pesat dan peluang bagi startup untuk mengganggu cara bekerja atau bermain atau apa pun yang dilakukan sebelumnya. Jadi kami mencoba memecahnya menjadi pertanyaan kunci, "apakah ini benar-benar menggerakkan jarum untuk beberapa peran atau tipe orang tertentu?"
Krystal Hu: Itulah akhir dari pembicaraan kita. Bagi mereka yang belum sempat mencoba fitur-fitur baru Intercom, saya mendorong Anda untuk bermain sendiri dengan ringkasan dan beberapa fitur lainnya. Dan jika Anda tertarik dengan ruang usaha, lihatlah situs web Bessemer. Seperti yang dikatakan semua orang, enam bulan dari sekarang, kami akan melihat ke belakang dan beberapa prediksi akan menjadi kenyataan, dan mungkin beberapa akan sangat berbeda. Saya harap kita akan memiliki waktu lain untuk berputar kembali dan membahas lebih banyak pertanyaan. Sekali lagi terima kasih, Talia, Ethan, dan Fergal, untuk waktu Anda hari ini.
Ethan Kurzweil: Terima kasih telah mengundang kami.
Talia Goldberg: Sampai jumpa.
Fergal Reid: Terima kasih banyak, semuanya. Sampai jumpa.