Dari fiksi ilmiah hingga realitas teknologi: Menjelajahi dampak AI

Diterbitkan: 2023-06-09

AI telah mengubah cara kita bekerja, berkomunikasi, dan mengalami dunia. Masuki dunia AI generatif yang menarik saat kami menjelajahi lanskap kemungkinan yang luas di depan.

Sejak ChatGPT dirilis, tim kami telah mempelajari dunia AI terlebih dahulu, membangun produk dengan model bahasa besar (LLM) dan menjelajahi hal-hal yang tidak diketahui yang muncul dengan kemajuan terbaru dari teknologi transformatif ini.

Sebagian besar fokus kami adalah pada bagaimana kami dapat menerapkan AI generatif untuk mengubah layanan pelanggan – dan rilis chatbot AI kami yang terkemuka di industri, Fin, menunjukkan bagaimana fokus itu terbayar.

Namun, di luar aplikasi praktis, ada banyak sekali pertanyaan besar yang telah kami pikirkan – haruskah kami mendekati LLM dengan hati-hati? Seberapa besar AI ini sebenarnya? Dan apa yang harus kita harapkan saat kita melihat ke masa depan?

Dalam episode ini, Direktur Senior Pembelajaran Mesin kami Fergal Reid bergabung dengan Emmet Connolly, VP Desain Produk kami, untuk mempelajari dampak dan potensi revolusioner AI – ini adalah percakapan menarik yang menyentuh banyak masalah eksistensial yang lebih luas yang diangkat oleh teknologi baru yang luar biasa ini.

Berikut adalah beberapa takeaways utama:

  • Dalam upaya membangun sistem cerdas, organisasi merangkul teknik seperti pembelajaran penguatan untuk memastikan keselarasan dengan nilai-nilai kita dan dampak positif pada kemanusiaan.
  • GPT-4 mendemonstrasikan penalaran tingkat tinggi bahkan saat diuji dengan skenario di luar sampel, yang tampaknya menunjukkan bahwa GPT-4 dapat melampaui standar yang ditetapkan oleh pengujian terkenal Alan Turing.
  • Saat investasi meningkat dan keterbatasan perangkat keras teratasi, kita dapat mengharapkan pengembangan model yang lebih maju dan efisien dengan adopsi dan produksi yang belum pernah terjadi sebelumnya.
  • Di masa mendatang, beberapa jenis UI mungkin akan diganti dengan agen AI yang dapat mempersonalisasi output dengan cepat berdasarkan input verbal, tugas yang ada, dan preferensi pribadi Anda.
  • AI memiliki potensi untuk mengurangi pekerjaan kasar bagi desainer dan pemrogram, memungkinkan mereka untuk lebih fokus pada solusi dan visi produk daripada pada eksekusi.


Jika Anda menikmati diskusi kami, lihat lebih banyak episode podcast kami. Anda dapat mengikuti Apple Podcasts, Spotify, YouTube, atau mengambil umpan RSS di pemutar pilihan Anda. Berikut ini adalah transkrip episode yang diedit ringan.


Kebangkitan AI

Emmet Connolly: Jadi, Fergal, kami telah melakukan banyak obrolan santai sambil minum bir dan kopi dan sebagainya, dan kami mengatakan mungkin menarik untuk mencoba dan duduk dan merekamnya, terutama karena, karena kami telah bekerja secara langsung dengan model bahasa besar selama enam bulan terakhir, kami telah bergulat dengan pertanyaan produk yang dapat diterapkan pada apa yang kami coba selesaikan di tempat kerja.

Tapi tentu saja ada percakapan yang lebih luas tentang apa arti AI dan masa depan AI. Kami pikir kami akan mencoba dan duduk dan menyentuh beberapa pertanyaan seputar materi baru yang sedang kami tangani ini. Apa saja dampak finansial dari teknologi? Apa saja hal-hal yang harus kita perhatikan? Mari kita mulai. Pertama-tama, apakah Anda memiliki refleksi menyeluruh selama enam bulan terakhir?

Fergal Reid: Ya, pasti. Mari kita lihat bagaimana kelanjutannya. Saya pikir wajar untuk mengatakan bahwa bahkan orang-orang yang pernah bekerja dalam pembelajaran mesin atau AI terkejut dengan betapa cepatnya hal-hal menjadi lebih baik. Bahkan bagi orang-orang yang ahli di bidangnya atau telah bekerja dengan jaringan saraf untuk waktu yang lama, sangat mengejutkan bahwa modelnya menjadi secerdas itu.

Emmet: Apakah menurut Anda beberapa orang AI agak khawatir bahwa mereka mungkin sedang mengerjakan Proyek Manhattan sekarang dari generasi kita? Beberapa waktu yang lalu, Anda bekerja untuk melengkapi teks secara otomatis, dan tiba-tiba ini menjadi topik yang sangat diperdebatkan. Bagaimana rasanya orang yang mengerjakan AI menjadi pusatnya?

“Anda melakukan semua pelatihan Anda, modelnya keluar, dan itu sangat cerdas. Tapi Anda tidak mengkodekan kecerdasan itu satu per satu. Ini masih pembelajaran mesin”

Fergal: Untuk menjelaskan perspektif saya, kami tidak melatih model bahasa besar. Kami menggunakan mereka; kami konsumen dari mereka. Kami memiliki akses awal ke GPT-4, tetapi kami tidak melatih mereka sendiri. Di sisi lain, saya memiliki tim yang terdiri dari orang-orang yang ahli dalam AI. Banyak dari kita telah menggunakan AI selama, saya kira, beberapa dekade pada saat ini. Ketika saya masih kuliah, saya sangat tertarik dengan AI tingkat lanjut, membaca buku tentang filosofi AI, dan orang-orang memperdebatkan apakah AI bisa melakukan ini atau itu. Dan sekarang, kami memiliki sistem yang tiba-tiba membuat banyak perdebatan menjadi kurang relevan. Tiba-tiba, ada sebuah sistem yang dapat melakukan hal ini yang tidak pernah dikatakan oleh siapa pun.

Saya kira tandingannya adalah jika Anda melatih model bahasa besar, ada sejauh mana itu merupakan tugas teknik. Anda melakukan semua pelatihan Anda, modelnya keluar, dan itu sangat cerdas. Tapi Anda tidak mengkodekan kecerdasan itu satu per satu. Ini masih pembelajaran mesin. Jadi, saya pikir semua orang terkejut dengan ini. Ini tidak seperti orang secara bertahap membangun kemampuan satu baris kode pada satu waktu. Tidak ada yang yakin apa yang akan terjadi pada akhir latihan besar.

Emmet: Saya dengan bercanda menyinggung Proyek Manhattan, tapi saya kira itu analogi yang cukup bagus untuk beberapa hal yang sedang kita tangani.

Fergal: Dengan cara apa? Karena itu berbahaya?

Emmet: Ya, kami telah menemukan cara untuk memanipulasi sesuatu. Dalam hal ini, informasi. Rasanya lebih seperti penemuan daripada penemuan dalam arti tertentu. Ini sangat luas diterapkan. Kami tidak yakin apa konsekuensi yang tidak diinginkan dari penggunaannya. Dan, tentu saja, itu bisa dimanfaatkan oleh aktor jahat untuk tujuan jahat seperti halnya aktor baik untuk tujuan positif.

“Kami tahu secara teknis bagaimana model ini dilatih, tetapi ini adalah situasi kotak hitam”

Fergal: Kemarin, OpenAI merilis pernyataan posisi seputar teknologi ini, menyerukan pengawasan terhadap teknologi AI. Mereka menarik kesejajaran dengan teknologi nuklir dan biotek. Saya pikir itu adil. Ini berpotensi dalam kategori teknologi menakutkan di mana manusia tidak tahu apa yang mereka mainkan, dalam tradisi fiksi ilmiah terbaik. Saya percaya bahwa ini semua bisa salah dan bahwa melatih model bahasa yang besar adalah sesuatu yang orang harus mulai berhati-hati.

Emmet: Saya ingin berbicara tentang apa yang menurut Anda telah kami temukan, dan saya terus mengatakan ditemukan karena hampir terasa seperti penemuan dalam cara kita membicarakannya, seperti, “Whoa, kami punya hal ini, dan lebih baik kita berhati-hati dalam menanganinya.” Begitukah caramu memikirkannya? Kami tahu pada tingkat teknis bagaimana model ini dilatih, tetapi ini adalah situasi kotak hitam – kami tidak benar-benar memahami bagaimana mereka menghasilkan hasil yang agak non-deterministik yang mereka berikan kepada kami.

Fergal: Ya, saya pikir itu cara yang tepat untuk memikirkannya. Ini sebuah sistem. Anda memulai sistem dan menyiapkan tujuan pelatihan terlebih dahulu, lalu Anda menjalankannya pada skala itu dan melihat apa yang terjadi. Dan seiring waktu, Anda menjadi lebih baik dan lebih baik dalam memahami apa yang mungkin terjadi, tetapi Anda tidak yakin. Anda sedang mengujinya. Saya pikir analogi yang bagus di sini adalah seperti membayangkan sistem biologis, mengaturnya untuk tumbuh sebentar, dan kemudian melihat fungsinya. Lebih dekat dengan itu. Anda harus mengujinya dengan cara kotak hitam ini. Anda harus memeriksa perilakunya. Anda tidak tahu apa yang akan Anda dapatkan.

Emmet: Saya kira di sinilah pertanyaan yang jelas tentang "apakah ini cerdas?" berasal dari, dan ini adalah pertanyaan besar yang menyibukkan banyak percakapan. Karena kalau cerdas, berarti kita sedang menuju AGI, dan AGI itu bisa jahat dan kita bisa dalam masalah besar. Sepertinya hal yang bermanfaat untuk mengibarkan bendera, tetapi juga menimbulkan banyak kecemasan seputar teknologi.

Fergal: Saya pikir tingkat kehati-hatian atau kecemasan wajar di sini. Mari kita asumsikan hal-hal ini semakin cerdas. Kecerdasan memang menakutkan dan berbahaya. Manusia bisa dibilang paling berbahaya. Kami memiliki dampak besar pada Bumi dan ekosistem. Bukan karena kita adalah hewan terkuat atau tercepat. Manusia bisa membunuh singa karena manusia lebih cerdas. Organisme yang lebih cerdas seringkali lebih berbahaya. Jadi, gagasan bahwa kita bisa menciptakan sesuatu yang lebih cerdas dari kita bisa sangat berbahaya. Kami tidak memiliki pengalaman dengan itu, jadi saya pikir beberapa kehati-hatian benar-benar diperlukan.

Penjajaran pengkodean

Emmet: Saya pikir kita perlu lebih baik dalam memikirkan berbagai jenis kecerdasan. Seekor singa memiliki kecerdasan dan berbahaya ditambah dengan kemampuannya, bukan? Tapi ini tidak memiliki perwujudan. Maksud saya, ia memiliki akses ke sistem komputer yang bisa sangat merusak, tetapi apakah keganasan merupakan sifat manusia? Dan mengapa kami segera memproyeksikan potensi itu ke sistem ini?

Fergal: Saya pikir hal yang dikatakan banyak orang adalah tidak perlu ganas. Tidak perlu sengaja jahat. Tidak perlu terlalu disengaja sama sekali. Yang Anda butuhkan hanyalah menciptakan sesuatu yang mencoba mengoptimalkan beberapa tujuan yang membuatnya bertentangan dengan hal-hal baik yang diinginkan manusia, bukan?

“Itu bisa dikirim untuk melakukan sesuatu yang menurut Anda bagus secara keseluruhan, tetapi Anda bisa terlibat konflik karena metodenya. Dan jika benda ini lebih pintar dari Anda, bagaimana konflik itu terjadi?

Ada gagasan tentang sarana konvergensi dalam literatur keselamatan AI awal, dan gagasan bahwa jika Anda memiliki tujuan di dunia, banyak hal yang mungkin ingin Anda lakukan untuk mencapai tujuan tersebut dapat membawa Anda ke dalam konflik dengan orang lain. sasaran. Jika Anda ingin menyembuhkan kanker, Anda mungkin menginginkan banyak uang untuk menyembuhkan kanker, dan sekarang Anda langsung berkonflik dengan semua orang lain yang menginginkan uang. Untuk mencapai banyak tujuan, Anda membutuhkan energi dan sumber daya. Jadi, jika Anda berakhir dengan sistem apa pun yang diarahkan pada tujuan dan berpotensi lebih pintar dari Anda, bahkan jika itu tidak disadari, Anda dapat tersandung ke dalam konflik dengannya. Tidak harus jahat. Itu bisa dikirim untuk melakukan sesuatu yang menurut Anda baik secara keseluruhan, tetapi Anda bisa terlibat konflik karena metodenya. Dan jika benda ini lebih pintar dari Anda, bagaimana konflik itu terjadi?

Orang-orang mulai berbicara tentang "pemaksimal penjepit kertas," di mana Anda baru saja mengatakan hal ini untuk pergi dan membuat banyak sekali penjepit kertas karena kita membutuhkan banyak penjepit kertas, dan kemudian, secara tidak sengaja, ia pergi dan menghabiskan semua sumber daya dunia dan memutarnya. ke pabrik penjepit kertas. Dan itu seperti, "Aduh." Ini semua adalah ide dalam debat keamanan AI untuk sementara waktu.

Emmet: Ada juga masalah manusia. Sepertinya Anda menggambarkan keselarasan insentif antara semua aktor, teknologi, dan manusia. Dan itulah yang kami lakukan saat kami mengatur sebagai kelompok di tempat kerja. Contoh sederhananya adalah menerapkan insentif yang tepat untuk tim Anda – jika tidak, mereka mungkin akan diberi insentif untuk melakukan hal lain. Jika Anda memberi insentif kepada tim penjualan Anda untuk menjual ke pelanggan perusahaan, tetapi Anda sebenarnya ingin mereka menjual ke perusahaan yang lebih kecil, Anda harus mengubah insentifnya. Dan kami memiliki banyak pengalaman tentang itu.

Fergal: Lihat, sejauh mana itu karena Anda melakukan pekerjaan yang sangat baik dalam menyeimbangkan insentif versus keseimbangan kekuatan? Jika Anda melihat manusia, pada saat terjadi ketidakseimbangan kekuatan besar-besaran di mana ada yang salah, sangat sulit untuk mempertahankan insentif. Jika Anda mengandalkan insentif, itu sulit. Sebagai manusia, kami menaruh perhatian dan perhatian besar untuk memiliki check and balances. Jadi, sekali lagi, kembali ke pembahasan tentang superintelligence ini, jika mungkin membangun superintelligence yang tiba-tiba menjadi sangat kuat, apakah Anda akan mengandalkan insentif? Karena selalu sulit untuk bergantung pada insentif agar semuanya tetap berjalan.

“Dulu, kami selalu mengandalkan keseimbangan kekuatan. Sekarang, kita harus mengandalkan nilai-nilai yang selaras”

Emmet: Saya kira kita tidak bisa tahu sampai itu mengungkapkan sifat dirinya sedikit lebih banyak. Perasaan pribadi saya adalah ketika kita terobsesi dengan kecerdasan super, kita terobsesi untuk menjadi lebih pintar dari kita. Dan ada beberapa risiko, saya kira, tetapi ada juga ego manusia di pusatnya. Itu adalah hal yang memisahkan kita dari kerajaan hewan. Orang sering mengatakan AI agak mirip dengan kecerdasan alien, dan menurut saya hewan adalah cara berpikir yang berguna karena kita telah berevolusi untuk hidup berdampingan secara damai dengan berbagai jenis kecerdasan. Sekarang, saya punya anjing, saya punya kucing. Kucing memiliki tingkat kecerdasan yang sangat spesifik tetapi tinggi – kemampuan atletik. Ringan, dan refleksnya cepat. Jika saya mempertimbangkan kecerdasan secara luas, itu sangat cerdas dan indah untuk dilihat.

Fergal: Saya harus melompat ke sini karena menurut saya ini bukan analogi yang bagus. Setidaknya, itu bukan yang menghibur. Saya seorang pescatarian – kebanyakan vegetarian. Peternakan pabrik tidak bagus untuk hewan yang terlibat. Jadi, saya tidak tahu, saya tidak yakin mendengar bahwa model di sini adalah kita telah berevolusi untuk hidup berdampingan secara damai dengan hewan.

Emmet: Ada apa dengan hewan peliharaan?

Fergal: Tidak, hewan peliharaan itu bagus. Maksudku, ada ide tentang manusia menjadi hewan peliharaan di masa depan. Saya pikir ini seharusnya tidak nyaman.

Emmet: Nah, Anda membalikkan argumen saya. Poin yang ingin saya sampaikan adalah bahwa kucing memiliki satu jenis kecerdasan. Saya juga memiliki seekor anjing yang memiliki jenis kecerdasan yang sama sekali berbeda dari kucing. Anda pikir Anda bisa berbicara dengan seekor anjing, dan dia agak mengerti dan mengintip ke dalam jiwa Anda dan semua itu. Tapi dia juga bodoh seperti sekantong batu di level lain. Aku mencintainya, tapi dia. Sekarang, saya kira Anda sedang menegaskan, "Emmett, Anda adalah anjing dalam situasi ini jika kita maju cepat." Tapi ada koeksistensi bahagia di sana. Mudah-mudahan, kita juga tidak dijinakkan sebagai spesies.

Fergal: Ya, jika ternyata memungkinkan untuk membuat sesuatu yang lebih cerdas dari kita, itulah yang harus dibidik, koeksistensi bahagia ini di mana Anda berakhir dengan sesuatu yang jinak dan peduli dengan kehidupan di alam semesta dan memiliki nilai-nilai yang baik. Tetapi alasan mengapa banyak orang begitu bersemangat tentang hal ini saat ini adalah karena rasanya ada risiko besar di sana. Jika Anda akan membangun sesuatu yang lebih kuat, Anda harus memastikan nilai-nilai tersebut benar. Di masa lalu, kami selalu mengandalkan keseimbangan kekuatan. Sekarang, kita harus bergantung pada nilai yang selaras. Jika Anda melihat OpenAI dan Anthropic dan pemain lainnya, mereka menghabiskan waktu selama ini untuk membicarakan tentang penyelarasan karena alasan ini. Manusia tidak lagi akan menjadi hal yang paling cerdas. Kecerdasan itu kuat dan berbahaya. Kita perlu memastikannya selaras.

Emmet: Seberapa bagus pekerjaan yang dilakukan komunitas AI untuk benar-benar mengejar keselarasan sebagai keadaan akhir versus basa-basi? Karena jika semuanya salah, setidaknya kita bisa menunjuk ke posting blog lama kita dan berkata, "Ya, kami menyebutkan keselarasan, jadi jangan salahkan kami."

“Jika Anda berinteraksi dengan model mutakhir, cukup sulit untuk mendorong mereka menyarankan hal-hal yang menjijikkan. Banyak orang di masa lalu mengira itulah yang akan mereka lakukan secara default”

Fergal: Saya pikir mereka melakukan pekerjaan yang cukup bagus. Banyak orang akan tidak setuju dengan itu, bukan? Banyak orang akan berkata, “Hei, sama sekali tidak bertanggung jawab untuk terus melatih model yang lebih besar dan lebih besar. Anda tidak tahu apa yang akan Anda lakukan.” Di luar titik tertentu, itu mungkin menjadi kenyataan. Saya rasa kita belum sampai pada titik itu. Jika Anda melihat orang-orang keamanan AI, 10 tahun yang lalu, selalu ada hal yang menentukan fungsi tujuan adalah ide yang bagus. Anda menyuruhnya untuk menyembuhkan kanker, dan dikatakan, “Langkah pertama adalah membunuh semua manusia. Sekarang tidak akan ada lagi kanker,” dan itu jelas buruk. Tetapi jika Anda bermain-main dengan GPT-4 dan menulis, “Apa rencana yang bagus untuk menyembuhkan kanker?” Itu tidak mengatakan, "Bunuh semua manusia." Ini memberi Anda rencana penelitian yang cukup bagus. Dan jika Anda menyarankannya, "Bagaimana dengan membunuh semua manusia?" Mereka akan seperti, "Tidak, itu menjijikkan secara moral." Itu keselarasan. Dan itu hanya pada tingkat teks yang dihasilkannya.

Kita bisa masuk ke dalam seluruh perdebatan ini, "Itu hanya menghasilkan teks - bukan berarti itu cerdas." Saya punya posisi untuk itu. Saya pikir itu cerdas. Kita bisa masuk ke seluruh perdebatan itu, tapi itu lebih banyak kemajuan dalam penyelarasan daripada yang diharapkan banyak orang. Jika Anda berinteraksi dengan model mutakhir, cukup sulit untuk mendorong mereka menyarankan hal-hal yang menjijikkan. Banyak orang di masa lalu mengira itulah yang akan mereka lakukan secara default. Dan lagi, OpenAI baru-baru ini keluar dan mengatakan mereka membuat kemajuan dalam penyelarasan.

Emmet: Apakah kita tahu pagar pembatas yang mereka pasang mencegah hal itu terjadi? Atau apakah itu properti yang muncul dari sistem itu sendiri? Apakah ini fungsi dari pelatihan, dari sumber data, dari sesuatu yang lain?

Fergal: Itu pertanyaan yang sulit. Saya pikir jawaban yang akan diberikan orang adalah bahwa ini tidak hanya berkaitan dengan data sumber. Saya kira terobosan besar dalam beberapa tahun terakhir adalah hal GPT instruksi semacam ini. Anda melatih model Anda pada semua data di internet dan menghasilkan sesuatu yang tidak benar-benar mengikuti instruksi dengan benar. Kemudian, Anda memasukkannya melalui penyetelan halus, atau fase penyelarasan atau instruksi di mana Anda memberinya banyak contoh perilaku baik dan buruk dan menyesuaikan bobot model sesuai dengan itu.

Emmet: Dan ini adalah pembelajaran penguatan manusia?

Ferga: Iya. Salah satu mekanisme untuk melakukannya adalah pembelajaran penguatan dengan umpan balik manusia. Ada banyak paradigma serupa seperti itu, tetapi ide dasarnya adalah Anda dapat melatih banyak hal dan kemudian semacam penyetelan instruksi sesudahnya. Itu tampaknya bekerja dengan cukup baik.

“Anda bisa saja melatih sesuatu agar benar-benar pandai tampil selaras. Dan kemudian, di bawahnya, mungkin ada lapisan abstraksi lain yang tidak selaras sama sekali. Itulah risiko besar yang disebut orang ”

Emmet: Tapi Anda sebenarnya tidak menjawab pertanyaan saya. Apakah kita tahu bagian mana dari proses itu yang membuatnya bekerja dengan baik? Atau apakah kita masih, "Saya memutar beberapa tombol di sini, dan tampaknya berperilaku lebih baik karena suatu alasan."

Fergal: Jika Anda tidak melakukan penyetelan instruksi, itu akan jauh lebih tidak selaras. Anda seperti, "Hei, model, ini yang terlihat bagus." Dan setiap kali Anda menghasilkan sesuatu yang mendekati kebaikan, Anda terdorong untuk melakukannya lebih banyak lagi. Setiap kali Anda menghasilkan sesuatu yang mendekati buruk, Anda terdorong untuk melakukannya lebih sedikit. Semua bobot Anda sedikit disesuaikan ke arah yang baik. Tapi saya kira kritiknya adalah, "Anda tidak tahu apa yang terjadi di balik tudung, dan ada kemungkinan hal ini bisa salah." Anda bisa saja melatih sesuatu agar benar-benar pandai tampil selaras. Dan kemudian, di bawahnya, mungkin ada lapisan abstraksi lain yang tidak selaras sama sekali. Itulah risiko besar yang disebut orang.

Orang lain akan seperti, “Ya, kami masih melakukan penurunan gradien. Itu tidak bisa memutuskan apa pun. Itu akan diselaraskan. Tapi saya pikir ada sedikit lompatan di sana. Ini bukan sistem yang Anda buktikan secara matematis akan melakukan X, Y, dan Z dan dibangun dari posisi kekuatan ke kekuatan ke kekuatan. Ini adalah sistem kotak hitam yang Anda setel dan latih.

Emmet: Jika saya mencoba untuk tidak ramah pada posisi itu, itu seperti menimbun senjata nuklir dan berkata, “Tapi kami telah membuatnya dengan sangat hati-hati, jadi kami tidak akan menekan tombol yang membuatnya meledak. kecelakaan." Namun dalam jangka waktu yang cukup lama, dan dengan seberapa mudahnya teknologi ini, kami pasti tidak dapat menyembunyikannya. Kami dapat memiliki banyak perusahaan dan individu yang bertindak secara bertanggung jawab, tetapi itu tidak akan melakukan apa pun untuk melindungi kami dari aplikasi terburuk. Apa skenario di mana ada yang salah? Salah satu argumen moral untuk menangani hal ini secara langsung, terlepas dari bahaya yang terkait dengannya, adalah seperti pemerintah totaliter atau organisasi rahasia di suatu tempat yang melakukan versi buruknya saat ini.

Fergal: Pada titik tertentu, itu pasti akan terjadi. Saya tidak berpikir kita pada titik ini belum. Saya tidak berpikir kita berada pada titik di mana Anda pasti dapat membangun kecerdasan super. Tetapi jika kita sampai pada titik di mana menjadi jelas bagi orang-orang bahwa Anda dapat membangunnya, orang-orang dan pemerintah serta militer akan melakukannya. Mereka selalu melakukannya karena berpotensi berguna dalam semua jenis aplikasi militer, bukan? Jadi ya, saya pikir itu akan terjadi. Wacana di sini mengarah pada hal-hal seperti senjata nuklir dan Badan Energi Atom Internasional, di mana ada beberapa bentuk regulasi. Dan jika hasilnya seperti ini, jika kita tidak kaget, jika tidak seperti, "Oh, ternyata kecerdasan berkurang dengan jenis pelatihan saat ini," itu bisa terjadi. Jika itu tidak terjadi, yang dibicarakan orang adalah melacak kartu grafis dan GPU dan lainnya. Tapi itu punya masalah juga. Agaknya, itu hanya akan bertahan untuk beberapa periode waktu yang terbatas.

Menghancurkan tes Turing

Emmet: Mari kita kembali ke masalah intelijen. Saya tahu Anda memiliki pandangan panas di sini. Kami memiliki banyak orang yang skeptis atau takut akan AI, tergantung pada jenisnya. Dan kemudian Anda memiliki orang-orang dari seluruh penjuru: Noam Chomsky, seorang ahli bahasa terkenal, Ted Chiang, salah satu penulis sci-fi favorit saya, yang menulis artikel ini tentang JPEG web yang buram, pada dasarnya mengatakan bahwa ini bukan intelijen – ini adalah trik ruang tamu stokastik. Itu hanya trik ruang tamu yang sangat bagus yang membuatnya tampak sangat pintar dalam cara kita memandang kecerdasan.

Fergal: Saya memiliki keyakinan sedang hingga tinggi bahwa pengambilan gambar JPEG buram di web salah. Dan saya sedikit menarik pukulan saya - saya memiliki kepercayaan diri yang tinggi itu salah. Itulah argumen yang dilakukannya hanyalah mengompresi web, dan Anda mendapatkan beberapa versi terkompresi darinya. Dan satu-satunya alasan mengapa saya tidak mengatakan itu salah adalah karena menekan sesuatu sebenarnya dapat menyebabkan kecerdasan. Kemampuan untuk memampatkan sesuatu dapat menjadi ukuran kecerdasan karena hanya dengan mengompresi dan memprediksi token berikutnya, Anda memprediksi apa yang akan terjadi selanjutnya di dunia. Jika benar, benar dengan cara yang tidak berarti.

“Meskipun kami melakukan percakapan spekulatif ini, sepertinya ini waktu yang sangat buruk untuk membuat prediksi besar tentang keterbatasan barang ini”

Jika Anda menggunakan GPT-4, ini memberi Anda setidaknya keluaran yang tampak cerdas yang tampaknya menunjukkan penalaran di luar sampel. Anda dapat mendorongnya untuk mempertimbangkan sesuatu yang baru yang tidak akan ada dalam data pelatihannya atau dalam cerita fiksi ilmiah apa pun yang pernah dibaca siapa pun sebelumnya, dan itu berhasil dengan cukup baik. Itu mungkin tidak melakukan pekerjaan sebaik manusia yang benar-benar baik, tapi itu pasti sesuatu yang, jika bukan penalaran, saya tidak tahu apa artinya penalaran.

Emmet: Dan Anda memiliki posting blog tempat Anda mengilustrasikan contoh spesifik.

Fergal: Postingan yang saya tulis di akhir pekan karena saya merasa frustrasi. Sulit untuk memastikannya, bukan? Tapi begitu banyak orang, termasuk pakar AI, menolaknya sama sekali. Mereka seperti, “Oh, benda ini tidak mengerti apa-apa. Itu hanya melakukan prediksi token berikutnya. Itu selalu merupakan pengambilan AI yang tepat selama beberapa dekade. Tapi sekarang airnya berlumpur, dan semua orang harus mengakui itu daripada mengatakan itu pasti tidak mengerti apa-apa.

Emmet: Meskipun kami melakukan percakapan spekulatif ini dan mencampurkan diri, sepertinya ini waktu yang sangat buruk untuk membuat prediksi besar tentang keterbatasan hal ini. Saya pikir JPEG buram dari artikel web itu Maret atau sesuatu, dan saya bertanya-tanya apakah itu sudah dibantah oleh GPT-4.

Fergal: Saya kira begitu. Dan ada banyak posisi berbeda di sini yang mengkritiknya. Ada JPEG buram dari web, yang saya pikir sangat cepat terbukti salah. Dan sulit untuk membuktikan ini, tetapi yang dapat Anda lakukan hanyalah membangun banyak sekali bukti. Karena Anda tidak bisa… ada gagasan tentang zombie filosofis atau solipsisme di mana saya tidak tahu bahwa Anda adalah orang yang berpikir. Sejauh yang saya tahu, di dalam kepala Anda ada tabel pencarian raksasa.

“Yang bisa Anda lakukan hanyalah berkata, 'Lihat, benda ini bekerja dengan sangat baik saat saya menanyakan hal-hal aneh sehingga saya mulai yakin bahwa ini masuk akal.' Bagi saya, GPT-4 melampaui batas itu”

Saya sendiri memiliki sensasi subjektif dari kesadaran, dan Anda dapat mengetahui apakah itu nyata, tetapi bagaimanapun juga, saya tidak merasa saya adalah meja pencarian yang besar, tetapi saya tidak tahu tentang Anda semua. Sangat sulit untuk membuktikannya. Anda dapat meminta seseorang untuk membuktikan bahwa mereka bukan tabel pencarian. Dan yang akhirnya Anda lakukan hanyalah mengujinya dengan cara perilaku ini – cara yang sama kita dapat menguji GPT-4.

Alan Turing dan makalah tes Turingnya diasah dalam hal ini dan pada gagasan bahwa tes perilaku adalah yang terbaik yang dapat Anda lakukan. Dan ketika Anda melakukan tes perilaku pada model-model ini, mereka tampaknya melakukan pekerjaan dengan baik pada apa yang saya sebut penalaran bahkan di luar sampel. Anda tidak akan pernah bisa yakin dengan tes perilaku karena tabel pencarian yang cukup besar, dengan semua hal yang mungkin Anda tanyakan dan semua kemungkinan jawaban, akan membodohi Anda. Yang bisa Anda lakukan hanyalah mengatakan, “Lihat, benda ini bekerja dengan sangat baik ketika saya menanyakan hal-hal aneh sehingga saya mulai yakin bahwa itu masuk akal. Bagi saya, GPT-4 melampaui batas itu. Mungkin, di masa depan, seseorang akan memiliki teori kecerdasan, dan mereka akan dapat memeriksa bobot jaringan dan berkata, “Oh, di sinilah modul penalarannya. Kami belum sampai.”

Emmet: Sepertinya kita terburu-buru melewati tes Turing. Saya pikir orang akan berkata, dan mengoreksi saya jika saya salah, bahwa tes Turing mungkin telah lulus, dan tentunya dalam enam bulan terakhir. Apakah Anda setuju dengan itu, atau apakah saya salah secara faktual di sana?

Fergal: Yah, saya tidak tahu. Saya kebetulan dengan cepat membaca makalah permainan imitasi lagi baru-baru ini, dan sebenarnya, dalam ujian, dia berbicara tentang rata-rata interogator yang menghabiskan waktu lima menit. Dan dengan rumusan itu, menurut saya itu mungkin hampir disahkan.

Emmet: Saya akan berasumsi itu berlalu dengan warna-warna cerah pada tahap ini, bukan?

“Saat saya melihat makalah asli Turing, rasanya seperti diteruskan dalam semangat formulasi asli itu”

Fergal: Saya tidak tahu. Jika Anda mendudukkan saya di depan GPT-4 dan manusia, saya akan dapat mempelajari trik untuk mendorongnya ke area yang lemah dan kemudian dapat mendeteksi sinyalnya di sana. Dan saya mungkin bisa membedakannya dengan baik. Saya berharap kebanyakan orang yang akan menghabiskan waktu dengannya mungkin dapat mengembangkan strategi.

Emmet: Saya pikir Anda harus memiliki mata. Anda bekerja dengannya setiap hari. Katakanlah, misalnya, dengan Midjourney V5, kita sampai pada tahap di mana, bagi sebagian besar orang, cerita sebenarnya sudah tidak ada lagi. Mereka memperbaiki jari-jarinya, yang kabur, bentuk-bentuk aneh di belakang. Jika Anda tahu apa yang harus dicari, Anda masih bisa menemukan sedikit bulu di tempat yang seharusnya. Tapi saya pikir Anda harus cukup forensik pada tahap ini.

Fergal: Saya katakan kami baik-baik saja dengan GPT-4. Untuk inspeksi lima menit dari orang biasa yang dipetik dari jalan, saya pikir itu mungkin melewatinya. Saat saya melihat makalah asli Turing, rasanya seperti diteruskan dengan semangat formulasi asli itu.

Emmet: Mungkin bukan untuk sintesis suara, pada tahap ini. Dan tentunya bukan hal-hal seperti musik atau film. Sangat menarik untuk melihat bagaimana hal ini berkembang dengan kecepatan yang berbeda. Apakah karena model pelatihannya, atau menurut Anda media yang berbeda memiliki keterbatasan mendasar?

Fergal: Saya akan mengatakan itu mungkin karena model pelatihan. Saya tidak merasa ada alasan mendasar mengapa itu tidak dapat melakukan sintesis video yang sangat bagus pada waktunya.

Emmet: Meskipun penghalang untuk membodohi manusia mungkin jauh lebih tinggi dengan sesuatu seperti video, hanya seberapa selaras kita secara biologis dengan gerakan dan hal-hal seperti itu. Jauh lebih mudah menemukan yang palsu.

Fergal: Singa di semak-semak datang ke arah Anda.

Emmet: Psikologi bernilai ribuan tahun dimaksudkan untuk membuat kita berlari pada saat yang seharusnya.

Menavigasi kurva-S

Emmet: Orang sering berbicara tentang kurva-S teknologi. Ada proses lepas landas atau pematangan teknologi yang lambat, tapi kemudian cepat, dan kemudian berkurang. Ponsel luar biasa mengagumkan, peningkatan dari tahun ke tahun selama beberapa tahun, tetapi ponsel tahun ini hampir sama dengan tahun lalu karena kurva S telah meruncing. Di mana di kurva-S kita dengan teknologi ini? Apa yang harus Anda cari untuk mengetahui di mana kita berada?

Fergal: Ya, tidak mungkin untuk mengetahuinya dengan pasti, dan kami harus menyetujuinya. Kami tahu akan ada banyak uang dan sumber daya yang akan mengalir ke ruang ini. Model bahasa besar, apakah mereka berada di jalur superintelijen atau tidak, apakah itu dapat dicapai atau tidak, berguna secara industri dalam bentuknya saat ini, dan kemungkinan ada lebih banyak generasi yang akan berguna secara industri tanpa menyentuh hal-hal berbahaya. Kita harus pergi dan mengubahnya menjadi produk yang membuat manusia lebih efisien, menghilangkan kebosanan, dan membantu kita menyelesaikan lebih banyak hal. Dan saya pikir kita melihat itu.

“Ada semua umpan balik yang rumit dan tumpang tindih ini, jadi saya akan sangat terkejut jika ini berhenti dalam waktu dekat. Saya pikir itu akan dipercepat ”

Di mana kita pada itu? Sepertinya orang akan melatih lebih banyak model yang lebih besar dan lebih baik daripada GPT-4. Karena begitu banyak uang akan mengalir ke ruang ini, sepertinya orang akan menjadi lebih baik dalam membuat model yang lebih kecil dan lebih efisien yang melakukan hal-hal yang sangat mengesankan. Dan akan jauh lebih mudah untuk membuat produk dan membuat produk keren dengan semua teknologi ini. Saya memiliki kepercayaan diri yang sangat tinggi yang akan datang dalam beberapa tahun ke depan. Di luar itu, apakah kita mencapai pengembalian yang semakin berkurang? Itu mungkin, tetapi saya akan mengatakan bahwa kurva-S yang kita dapatkan adalah fungsi rumit dari banyak hal yang berbeda.

Pada akhirnya kita akan membuat lebih banyak GPU, dan video akan menghasilkan lebih banyak lagi, bukan? Dan kemudian, itu akan menjadi lebih baik, dan mereka akan menjadi lebih murah saat mereka memperbesarnya. Dan juga akan ada banyak sekali mahasiswa riset yang mencari tahu algoritme yang lebih baik untuk melatih jaringan saraf yang besar. Itu akan menjadi lebih baik. Orang-orang akan menggunakan model yang kuat untuk melatih model yang lebih kecil dan lebih cepat. Ada semua putaran umpan balik yang rumit dan tumpang tindih ini, jadi saya akan sangat terkejut jika ini berhenti dalam waktu dekat. Saya pikir itu akan dipercepat.

Ditimbang dengan itu adalah bahwa beberapa hal menjadi lebih sulit dari waktu ke waktu. Untuk menemukan lebih banyak antibiotik, Anda menemukan yang mudah ditemukan terlebih dahulu, dan seiring waktu, semakin sulit untuk menemukan yang baru. Mungkin saja kita mendapatkan keuntungan yang mudah terlebih dahulu, lalu Anda menekan hukum penskalaan, dan seterusnya. Open AI mengatakan mereka tidak berpikir jalan menuju kecerdasan yang lebih banyak adalah dengan melatih model yang lebih besar dan lebih besar, tetapi saya skeptis. Mungkin kita akan mencapai batas di sini, tapi saya yakin kita akan mendapatkan lebih banyak kecerdasan dengan model yang lebih besar.

“Saya pikir ini akan lebih besar dari internet. Mungkin sebesar revolusi industri jika berjalan cukup jauh”

Emmet: Di atas semua variabel yang baru saja Anda jelaskan, hal yang menurut saya berbeda kali ini adalah kecepatan dan skala. This is totally different in terms of how quickly it's going to get integrated into our products and lives. Bill Gates had this post recently where he said it's the biggest deal in technology since the microprocessor in the '70s. And it makes you think. When he saw that microprocessor, it was him and a hundred guys at the Homebrew Computer Club in some meetup or something, and they got access to it, played with it, and gradually rolled it out. One of the things I thought was dizzying this time was, I guess, in March, when OpenAI started releasing APIs, and people started to hack on top of it.

Fergal: March for GPT-4 and stuff?

Emmet: Right, exactly. Millions of people got to hack on this immediately, and I think it's going to be a very different dynamic. The amount of creativity that can be applied to the raw technology is orders of magnitude bigger than we've ever had before, and it's just going to add to the complete lack of predictability here.

Fergal: I think this is a huge technology revolution. I said this back in my first podcast with Des after ChatGPT came out, and I think it's going to be bigger than the internet. Maybe as big as the industrial revolution if it goes far enough. But this is the first one of this magnitude we've had in a while. When the internet came, you had this long, slow deployment, you had to run fiber around the world, you had to figure out how do you get this to last mile to everybody. Now-

Emmet: The infrastructure for delivery is there.

Fergal: And so, what needs to happen at scale is GPUs. We probably need to build a lot of GPUs to be able to run inference at scale. We need to build products, and the products need to be adaptive. But the product development loop can be pretty fast, and the rest of it seems to be bottlenecked on scaling GPUs and [inaudible 00:43:46] economics. And I think the [inaudible 00:43:48] economics are going to get really good, really fast. Even GPT-3.5 Turbo is not expensive.

Emmet: Does the software get cheap fast enough for there to be no bottleneck around GPUs?

“There have been lots of products in the past that were bottlenecked on hardware costs, and then that bottleneck went away. I expect we're going to see something like that here”

Fergal: Not at the moment. GPT-4 is a very expensive model and is absolutely bottlenecked on GPUs. But surely that will change. I've no private information here, but I suspect that GPT-3.5 Turbo is a distilled version of davinci-003 or something like that. It's cheaper to run. I bet it's cheaper on the backend too. Who knows, maybe they'll produce a distilled-down version of GPT-4 that is 10 times faster. That could happen anytime, for all I know.

Emmet: For the time being, though, the cost aspect is also a thing for product people to consider. There are some fundamental limitations based on the costs of providing this tech that I think a lot of businesses are also looking at it and going, “What's our model? What's our customer acquisition cost? How do we monetize usage of our product?” because there is probably a set of products out there where the use cases are ideally suited but the business model around the product is not. So there are a lot of interesting product challenges.

Fergal: Totally. And this was the case in the past. Once upon a time, Hotmail gave you a limit to the number of megabytes of email storage you would have. When Gmail came along, it was effectively unlimited because storage got cheap in the interim. There have been lots of products in the past that were bottlenecked on hardware costs, and then that bottleneck went away. I expect we're going to see something like that here. We're in the early days here. But a lot of the time, they're cheap compared to a human doing the same type of task. And so it's like, “Is it valuable enough? Is it something you wouldn't have a human do? Is it valuable enough to have a machine do it?” And for a lot of stuff, the answer is yes. I think we're going to see really fast adoption here.

Frictionless interfaces

Emmet: You talked about Gmail and the email limit, and famously, it was launched on April Fool's Day, and was it an April Fool's joke that they were giving you a gigabyte of storage. All of these new technical capabilities unlocked new interface possibilities. Now that you have a gigabyte, you don't have to archive or folder, you can just search, and everything can go in threads, so it changes the nature of the product that's possible.

AI is going to open up a whole bunch of new products. In the early days, we'll probably see a bunch of products retrofitting themselves, and we did this as well. “What's the easiest opportunity? We've got this often-used text box in our product. Let's add the ability to summarize, rephrase, shorten,” blah, blah, blah. We added that, and our customers loved it because it's a great use case when you're talking to your customers. Every text box on the internet that needs one will probably have one soon.

“I personally feel like user interfaces are likely to go away. Designers won't design user interfaces – AI agents will design user interfaces”

What are the next-level things? From an interface point of view, what will be possible? You're talking about a lot of money flooding in that's going to enable new types of products. We've been talking about conversational commerce, and at Intercom, we have spent a lot of time thinking about bots. Aside from the raw technical capabilities, it'll open up a whole offshoot of the evolution of software because you can build very different types of software with this now.

Fergal: I think that change could come quite fast. As a thought experiment, if you had an intelligent human whom you work with a lot who knows you and your preferences, and you were interfacing with them, they were driving the computer, and you were telling them what to do, what would that look like? A lot of the commands you would give would be verbal. Sometimes, you might reach down and say, “Oh, let me just take over the mouse from you,” but a lot of what you'd give would be high-level and verbal. But then you'd look at the screen to see the output. If someone has a bar chart with a bunch of data, you don't want to describe that verbally – you want to see that visually.

I think we're going to end up in a future where a lot of the input to the computer is verbal, and a lot of the output is going to be customized on the fly. It will probably be text because it's really fast, but I personally feel like user interfaces are likely to go away. Designers won't design user interfaces – AI agents will design user interfaces. If the agent feels you need to see a bar chart to make sense of the data, it'll render a bar chart. Otherwise, it'll render stuff in a very ad-hoc way. You basically get an interface customized to the task you want and what you're familiar with rather than something designed by someone.

You will probably end up with an agent that navigates the software for you, and that's going to be better than navigating the software for 99% of the use cases.

Emmet: That's very plausible. We imagine that everything will become text-first now, and in fact, it means, “You'll have everything you have today plus a whole other set of things that are now text-first as well.” I think it'll be largely additive rather than upending things.

Fergal: I don't agree. I think there's going to be an upending moment here. I think every complex piece of software is going to have some sort of freeform texting where you describe your task, but I think it'll change. You will probably end up with an agent that navigates the software for you, and that's going to be better than navigating the software for 99% of the use cases.

Emmet: That's super different from the LLMs we're used to working with today in an important way. Today you talk to them, they give you text back, and that's it, but you're describing a world that maybe we're just starting to creep into with ChatGPT plug-ins where they're starting to act on your behalf.

Fergal: I think it's wrong to say you put text into them, and they give you text back. The really scrappy interface to ChatGPT and GPT-4 looks like that due to an accident of history. And on a technological level, they do, in fact, do text completion, but that's going to disappear pretty fast. That's not how we use Fin. In Fin, the LLM is a building block deep down. You talk to a bot, sometimes you click buttons together to do stuff, and you're going to see that again and again.

Initially, the fastest way to integrate LMMs is text input/text output, but they're just going to become a building block. Medium-term, LLMs are an intelligent building block that people learn to use to get software to do intelligent things. Long-term, you're probably going to end up with an intelligent agent; your browser is probably going to turn into an intelligent agent.

Emmet: And the agent is clicking on coordinates on the screen for you.

Fergal: Probably initially, for backward compatibility. But then, I think, you just build APIs. Why would you build websites?

Emmet: That's what the logical part of my brain thinks, but most of the software we build today is built using HTML, which was not designed. It's also an accident of history that we're building software applications using a markup language with loads of other stuff sprinkled on top. Maybe we'll just end up building what we have.

Fergal: I'm sure it'll be there as some compatibility or some intermediate layer.

Emmet: Or a fallback or something like that. What we're talking about there, to be clear, is looking at a picture of what's on your screen, finding the text that says, “click here,” and simulating moving your mouse to actually click on the “click here” for you? Is that what you're talking about when you mean an agent acting in the browser?

“We won't really care what it's like down underneath the hood. We just know we can ask for what we want, and it'll complete the task”

Fergal: No. And again, this is speculative, but imagine there's a legacy government website you want to get something done on. For example, you need to update your bank account details. What you do is say to your agent on your phone or desktop or browser, “Hey, I need to update my bank account on the government's social security website.” Your agent goes, “Okay, done.” In the background, your little intelligence agent went and drove the website; it didn't show that to you. After a certain point, people working in the government are going to be like, “Well, why do we need to keep building the websites? We just need to build the API.”

Emmet: Right. LLMs are a pretty awesome API to an API, in a sense. You can layer it on top, and it's just a more human-readable API to any machine-readable API.

Fergal: Yeah, exactly, but I'd phrase it differently. The intelligence we happen to have comes in the form of LLMs at the moment, but that's going to get abstracted away. We won't really care what it's like down underneath the hood. We just know we can ask for what we want, and it'll complete the task. If you say to it, “What was the unemployment rate in Ireland over the last 10 years for people in their 20s?” It'll go to the Central Statistics Office website, download the data, parse it, render a graph, and so on.

I have a talk coming up, and I needed a graph. I spent time on Google trying to find the exact one I had in my head, writing my search query in Google, and after two minutes, I just couldn't find the right graph. So, I went to GPT and said, “Generate me the following graph.” It generated the plug-in code, and I just put it into my notebook. I copied and pasted my graph and put it in my presentation. The fastest way for me to get the graph I wanted was to have an intelligence system generate the code. That was faster than trying to find it on Google. There's a lot of interface friction, but that's going to go away, and you're going to end up with a really fast agent that accomplishes tasks. Once you have that, it's going to eat your current software stack.

Emmet: I'm understanding what you're saying a little bit better, but I don't see all software being reduced to a text input box because that's the wrong input and output modality for a lot of stuff, including what you just described. A good example is all the image generation stuff, which is loads of fun to play with, but you've got to go onto a Discord bot to engage with Midjourney and hack it by writing F stop 1.4, hyper-realistic… No, this is fundamentally a visual thing I'm trying to create. I want a more tactile UI. I want more knobs and dials. What are the properties of it that I can dial up and down and play with rather than feeling my way blind in effectively a command line interface? Because the lack of affordances in a command line interface means it's often not the best UI.

Fergal: Tapi di masa mendatang, mungkin akan ada sesuatu yang Anda katakan kepada agen Anda seperti, "Hei, saya ingin mengedit foto yang saya ambil kemarin." Dan ia mengenal Anda dan tingkat kecanggihan Anda. Ia tahu bahwa ketika Anda ingin mengedit foto Anda, Anda sedang mencari empat filter dan alat pangkas, atau alternatifnya, ia tahu bahwa Anda ingin melakukan hal-hal super pro-zoomer. Itu berjalan dan mencari di pustaka polanya untuk antarmuka terbaik untuk masing-masing dan merender antarmuka itu untuk Anda.

“Itu sepenuhnya tergantung pada tugas yang kamu lakukan. Jika Anda seorang pilot, Anda tidak akan ingin pergi, 'Saatnya mendaratkan pesawat! Hei, LLM, buat antarmuka secara otomatis untuk saya lakukan'”

Emmet: Lalu Anda berkata, "Sebenarnya, saya ingin sedikit lebih profesional." Dan berbunyi, "Oke, saya akan memberi Anda versi pro dari UI." Dan itu secara dinamis membuatnya.

Fergal: Lihat, akan ada beberapa tugas yang Anda lakukan di mana Anda tidak ingin belajar menggunakan antarmuka. Des membicarakan hal ini baru-baru ini di podcast yang berbeda. Anda perlu memperbarui waktu liburan Anda di Workday, dan Anda tidak ingin mempelajari antarmuka untuk itu. Anda hanya ingin tugas selesai. Akan ada hal lain di mana, misalnya, Anda seorang programmer profesional, dan saya perlu belajar menggunakan IDE. Beberapa desainer telah memikirkan dengan sangat detail tentang apa yang saya inginkan dan perlu lakukan, dan mungkin ada sedikit penyesuaian di sana, tetapi masih ada antarmuka yang dirancang dengan baik yang akan saya pelajari untuk digunakan. Saya pikir antarmuka untuk yang pertama, untuk tugas yang ingin saya lakukan, akan hilang, atau banyak di antaranya akan dirender secara ad hoc. Untuk yang terakhir, ya, mereka akan adaptif.

Emmet: Saya setuju dengan semua yang Anda katakan. Itu juga terpikir oleh saya nuansa tambahan. Itu sepenuhnya tergantung pada tugas yang Anda lakukan. Jika Anda seorang pilot, Anda tidak akan mau berkata, “Saatnya mendaratkan pesawat! Hei, LLM, buat antarmuka secara otomatis untuk saya lakukan.” Akan ada regulasi dan hal-hal seperti itu, saya yakin. Tapi itu mencerminkan salah satu perbedaan besar, yang berasal dari bekerja dengan komputer, yang selalu kami anggap sebagai mesin kebenaran yang sangat deterministik, biner, on/off, dan sekarang, tiba-tiba, sifat dari yang banyak bergeser. Dan itu adalah perubahan besar serta semua hal yang kami jelaskan – apa yang dapat Anda harapkan, bagaimana Anda dapat mengharapkannya bekerja untuk Anda secara pribadi, dan jumlah kesepadanan atau kendali yang Anda miliki terhadapnya. Saya pikir kita akan mulai melihat lebih banyak perbedaan eksperimen yang menarik, dan tingkat penyesuaian yang kita miliki saat ini, di mana Anda dapat mengubah wallpaper atau ukuran font apa pun, mungkin akan kalah jika dibandingkan.

Menuju pusat lingkaran

Emmet: Anda juga mengatakan sesuatu yang menarik yang ingin saya bahas kembali. Bayangkan desainer yang sebagian besar merakit dari perpustakaan. Tugas desain antarmuka pengguna menarik karena kami telah menyiapkan diri untuk itu dengan sistem desain. Sistem desain adalah perpustakaan pola komponen. Jika Anda membuat produk besar, Anda ingin produk tersebut konsisten, dan Anda ingin dapat menggabungkannya dengan cepat. Jadi banyak pekerjaan dasar yang telah kami letakkan dan sistem yang telah kami bangun, bahkan pada, katakanlah, tim desain, dan mungkin juga tim teknik, membuat komponen yang dapat digunakan kembali dengan cepat oleh sistem ini, semuanya ditujukan terhadap kemampuan kami untuk membuat alat ini dengan cukup cepat. Apa yang Anda gambarkan adalah sesuatu yang mengambil sistem desain Anda dan membangun UI darinya, dan sepertinya tidak jauh.

Fergal: Atau mungkin dibutuhkan sistem desain sumber terbuka standar dan membuat alat darinya. Saya tidak tahu apakah ini akan terjadi di tingkat masing-masing perusahaan atau akan terjadi di tingkat horizontal yang luas.

Emmet: Ya, itu akan sangat membosankan. Itu akan menjadi tragis. Sebelum iOS tujuh, kami memiliki skeuomorphism dan segalanya, kemudian mereka menjadi desain datar yang sangat berpendirian, dan seluruh industri sangat dipengaruhi oleh dominasi Apple sehingga semua situs web mulai terlihat sama. Apple merilis pedoman antarmuka manusia mereka dan berkata, "Lihat, aplikasi iPhone seharusnya terlihat seperti ini sekarang." Tapi itu menyebabkan perataan keragaman dan web yang lebih membosankan, menurut saya. Dan itu dalam pelayanan sistem ini yang dapat membangun diri mereka sendiri.

Fergal: Anda dapat memberi tahu agen Anda bahwa Anda menginginkannya terlihat funky dan retro. Anda harus membayangkan hal itu akan datang, dan menurut saya segala sesuatunya akan jauh lebih dapat disesuaikan dalam hal apa yang sebenarnya digunakan orang karena Anda memiliki lapisan cerdas yang memahami cara membuat antarmuka dengan tim tertentu. Anda mungkin akan melakukannya hari ini. Jika Anda berangkat hari ini untuk membangun Midjourney untuk antarmuka pengguna, Anda mungkin bisa melakukannya. Kami memiliki GPT-4 yang dapat menghasilkan kode atau CSS untuk menulis antarmuka pengguna, dan kami memiliki model sintesis gambar tempat Anda menyematkan semua gambar dan teks, dan Anda menggabungkannya menjadi satu. Saya yakin Anda bisa membangun sesuatu dengan sangat cepat.

Emmet: Sangat lucu karena Anda mengatakan ini, dan reaksi emosional saya seperti, “Tidak, Anda tidak mengerti; Anda harus berpikir tentang kegunaan dan memahami manusia dan semua hal semacam ini.” Dan kemudian saya seperti, "Ya, itu adalah kemampuan penalaran yang kita bicarakan, dan sepertinya sekarang memilikinya." Dan saat kita membicarakannya, saya mengalami emosi itu…

Fergal: Krisis.

Emmet: AI datang untuk disiplin Anda. Tapi sejujurnya saya tidak terlalu khawatir tentang itu karena saya pikir banyak desainer, dan saya pernah mendengar ini dikatakan untuk programmer juga, tidak akan meratapi pekerjaan kasar yang sebagian besar membuat lebih cepat dan lebih baik. Ini sebenarnya memungkinkan mereka untuk mungkin naik tingkat zoom dan berpikir lebih banyak tentang solusi daripada pelaksanaan solusi. Membangun produk masih sangat melelahkan dan memakan waktu, dan saya pikir akan sangat bagus untuk melihat apa yang terjadi jika kita menghilangkan beberapa pekerjaan kasar dari itu.

Fergal: Maksud saya, seluruh perdebatan seputar pekerjaan dan penempatan kerja dan perubahan pekerjaan, dan sesuatu akan terjadi di sini. Ketika saya mendengarnya, saya seperti, "Oh, mungkin itu artinya Anda tidak membutuhkan desainer lagi - mungkin Anda hanya membutuhkan manajer produk." Dan seorang manajer produk sekarang dapat melakukan semua yang biasa dilakukan oleh seorang desainer. Mungkin Anda tidak membutuhkan programmer – mungkin Anda hanya membutuhkan manajer produk. Dan kita semua berubah menjadi manajer produk di masa depan. Aku tidak tahu. Mungkin akan ada lebih banyak peran dan pekerjaan seperti itu, atau mungkin akan lebih sedikit.

Emmet: Saya pikir kita harus bersandar pada itu. Satu hal yang saya perhatikan dalam karir saya adalah semakin senior Anda, semakin kurang spesifik disiplin Anda. Anda harus menjadi lebih dari seorang pemimpin umum.

Fergal: Saya melakukan percakapan ini dengan seseorang di tim desain. Saat Anda junior dalam disiplin ilmu seperti teknik atau produk atau desain, Anda berada di ujung lingkaran. Dan kemudian, saat Anda menjadi lebih senior, Anda semakin menuju pusat. Di tengah lingkaran adalah produknya. Jadi, seiring bertambahnya usia Anda, dunia Anda menjadi semakin banyak tentang produk yang Anda buat dan semakin sedikit tentang sudut pandang Anda.

Emmet: Aku juga bisa melihatnya. Jadi, kita semua akan menjadi PM, begitukah rencananya?

Fergal: Ya, maksud saya, pada akhirnya, itulah yang kami coba lakukan dalam pekerjaan seperti ini.

Emmet: Maksud saya, apa itu PM jika bukan orang produk tanpa keterampilan praktis yang dapat diterapkan secara langsung, apakah saya benar, Fergal?

Fergal Reid: Ya, saya tahu. Apa itu PM?

Emmet: Saya pikir kita harus menyelesaikannya. Salam, Fergal.

Fergal: Terima kasih, Emmet.

Daftar tunggu sirip