Glosarium istilah AI: Memahami GPT, jaringan saraf, dan lainnya

Diterbitkan: 2023-06-01

Apakah Anda tertarik dengan kemungkinan AI tetapi sulit memahami semua jargon teknis? Glosarium AI kami akan membantu Anda memahami istilah dan konsep utama.

AI terus berkembang dan berkembang, dengan perkembangan dan aplikasi baru muncul setiap minggu – dan rasanya jumlah jargon yang harus diikuti berkembang dengan cepat.

Secara keseluruhan, ini bisa sedikit berlebihan, jadi kami telah menyusun daftar konsep dan istilah untuk membantu Anda lebih memahami dunia baru kecerdasan buatan yang berani.

Jika Anda ingin mendapatkan lebih banyak konten kami tentang AI dan otomatisasi yang dikirimkan ke kotak masuk Anda, pastikan untuk berlangganan buletin reguler kami.


Kecerdasan buatan (AI)

AI mengacu pada penciptaan mesin cerdas yang mampu melakukan tugas kompleks yang biasanya membutuhkan kecerdasan tingkat manusia, seperti persepsi visual, pengenalan ucapan, pengambilan keputusan, dan terjemahan bahasa. Sistem AI dapat dilatih untuk belajar dan meningkatkan kinerjanya dari waktu ke waktu, memungkinkan mereka menyelesaikan tugas yang lebih kompleks dengan efisiensi dan akurasi yang lebih tinggi.

Pembelajaran mendalam

Pembelajaran mendalam mengacu pada metode untuk melatih jaringan saraf dengan lebih dari satu lapisan, dengan setiap lapisan mewakili tingkat abstraksi yang berbeda. Biasanya jaringan dalam ini dilatih pada kumpulan data besar untuk membuat prediksi atau keputusan tentang data.

Jaringan saraf dengan satu lapisan mungkin dapat membuat perkiraan perkiraan, tetapi lapisan tambahan dapat membantu meningkatkan akurasi – setiap bangunan di atas lapisan sebelumnya untuk mengoptimalkan dan menyempurnakan prediksi.

Algoritme pembelajaran mendalam sangat efektif dalam memproses data yang kompleks dan tidak terstruktur, seperti gambar, audio, dan teks, dan telah memungkinkan kemajuan signifikan dalam berbagai aplikasi seperti pemrosesan bahasa alami, pengenalan suara, dan sistem pengenalan gambar yang mencakup pengenalan wajah , mobil self-driving, dll.

Menyematkan

Penyematan dalam konteks pemrosesan bahasa alami (NLP) adalah resep untuk mengubah teks dengan panjang variabel menjadi sekumpulan angka dengan panjang tetap. Biasanya kumpulan angka ini akan mempertahankan makna semantik dalam arti tertentu – misalnya, kumpulan angka untuk "anjing" dan "hewan" akan berdekatan dalam arti matematis. Ini memungkinkan teks diproses secara efisien oleh algoritma NLP.

Jaringan encoder dan decoder

Ini adalah jenis arsitektur jaringan saraf dalam yang tugasnya adalah mengubah input yang diberikan, katakanlah teks, menjadi representasi numerik, seperti kumpulan angka dengan panjang tetap (encoder), dan juga mengubah angka-angka ini kembali ke output yang diinginkan (decoder). ).

Mereka sangat umum digunakan dalam tugas pemrosesan bahasa alami seperti terjemahan mesin.

Mencari setelan

Proses mengadaptasi model yang telah dilatih sebelumnya ke tugas tertentu dengan melatihnya pada kumpulan data baru. Model tersebut pertama-tama dilatih pada kumpulan data umum yang besar, lalu pada kumpulan data yang lebih kecil dan lebih spesifik yang terkait dengan tugas – dengan begitu, model dapat belajar mengenali pola yang lebih bernuansa dalam data khusus untuk tugas tersebut, yang menghasilkan kinerja yang lebih baik.

Penyetelan halus dapat menghemat waktu dan sumber daya dengan menggunakan model umum alih-alih melatih yang baru dari awal, dan juga dapat mengurangi risiko overfitting, di mana model telah mempelajari fitur set pelatihan kecil dengan sangat baik, tetapi tidak dapat untuk menggeneralisasi data lain.

Jaringan permusuhan generatif (GAN)

Kelas algoritme AI yang digunakan dalam pembelajaran mesin tanpa pengawasan di mana dua jaringan saraf bersaing satu sama lain. GAN memiliki dua bagian: model generator yang dilatih untuk menghasilkan contoh baru dari data yang masuk akal, dan model diskriminator yang mencoba mengklasifikasikan contoh sebagai data nyata atau data palsu (dihasilkan). Kedua model kemudian bersaing satu sama lain sampai pembeda semakin buruk dalam membedakan antara yang asli dan yang palsu dan mulai mengklasifikasikan data palsu sebagai nyata.

AI generatif

Jenis kecerdasan buatan yang dapat membuat berbagai macam konten – termasuk teks, gambar, video, dan kode komputer – dengan mengidentifikasi pola dalam data pelatihan dalam jumlah besar dan menghasilkan keluaran unik yang menyerupai data aslinya. Tidak seperti bentuk AI lainnya yang didasarkan pada aturan, algoritme AI generatif menggunakan model pembelajaran mendalam untuk menghasilkan keluaran baru yang tidak diprogram atau ditentukan sebelumnya secara eksplisit.

AI generatif mampu menghasilkan konten yang sangat realistis dan kompleks yang meniru kreativitas manusia, menjadikannya alat yang berharga untuk berbagai aplikasi, seperti pembuatan gambar dan video, pemrosesan bahasa alami, dan komposisi musik. Contohnya termasuk terobosan terbaru seperti ChatGPT untuk teks dan DALL-E dan Midjourney untuk gambar.

Trafo pra-terlatih generatif (GPT)

Transformator pra-terlatih generatif, atau GPT, adalah keluarga model jaringan saraf yang dilatih dengan ratusan miliar parameter pada kumpulan data masif untuk menghasilkan teks mirip manusia. Mereka didasarkan pada arsitektur transformer, yang diperkenalkan oleh peneliti Google pada tahun 2017, yang memungkinkan model untuk lebih memahami dan menerapkan konteks di mana kata dan ungkapan digunakan dan secara selektif memperhatikan bagian input yang berbeda – berfokus pada kata atau frasa yang relevan yang dianggap lebih penting daripada hasilnya. Mereka mampu menghasilkan tanggapan yang panjang, bukan hanya kata berikutnya secara berurutan.

Keluarga model GPT dianggap sebagai model bahasa terbesar dan paling kompleks hingga saat ini. Mereka biasanya digunakan untuk menjawab pertanyaan, meringkas teks, membuat kode, percakapan, cerita, dan banyak tugas pemrosesan bahasa alami lainnya, menjadikannya sangat cocok untuk produk seperti chatbot dan asisten virtual.

Pada November 2022, OpenAI merilis ChatGPT, sebuah chatbot yang dibangun di atas GPT-3.5, yang menggemparkan dunia, dengan semua orang berbondong-bondong untuk mencobanya. Dan hype itu nyata: kemajuan terbaru dalam GPT bahkan membuat teknologi ini tidak hanya layak untuk pengaturan bisnis seperti layanan pelanggan, tetapi juga transformasional.

Halusinasi

Fenomena yang disayangkan tetapi terkenal dalam model bahasa besar, di mana sistem AI memberikan jawaban yang tampak masuk akal yang secara faktual salah, tidak akurat, atau tidak masuk akal karena keterbatasan dalam data pelatihan dan arsitekturnya.

Contoh umum adalah ketika seorang model ditanyai pertanyaan faktual tentang sesuatu yang belum dilatihnya dan alih-alih mengatakan "Saya tidak tahu", itu akan mengada-ada. Mengurangi masalah halusinasi adalah bidang penelitian aktif dan sesuatu yang harus selalu kita ingat saat mengevaluasi respons model bahasa besar (LLM) mana pun.

Model bahasa besar (LLM)

LLM adalah jenis jaringan saraf yang mampu menghasilkan teks bahasa alami yang mirip dengan teks yang ditulis oleh manusia. Model ini biasanya dilatih pada kumpulan data masif ratusan miliar kata dari buku, artikel, halaman web, dll., dan menggunakan pembelajaran mendalam untuk memahami pola dan hubungan kompleks antara kata-kata untuk menghasilkan atau memprediksi konten baru.

Sementara algoritme NLP tradisional biasanya hanya melihat konteks langsung dari kata-kata, LLM mempertimbangkan sebagian besar teks untuk lebih memahami konteksnya. Ada berbagai jenis LLM, termasuk model seperti GPT OpenAI.

Agen LLM (misalnya AutoGPT, LangChain)

Sendiri, LLM mengambil teks sebagai input dan memberikan lebih banyak teks sebagai output. Agen adalah sistem yang dibangun di atas LLM yang memberi mereka agensi untuk membuat keputusan, beroperasi secara mandiri, serta merencanakan dan melakukan tugas tanpa campur tangan manusia. Agen bekerja dengan menggunakan kekuatan LLM untuk menerjemahkan instruksi bahasa tingkat tinggi ke dalam tindakan atau kode tertentu yang diperlukan untuk melakukannya.

Saat ini ada ledakan minat dan pengembangan di Agen. Alat seperti AutoGPT mengaktifkan aplikasi menarik seperti "pelaku daftar tugas" yang akan mengambil daftar tugas sebagai masukan dan benar-benar mencoba dan melakukan tugas untuk Anda.

Pembelajaran mesin (ML)

Subbidang AI yang melibatkan pengembangan algoritme dan model statistik yang memungkinkan mesin meningkatkan kinerjanya secara progresif dalam tugas tertentu tanpa diprogram secara eksplisit untuk melakukannya. Dengan kata lain, mesin “belajar” dari data, dan saat memproses lebih banyak data, menjadi lebih baik dalam membuat prediksi atau melakukan tugas tertentu.

Ada tiga jenis utama pembelajaran mesin: pembelajaran terawasi, pembelajaran tanpa pengawasan, dan pembelajaran penguatan.

  • Pembelajaran yang diawasi adalah pendekatan pembelajaran mesin yang menggunakan kumpulan data berlabel yang dirancang untuk melatih algoritme agar mengklasifikasikan data atau memprediksi hasil secara akurat. Misalnya, jika Anda menyediakan sekumpulan gambar kucing dan anjing berlabel, model akan dapat memprediksi gambar kucing dan anjing baru yang tidak berlabel;
  • Pembelajaran tanpa pengawasan mencari pola yang tidak terdeteksi dalam kumpulan data tanpa label yang sudah ada sebelumnya atau pemrograman khusus dan dengan pengawasan manusia yang minimal;
  • Pembelajaran penguatan melibatkan pelatihan model untuk membuat keputusan berdasarkan umpan balik dari lingkungannya. Ia belajar mengambil tindakan yang memaksimalkan sinyal hadiah, seperti memenangkan permainan atau menyelesaikan tugas.

Pemrosesan bahasa alami (NLP)

NLP adalah cabang AI yang berfokus pada interaksi antara bahasa manusia dan komputer. Ini menggabungkan pemodelan bahasa manusia berbasis aturan dengan model statistik, pembelajaran mesin, dan pembelajaran mendalam, biasanya dilatih menggunakan data dalam jumlah besar, yang memungkinkan komputer memproses, memahami, dan menghasilkan bahasa manusia.

Aplikasinya dirancang untuk menganalisis, memahami, dan menghasilkan bahasa manusia, termasuk teks dan ucapan. Beberapa tugas NLP yang umum meliputi terjemahan bahasa, analisis sentimen, pengenalan ucapan, klasifikasi teks, pengenalan entitas bernama, dan peringkasan teks.

Jaringan saraf

Jaringan saraf adalah subbidang pembelajaran mesin yang diusulkan pada tahun 1944 oleh dua peneliti Chicago, Warren McCullough dan Walter Pitts, yang dimodelkan setelah struktur otak manusia. Ini terdiri dari lapisan node yang saling berhubungan, atau neuron, yang memproses dan menganalisis data untuk membuat prediksi atau keputusan: setiap lapisan menerima input dari node di lapisan sebelumnya dan menghasilkan output yang diumpankan ke node di lapisan berikutnya. Lapisan terakhir, kemudian, mengeluarkan hasilnya.

Mereka telah digunakan untuk berbagai aplikasi, termasuk pengenalan gambar dan ucapan, pemrosesan bahasa alami, dan pemodelan prediktif.

Rekayasa cepat

Prompt adalah serangkaian instruksi yang ditulis sebagai teks atau kode yang Anda berikan sebagai masukan ke LLM untuk menghasilkan keluaran yang bermakna, dan dapat sesederhana pertanyaan. Rekayasa yang cepat adalah keterampilan (atau seni, beberapa berpendapat) untuk menciptakan petunjuk yang efektif yang akan menghasilkan hasil terbaik untuk setiap tugas yang diberikan. Ini membutuhkan pemahaman tentang cara kerja model bahasa besar (LLM), data yang mereka latih, serta kekuatan dan keterbatasannya.

Pembelajaran penguatan dari umpan balik manusia (RLHF)

RLHF mengacu pada proses penggunaan umpan balik manusia secara eksplisit untuk melatih model penghargaan dari sistem pembelajaran penguatan. Dalam konteks LLM, ini mungkin manusia memeringkat output LLM dan memilih respons yang mereka sukai – ini kemudian digunakan untuk melatih jaringan saraf lain, yang disebut model hadiah, yang dapat memprediksi apakah respons yang diberikan akan diinginkan. manusia. Model hadiah kemudian digunakan untuk menyempurnakan LMM untuk menghasilkan keluaran yang lebih selaras dengan preferensi manusia.

Teknik-teknik ini dianggap sebagai langkah yang sangat berdampak dalam pengembangan LLM seperti ChatGPT yang telah melihat kemajuan terobosan dalam kemampuannya.

Transformator

Trafo adalah jenis arsitektur jaringan saraf dalam yang terdiri dari beberapa komponen encoder dan decoder yang digabungkan sedemikian rupa untuk memungkinkan pemrosesan data berurutan seperti bahasa alami dan deret waktu.


Ini hanyalah beberapa istilah paling umum dalam AI yang mungkin Anda temui. Tidak diragukan lagi, glosarium seperti ini akan selamanya menjadi proyek yang berkelanjutan – karena teknologi terus berkembang, istilah dan ide baru akan terus bermunculan. Namun untuk saat ini, dengan memahami konsep-konsep ini, Anda dapat membangun fondasi kokoh yang akan membantu Anda mengikuti perkembangan terkini.

Daftar tunggu sirip