Glosariusz terminów AI: Zrozumienie GPT, sieci neuronowych i nie tylko

Opublikowany: 2023-06-01

Intrygują Cię możliwości sztucznej inteligencji, ale masz trudności z opanowaniem całego technicznego żargonu? Nasz glosariusz AI pomoże Ci zrozumieć kluczowe terminy i pojęcia.

Sztuczna inteligencja stale ewoluuje i rozwija się, a co tydzień pojawiają się nowe rozwiązania i aplikacje – i wydaje się, że ilość żargonu, za którym trzeba nadążyć, rozwija się równie szybko.

Podsumowując, może to być nieco przytłaczające, dlatego przygotowaliśmy listę pojęć i terminów, które pomogą Ci lepiej zrozumieć nowy wspaniały świat sztucznej inteligencji.

Jeśli chcesz otrzymywać więcej naszych treści na temat sztucznej inteligencji i automatyzacji na swoją skrzynkę odbiorczą, zapisz się do naszego regularnego biuletynu.


Sztuczna inteligencja (AI)

Sztuczna inteligencja odnosi się do tworzenia inteligentnych maszyn zdolnych do wykonywania złożonych zadań, które zwykle wymagają inteligencji na poziomie człowieka, takich jak percepcja wzrokowa, rozpoznawanie mowy, podejmowanie decyzji i tłumaczenie językowe. Systemy sztucznej inteligencji można wyszkolić, aby z czasem uczyły się i poprawiały swoją wydajność, co pozwala im wykonywać bardziej złożone zadania z większą wydajnością i dokładnością.

Głęboka nauka

Głębokie uczenie się odnosi się do metod uczenia sieci neuronowych z więcej niż jedną warstwą, przy czym każda warstwa reprezentuje inny poziom abstrakcji. Zazwyczaj te głębokie sieci są szkolone na dużych zbiorach danych w celu przewidywania lub podejmowania decyzji dotyczących danych.

Sieć neuronowa z pojedynczą warstwą może być w stanie dokonywać przybliżonych prognoz, ale dodatkowe warstwy mogą pomóc poprawić dokładność – każda opiera się na poprzedniej warstwie, aby zoptymalizować i udoskonalić prognozy.

Algorytmy głębokiego uczenia są bardzo skuteczne w przetwarzaniu złożonych i nieustrukturyzowanych danych, takich jak obrazy, dźwięk i tekst, i umożliwiły znaczny postęp w szerokim zakresie zastosowań, takich jak przetwarzanie języka naturalnego, rozpoznawanie mowy i systemy rozpoznawania obrazów, w tym rozpoznawanie twarzy , samojezdne samochody itp.

Osadzanie

Osadzanie w kontekście przetwarzania języka naturalnego (NLP) to przepis na zamianę tekstu o zmiennej długości na zbiór liczb o stałej długości. Zwykle ten zestaw liczb zachowa w pewnym sensie znaczenie semantyczne – na przykład zestaw liczb dla „pies” i „zwierzę” będzie blisko siebie w sensie matematycznym. Umożliwia to efektywne przetwarzanie tekstu przez algorytmy NLP.

Sieci kodera i dekodera

Są to typy architektur głębokich sieci neuronowych, których zadaniem jest konwersja danych wejściowych, powiedzmy tekstu, na reprezentację numeryczną, taką jak zestaw liczb o stałej długości (koder), a także konwersja tych liczb z powrotem na pożądane wyjście (dekoder ).

Są one bardzo często używane w zadaniach związanych z przetwarzaniem języka naturalnego, takich jak tłumaczenie maszynowe.

Strojenie

Proces dostosowywania wstępnie wytrenowanego modelu do określonego zadania poprzez uczenie go na nowym zbiorze danych. Ten model jest najpierw szkolony na dużym, ogólnym zbiorze danych, a następnie na mniejszym, bardziej szczegółowym zbiorze danych związanym z zadaniem — w ten sposób model może nauczyć się rozpoznawać bardziej szczegółowe wzorce w danych specyficznych dla zadania, co prowadzi do lepszej wydajności.

Dostrajanie może zaoszczędzić czas i zasoby, używając ogólnych modeli zamiast trenować nowe od podstaw, a także może zmniejszyć ryzyko nadmiernego dopasowania, gdy model bardzo dobrze nauczył się cech małego zbioru treningowego, ale nie jest w stanie uogólnić na inne dane.

Generatywne sieci kontradyktoryjne (GAN)

Klasa algorytmów sztucznej inteligencji wykorzystywana w nienadzorowanym uczeniu maszynowym, w którym konkurują ze sobą dwie sieci neuronowe. Sieci GAN składają się z dwóch części: modelu generatora, który jest szkolony w celu generowania nowych przykładów wiarygodnych danych, oraz modelu dyskryminatora, który próbuje sklasyfikować przykłady jako prawdziwe lub fałszywe (wygenerowane). Następnie te dwa modele konkurują ze sobą, dopóki dyskryminator nie zacznie gorzej rozróżniać prawdziwych i fałszywych i zacznie klasyfikować fałszywe dane jako prawdziwe.

Generatywna sztuczna inteligencja

Rodzaj sztucznej inteligencji, który może tworzyć szeroką gamę treści – w tym tekst, obrazy, wideo i kod komputerowy – poprzez identyfikowanie wzorców w dużych ilościach danych treningowych i generowanie unikalnych wyników, które przypominają oryginalne dane. W przeciwieństwie do innych form sztucznej inteligencji opartych na regułach, generatywne algorytmy sztucznej inteligencji wykorzystują modele głębokiego uczenia się do generowania nowych wyników, które nie są wyraźnie zaprogramowane ani z góry zdefiniowane.

Generative AI jest w stanie tworzyć wysoce realistyczne i złożone treści, które naśladują ludzką kreatywność, co czyni ją cennym narzędziem do szerokiego zakresu zastosowań, takich jak generowanie obrazów i wideo, przetwarzanie języka naturalnego i komponowanie muzyki. Przykłady obejmują najnowsze przełomowe rozwiązania, takie jak ChatGPT dla tekstu oraz DALL-E i Midjourney dla obrazów.

Wstępnie wyszkolony transformator generatywny (GPT)

Wstępnie wytrenowane transformatory generatywne, czyli GPT, to rodzina modeli sieci neuronowych wyszkolonych na podstawie setek miliardów parametrów na ogromnych zbiorach danych w celu generowania tekstu przypominającego człowieka. Opierają się one na architekturze transformatora, wprowadzonej przez badaczy Google w 2017 r., która pozwala modelom lepiej zrozumieć i zastosować kontekst, w którym używane są słowa i wyrażenia oraz selektywnie zająć się różnymi częściami danych wejściowych – koncentrując się na odpowiednich słowach lub frazach, które postrzega jako ważniejsze dla wyniku. Są w stanie generować długie odpowiedzi, a nie tylko kolejne słowo w sekwencji.

Rodzina modeli GPT jest uważana za największe i najbardziej złożone modele językowe do tej pory. Zwykle są używane do odpowiadania na pytania, podsumowywania tekstu, generowania kodu, konwersacji, historii i wielu innych zadań związanych z przetwarzaniem języka naturalnego, dzięki czemu doskonale nadają się do produktów takich jak chatboty i wirtualni asystenci.

W listopadzie 2022 r. firma OpenAI wypuściła ChatGPT, chatbota zbudowanego na GPT-3.5, który szturmem podbił świat, a wszyscy gromadzili się, aby go wypróbować. A szum jest prawdziwy: nowsze postępy w GPT sprawiły, że technologia ta jest nie tylko wykonalna w zastosowaniach biznesowych, takich jak obsługa klienta, ale wręcz transformacyjna.

Halucynacje

Niefortunne, ale dobrze znane zjawisko w dużych modelach językowych, w którym system sztucznej inteligencji zapewnia wiarygodnie wyglądającą odpowiedź, która jest faktycznie niepoprawna, niedokładna lub bezsensowna z powodu ograniczeń w danych treningowych i architekturze.

Typowym przykładem może być sytuacja, w której modelowi zadaje się rzeczowe pytanie dotyczące czegoś, w czym nie był szkolony, i zamiast powiedzieć „nie wiem”, coś zmyśla. Łagodzenie problemu halucynacji jest aktywnym obszarem badań i czymś, o czym zawsze powinniśmy pamiętać, oceniając odpowiedź dowolnego dużego modelu językowego (LLM).

Duży model językowy (LLM)

LLM to rodzaj sieci neuronowej zdolnej do generowania tekstu w języku naturalnym, który jest podobny do tekstu pisanego przez ludzi. Modele te są zwykle szkolone na ogromnych zbiorach danych zawierających setki miliardów słów z książek, artykułów, stron internetowych itp. i wykorzystują głębokie uczenie się, aby zrozumieć złożone wzorce i relacje między słowami w celu generowania lub przewidywania nowych treści.

Podczas gdy tradycyjne algorytmy NLP zazwyczaj patrzą tylko na bezpośredni kontekst słów, LLM biorą pod uwagę duże połacie tekstu, aby lepiej zrozumieć kontekst. Istnieją różne typy LLM, w tym modele takie jak GPT OpenAI.

Agenci LLM (np. AutoGPT, LangChain)

LLM samodzielnie pobierają tekst jako dane wejściowe i dostarczają więcej tekstu jako dane wyjściowe. Agenci to systemy zbudowane na bazie LLM, które dają im możliwość podejmowania decyzji, działania autonomicznego oraz planowania i wykonywania zadań bez interwencji człowieka. Agenci działają, wykorzystując moc LLM do tłumaczenia instrukcji języka wysokiego poziomu na określone działania lub kod wymagany do ich wykonania.

Obecnie następuje eksplozja zainteresowania i rozwoju agentów. Narzędzia, takie jak AutoGPT, udostępniają ekscytujące aplikacje, takie jak „wykonawcy list zadań”, które przyjmują listę zadań jako dane wejściowe i faktycznie próbują wykonać zadania za Ciebie.

Uczenie maszynowe (ML)

Poddziedzina sztucznej inteligencji, która obejmuje opracowywanie algorytmów i modeli statystycznych, które umożliwiają maszynom stopniową poprawę ich wydajności w określonym zadaniu bez wyraźnego programowania w tym celu. Innymi słowy, maszyna „uczy się” na podstawie danych, a w miarę przetwarzania większej ilości danych staje się coraz lepsza w przewidywaniu lub wykonywaniu określonych zadań.

Istnieją trzy główne typy uczenia maszynowego: uczenie nadzorowane, uczenie nienadzorowane i uczenie wzmacniające.

  • Uczenie nadzorowane to podejście do uczenia maszynowego, które wykorzystuje oznaczone zestawy danych zaprojektowane do trenowania algorytmów w celu dokładnego klasyfikowania danych lub przewidywania wyników. Na przykład, jeśli dostarczysz zestaw oznaczonych zdjęć kotów i psów, model będzie w stanie przewidzieć nowe, nieoznaczone zdjęcia kotów i psów;
  • Uczenie bez nadzoru polega na wyszukiwaniu niewykrytych wzorców w zbiorze danych bez wcześniej istniejących etykiet lub określonego programowania i przy minimalnym nadzorze człowieka;
  • Uczenie się przez wzmacnianie polega na szkoleniu modelu, aby podejmował decyzje na podstawie informacji zwrotnych z otoczenia. Uczy się podejmować działania, które maksymalizują sygnał nagrody, takie jak wygrana w grze lub ukończenie zadania.

Przetwarzanie języka naturalnego (NLP)

NLP to gałąź sztucznej inteligencji, która koncentruje się na interakcji między ludzkim językiem a komputerami. Łączy oparte na regułach modelowanie języka ludzkiego z modelami statystycznymi, uczeniem maszynowym i głębokim uczeniem się, zazwyczaj trenowanymi przy użyciu dużych ilości danych, które umożliwiają komputerom przetwarzanie, rozumienie i generowanie ludzkiego języka.

Jego aplikacje są przeznaczone do analizowania, rozumienia i generowania ludzkiego języka, w tym tekstu i mowy. Niektóre typowe zadania NLP obejmują tłumaczenie języka, analizę tonacji, rozpoznawanie mowy, klasyfikację tekstu, rozpoznawanie nazwanych jednostek i podsumowanie tekstu.

Sieci neuronowe

Sieci neuronowe to poddziedzina uczenia maszynowego zaproponowana w 1944 roku przez dwóch badaczy z Chicago, Warrena McCullougha i Waltera Pittsa, która jest wzorowana na strukturze ludzkiego mózgu. Składa się z warstw połączonych węzłów lub neuronów, które przetwarzają i analizują dane w celu przewidywania lub podejmowania decyzji: każda warstwa otrzymuje dane wejściowe od węzłów w poprzedniej warstwie i wytwarza dane wyjściowe, które są przekazywane do węzłów w następnej warstwie. Ostatnia warstwa generuje wyniki.

Były wykorzystywane w wielu zastosowaniach, w tym w rozpoznawaniu obrazów i mowy, przetwarzaniu języka naturalnego i modelowaniu predykcyjnym.

Szybka inżynieria

Monit to zestaw instrukcji zapisanych jako tekst lub kod, który podajesz jako dane wejściowe do LLM w celu uzyskania znaczących danych wyjściowych i może być tak prosty jak pytanie. Inżynieria podpowiedzi to umiejętność (lub sztuka, jak twierdzą niektórzy) tworzenia skutecznych podpowiedzi, które przyniosą najlepsze możliwe wyniki dla każdego zadania. Wymaga zrozumienia, jak działają duże modele językowe (LLM), danych, na których są szkolone, oraz ich mocnych stron i ograniczeń.

Uczenie się przez wzmacnianie na podstawie informacji zwrotnych od ludzi (RLHF)

RLHF odnosi się do procesu wykorzystywania wyraźnych informacji zwrotnych od ludzi do trenowania modelu nagrody w systemie uczenia się przez wzmacnianie. W kontekście LLM mogą to być ludzie oceniający wyniki LLM i wybierający preferowane odpowiedzi – jest to następnie wykorzystywane do trenowania innej sieci neuronowej, zwanej modelem nagrody, która może przewidzieć, czy dana odpowiedź będzie pożądana dla ludzie. Model nagrody jest następnie wykorzystywany do precyzyjnego dostrojenia LMM w celu uzyskania danych wyjściowych lepiej dostosowanych do ludzkich preferencji.

Uważa się, że techniki te są bardzo znaczącym krokiem w rozwoju LLM, takich jak ChatGPT, które odnotowały przełomowy postęp w swoich możliwościach.

Transformator

Transformator to rodzaj architektury głębokiej sieci neuronowej, która składa się z wielu komponentów kodera i dekodera, które są połączone w taki sposób, aby umożliwić przetwarzanie danych sekwencyjnych, takich jak język naturalny i szeregi czasowe.


To tylko kilka z najczęstszych terminów związanych ze sztuczną inteligencją, z którymi prawdopodobnie się spotkasz. Niewątpliwie takie glosariusze zawsze będą nieustannym projektem – wraz z rozwojem technologii będą pojawiać się nowe terminy i pomysły. Ale na razie, rozumiejąc te koncepcje, możesz zbudować solidne podstawy, które pomogą Ci nadążać za najnowszymi osiągnięciami.

Fin lista oczekujących