人工智能術語表:了解 GPT、神經網絡等

已發表: 2023-06-01

您是否對 AI 的可能性很感興趣,但發現很難掌握所有技術術語? 我們的 AI 詞彙表將幫助您理解關鍵術語和概念。

人工智能在不斷發展和擴展,每週都有新的發展和應用出現——而且感覺要跟上的行話數量也在以同樣快的速度發展。

總而言之,它可能有點讓人不知所措,因此我們編制了一份概念和術語列表,以幫助您更好地了解人工智能這個美麗的新世界。

如果您想將更多關於人工智能和自動化的內容髮送到您的收件箱,請務必訂閱我們的定期時事通訊。


人工智能 (AI)

人工智能是指創造智能機器,這些機器能夠執行通常需要人類智能的複雜任務,例如視覺感知、語音識別、決策制定和語言翻譯。 可以訓練人工智能係統隨著時間的推移學習和提高它們的性能,使它們能夠以更高的效率和準確性完成更複雜的任務。

深度學習

深度學習是指訓練多於一層的神經網絡的方法,每一層代表不同的抽象層次。 通常,這些深度網絡在大型數據集上進行訓練,以對數據做出預測或決策。

具有單層的神經網絡可能能夠做出近似預測,但額外的層可以幫助提高準確性——每個層都建立在前一層之上以優化和完善預測。

深度學習算法在處理複雜和非結構化數據(如圖像、音頻和文本)方面非常有效,並在自然語言處理、語音識別和包括面部識別在內的圖像識別系統等廣泛應用中取得了重大進展、自動駕駛汽車等

嵌入

自然語言處理 (NLP) 上下文中的嵌入是將可變長度的文本轉換為一組固定長度的數字的方法。 通常這組數字會在某種意義上保留語義——例如,“狗”和“動物”的這組數字在數學意義上會很接近。 這使得 NLP 算法能夠有效地處理文本。

編碼器和解碼器網絡

這些是深度神經網絡架構的類型,其工作是將給定的輸入(例如文本)轉換為數字表示,例如一組固定長度的數字(編碼器),並將這些數字轉換回所需的輸出(解碼器) ).

它們非常常用於自然語言處理任務,例如機器翻譯。

微調

通過在新數據集上訓練預訓練模型使其適應特定任務的過程。 該模型首先在大型通用數據集上進行訓練,然後在與任務相關的更小、更具體的數據集上進行訓練——這樣,模型可以學習識別特定於任務的數據中更細微的模式,從而獲得更好的性能。

微調可以通過使用通用模型而不是從頭開始訓練新模型來節省時間和資源,並且還可以降低過度擬合的風險,模型已經非常好地學習了小型訓練集的特徵,但它無法推廣到其他數據。

生成對抗網絡 (GAN)

用於無監督機器學習的一類 AI 算法,其中兩個神經網絡相互競爭。 GAN 有兩個部分:一個生成器模型,經過訓練可以生成似是而非的數據的新示例,以及一個鑑別器模型,它試圖將示例分類為真實數據或偽造(生成的)數據。 然後這兩個模型相互競爭,直到鑑別器在區分真假數據方面變得更差,並開始將假數據歸類為真實數據。

生成式人工智能

一種人工智能,可以通過識別大量訓練數據中的模式並生成類似於原始數據的獨特輸出來創建各種內容,包括文本、圖像、視頻和計算機代碼。 與基於規則的其他形式的 AI 不同,生成式 AI 算法使用深度學習模型來生成未明確編程或預定義的新穎輸出。

生成式 AI 能夠生成模仿人類創造力的高度逼真和復雜的內容,使其成為圖像和視頻生成、自然語言處理和音樂創作等廣泛應用的寶貴工具。 例子包括最近的突破,例如用於文本的 ChatGPT 和用於圖像的 DALL-E 和 Midjourney。

生成式預訓練變壓器 (GPT)

生成式預訓練轉換器 (GPT) 是一系列神經網絡模型,在海量數據集上使用數千億個參數進行訓練,以生成類似人類的文本。 它們基於谷歌研究人員於 2017 年推出的 transformer 架構,該架構使模型能夠更好地理解和應用使用單詞和表達的上下文,並有選擇地關注輸入的不同部分——專注於相關的單詞或短語它認為對結果更重要。 它們能夠生成長響應,而不僅僅是序列中的下一個單詞。

GPT 系列模型被認為是迄今為止最大和最複雜的語言模型。 它們通常用於回答問題、總結文本、生成代碼、對話、故事和許多其他自然語言處理任務,使它們非常適合聊天機器人和虛擬助手等產品。

2022 年 11 月,OpenAI 發布了基於 GPT-3.5 構建的聊天機器人 ChatGPT,風靡全球,爭相試用。 炒作是真實的:GPT 的最新進展甚至使該技術不僅適用於客戶服務等業務環境,而且實際上具有變革性。

幻覺

大型語言模型中的一個不幸但眾所周知的現象,其中人工智能係統提供了一個看似合理的答案,但由於其訓練數據和架構的限制,實際上是不正確、不准確或荒謬的。

一個常見的例子是,當一個模型被問到一個關於它沒有接受過訓練的事實問題時,它不會說“我不知道”,而是會編造一些東西。 減輕幻覺問題是一個活躍的研究領域,在評估任何大型語言模型 (LLM) 的響應時我們應該始終牢記這一點。

大型語言模型 (LLM)

LLM 是一種神經網絡,能夠生成類似於人類書寫文本的自然語言文本。 這些模型通常在來自書籍、文章、網頁等的數千億個單詞的海量數據集上進行訓練,並使用深度學習來理解單詞之間的複雜模式和關係,以生成或預測新內容。

傳統的 NLP 算法通常只查看單詞的直接上下文,而 LLM 會考慮大量文本以更好地理解上下文。 有不同類型的 LLM,包括像 OpenAI 的 GPT 這樣的模型。

LLM 代理(例如 AutoGPT、LangChain)

就其本身而言,LLM 將文本作為輸入並提供更多文本作為輸出。 代理是建立在 LLM 之上的系統,使他們能夠在沒有人工干預的情況下做出決策、自主操作以及計劃和執行任務。 代理通過使用 LLM 的功能將高級語言指令翻譯成執行它們所需的特定操作或代碼來工作。

目前對代理的興趣和發展呈爆炸式增長。 AutoGPT 等工具正在啟用令人興奮的應用程序,例如“任務列表執行者”,這些應用程序將任務列表作為輸入並實際嘗試為您完成任務。

機器學習(機器學習)

人工智能的一個子領域,涉及算法和統計模型的開發,使機器能夠在不明確編程的情況下逐步提高其在特定任務中的性能。 換句話說,機器從數據中“學習”,並且隨著它處理更多數據,它會變得更擅長做出預測或執行特定任務。

機器學習主要分為三種類型:監督學習、非監督學習和強化學習。

  • 監督學習是一種機器學習方法,它使用標記數據集來訓練算法對數據進行分類或準確預測結果。 例如,如果你提供一組帶標籤的貓狗圖片,模型將能夠預測新的、未標記的貓狗圖片;
  • 無監督學習在數據集中尋找未檢測到的模式,沒有預先存在的標籤或特定的編程,並且需要最少的人工監督;
  • 強化學習涉及訓練模型以根據來自其環境的反饋做出決策。 它學會採取行動來最大化獎勵信號,例如贏得遊戲或完成任務。

自然語言處理 (NLP)

NLP是人工智能的一個分支,專注於人類語言與計算機之間的交互。 它將基於規則的人類語言建模與統計、機器學習和深度學習模型相結合,這些模型通常使用大量數據進行訓練,使計算機能夠處理、理解和生成人類語言。

它的應用程序旨在分析、理解和生成人類語言,包括文本和語音。 一些常見的 NLP 任務包括語言翻譯、情感分析、語音識別、文本分類、命名實體識別和文本摘要。

神經網絡

神經網絡是機器學習的一個子領域,由兩位芝加哥研究人員 Warren McCullough 和 Walter Pitts 於 1944 年提出,它以人腦結構為模型。 它由相互連接的節點或神經元層組成,這些層處理和分析數據以做出預測或決策:每一層接收來自前一層節點的輸入並產生饋送到下一層節點的輸出。 然後,最後一層輸出結果。

它們已用於廣泛的應用,包括圖像和語音識別、自然語言處理和預測建模。

提示工程

提示是一組以文本或代碼形式編寫的說明,您將其作為輸入提供給 LLM,以產生有意義的輸出,並且可以像問題一樣簡單。 提示工程是創建有效提示的技能(或藝術,有些人會爭辯),這些提示將為任何給定任務產生最佳輸出。 它需要了解大型語言模型 (LLM) 的工作原理、訓練它們的數據以及它們的優勢和局限性。

從人類反饋中強化學習 (RLHF)

RLHF 是指使用明確的人類反饋來訓練強化學習系統的獎勵模型的過程。 在 LLM 的上下文中,這可能是人類對 LLM 的輸出進行排名並選擇他們喜歡的響應——然後將其用於訓練另一個神經網絡,稱為獎勵模型,該模型可以預測給定的響應是否是可取的人類。 然後使用獎勵模型微調 LMM 以產生更符合人類偏好的輸出。

這些技術被認為是開發像 ChatGPT 這樣的 LLM 的一個非常有影響力的步驟,它們的能力已經取得了突破性的進步。

變壓器

Transformer 是一種深度神經網絡架構,由多個編碼器和解碼器組件組成,這些組件以能夠處理自然語言和時間序列等順序數據的方式組合在一起。


這些只是您可能會遇到的 AI 中一些最常見的術語。 毫無疑問,像這樣的詞彙表將永遠是一個持續的項目——隨著技術的不斷發展,新的術語和想法將不斷湧現。 但就目前而言,通過理解這些概念,您可以建立一個堅實的基礎,幫助您跟上最新的發展。

鰭等候名單