AI 用語集: GPT、ニューラル ネットワークなどについて理解する

公開: 2023-06-01

AI の可能性に興味はあるものの、専門用語をすべて理解するのは難しいと感じていませんか? AI 用語集は、重要な用語や概念を理解するのに役立ちます。

AI は常に進化し、拡張しており、新しい開発やアプリケーションが毎週登場しています。そして、追いつくべき専門用語の量も同じくらいの速さで発展しているように感じられます。

全体として、少し圧倒されるかもしれないので、人工知能の素晴らしい新しい世界をより深く理解するのに役立つ概念と用語のリストをまとめました。

AI と自動化に関するコンテンツをさらに受信箱に配信したい場合は、定期的なニュースレターを購読してください。


人工知能 (AI)

AI とは、視覚認識、音声認識、意思決定、言語翻訳など、通常は人間レベルの知能を必要とする複雑なタスクを実行できるインテリジェント マシンの作成を指します。 AI システムは、時間の経過とともに学習してパフォーマンスを向上させるようにトレーニングできるため、より複雑なタスクをより高い効率と精度で完了できるようになります。

ディープラーニング

深層学習とは、複数の層でニューラル ネットワークをトレーニングする方法を指し、各層は異なる抽象化レベルを表します。 通常、これらのディープ ネットワークは、データに関する予測や決定を行うために大規模なデータセットでトレーニングされます。

単一層のニューラル ネットワークはおおよその予測を行うことができる場合がありますが、追加の層は精度の向上に役立ちます。各層は前の層に基づいて構築され、予測を最適化および洗練します。

深層学習アルゴリズムは、画像、音声、テキストなどの複雑で非構造化データの処理に非常に効果的であり、自然言語処理、音声認識、顔認識を含む画像認識システムなどの幅広いアプリケーションで大幅な進歩を可能にしました。 、自動運転車など。

埋め込み

自然言語処理 (NLP) のコンテキストでの埋め込みは、可変長のテキストを固定長の数値のセットに変換するためのレシピです。 通常、この一連の数値は、ある意味で意味的な意味を保持します。たとえば、「犬」と「動物」の一連の数値は、数学的な意味で近くなります。 これにより、NLP アルゴリズムによってテキストを効率的に処理できるようになります。

エンコーダおよびデコーダ ネットワーク

これらは、特定の入力 (テキストなど) を固定長の数値セットなどの数値表現 (エンコーダー) に変換し、これらの数値を目的の出力 (デコーダー) に変換することを仕事とするディープ ニューラル ネットワーク アーキテクチャのタイプです。 )。

これらは、機械翻訳などの自然言語処理タスクで非常に一般的に使用されます。

微調整

新しいデータセットでトレーニングすることによって、事前トレーニングされたモデルを特定のタスクに適応させるプロセス。 そのモデルは、最初に大規模で一般的なデータセットでトレーニングされ、次にタスクに関連するより小規模でより具体的なデータセットでトレーニングされます。これにより、モデルはタスクに特有のデータ内のより微妙なパターンを認識できるようになり、パフォーマンスの向上につながります。

微調整では、新しいモデルを最初からトレーニングするのではなく、一般的なモデルを使用することで時間とリソースを節約できます。また、モデルが小規模なトレーニング セットの特徴を非常によく学習しているにもかかわらず、学習できない過学習のリスクも軽減できます。他のデータに一般化します。

敵対的生成ネットワーク (GAN)

2 つのニューラル ネットワークが相互に競合する教師なし機械学習で使用される AI アルゴリズムのクラス。 GAN には 2 つの部分があります。1 つは、もっともらしいデータの新しい例を生成するようにトレーニングされたジェネレーター モデル、もう 1 つは例を本物のデータか偽の (生成された) データのいずれかに分類しようとする弁別モデルです。 その後、2 つのモデルは、弁別器が本物と偽物の区別が下手になり、偽物のデータを本物として分類し始めるまで、互いに競合します。

生成AI

大量のトレーニング データのパターンを識別し、元のデータに似た独自の出力を生成することで、テキスト、画像、ビデオ、コンピューター コードなどのさまざまなコンテンツを作成できる人工知能の一種。 ルールに基づく他の形式の AI とは異なり、生成 AI アルゴリズムは深層学習モデルを使用して、明示的にプログラムまたは事前定義されていない新しい出力を生成します。

生成 AI は、人間の創造性を模倣した非常に現実的で複雑なコンテンツを生成することができるため、画像やビデオの生成、自然言語処理、音楽作曲など、幅広いアプリケーションにとって価値のあるツールになります。 例としては、テキストの ChatGPT や画像の DALL-E や Midjourney などの最近の画期的な技術が挙げられます。

生成事前トレーニング済みトランスフォーマー (GPT)

生成事前トレーニング済みトランスフォーマー (GPT) は、人間のようなテキストを生成するために、大規模なデータセット上の数千億のパラメーターを使用してトレーニングされたニューラル ネットワーク モデルのファミリーです。 これらは、2017 年に Google の研究者によって導入されたトランスフォーマー アーキテクチャに基づいています。これにより、モデルは単語や表現が使用されるコンテキストをよりよく理解して適用し、入力のさまざまな部分に選択的に対応できます。関連する単語やフレーズに焦点を当てます。結果がより重要であると認識します。 これらは、シーケンス内の次の単語だけでなく、長い応答を生成することができます。

GPT ファミリのモデルは、これまでで最大かつ最も複雑な言語モデルと考えられています。 これらは通常、質問への回答、テキストの要約、コードの生成、会話、ストーリー、その他多くの自然言語処理タスクに使用されるため、チャットボットや仮想アシスタントなどの製品に最適です。

2022 年 11 月、OpenAI は GPT-3.5 をベースに構築されたチャットボットである ChatGPT をリリースしました。これは世界を席巻し、誰もがそれを試してみようと集まりました。 そして、その誇大宣伝は本物です。GPT の最近の進歩により、この技術は顧客サービスなどのビジネス環境で実現可能になっただけでなく、実際に変革をもたらすものになりました。

幻覚

残念ではありますが、大規模な言語モデルでよく知られている現象で、トレーニング データとアーキテクチャの制限により、AI システムが実際には不正確、不正確、または意味不明な、もっともらしく見える答えを提供することになります。

一般的な例としては、モデルがトレーニングされていないことについて事実に基づく質問をされると、「わかりません」と言う代わりに何かをでっち上げてしまう場合が挙げられます。 幻覚の問題の軽減は活発な研究分野であり、大規模言語モデル (LLM) の応答を評価する際には常に念頭に置いておく必要があります。

大規模言語モデル (LLM)

LLM は、人間が書いたテキストに似た自然言語テキストを生成できるニューラル ネットワークの一種です。 これらのモデルは通常、書籍、記事、Web ページなどの数千億の単語からなる大規模なデータセットでトレーニングされ、深層学習を使用して単語間の複雑なパターンと関係を理解し​​て、新しいコンテンツを生成または予測します。

従来の NLP アルゴリズムは通常、単語の直接のコンテキストのみを調べますが、LLM はコンテキストをよりよく理解するためにテキストの大きな部分を考慮します。 LLM には、OpenAI の GPT などのモデルを含め、さまざまな種類があります。

LLM エージェント (AutoGPT、LangChain など)

LLM は、それ自体でテキストを入力として受け取り、さらに多くのテキストを出力として提供します。 エージェントは、LLM 上に構築されたシステムであり、人間の介入なしに意思決定を行い、自律的に動作し、タスクを計画および実行する権限を与えられます。 エージェントは、LLM の機能を利用して、高級言語の命令を、その実行に必要な特定のアクションまたはコードに変換します。

現在、エージェントへの関心と開発が爆発的に進んでいます。 AutoGPT などのツールを使用すると、タスク リストを入力として受け取り、実際にタスクを実行してみる「タスク リスト実行者」などのエキサイティングなアプリケーションが可能になります。

機械学習 (ML)

AI のサブフィールド。明示的にプログラムされていなくても、マシンが特定のタスクでパフォーマンスを徐々に向上できるようにするアルゴリズムと統計モデルの開発が含まれます。 言い換えれば、マシンはデータから「学習」し、より多くのデータを処理するほど、予測や特定のタスクの実行がより上手になります。

機械学習には、教師あり学習、教師なし学習、強化学習の 3 つの主なタイプがあります。

  • 教師あり学習は、アルゴリズムをトレーニングしてデータを分類したり、結果を正確に予測したりするように設計されたラベル付きデータセットを使用する機械学習アプローチです。 たとえば、ラベル付きの猫と犬の一連の写真を提供すると、モデルはラベルのない新しい猫と犬の写真を予測できるようになります。
  • 教師なし学習では、既存のラベルや特定のプログラミングを使用せず、人間による最小限の監視を使用して、データセット内の未検出のパターンを検索します。
  • 強化学習には、環境からのフィードバックに基づいて意思決定を行うモデルのトレーニングが含まれます。 ゲームに勝つ、タスクを完了するなど、報酬シグナルを最大化する行動を取ることを学習します。

自然言語処理 (NLP)

NLP は、人間の言語とコンピューターの間の相互作用に焦点を当てた AI の一分野です。 人間の言語のルールベースのモデリングと、通常は大量のデータを使用してトレーニングされた統計、機械学習、深層学習モデルを組み合わせて、コンピューターが人間の言語を処理、理解、生成できるようにします。

そのアプリケーションは、テキストや音声などの人間の言語を分析、理解、生成するように設計されています。 一般的な NLP タスクには、言語翻訳、感情分析、音声認識、テキスト分類、固有表現認識、テキスト要約などがあります。

ニューラルネットワーク

ニューラル ネットワークは、1944 年にシカゴの 2 人の研究者、ウォーレン マカローとウォルター ピッツによって提案された機械学習のサブ分野であり、人間の脳の構造をモデルにしています。 これは、予測や決定を行うためにデータを処理および分析する、相互接続されたノード (ニューロン) の層で構成されます。各層は、前の層のノードから入力を受け取り、次の層のノードに供給される出力を生成します。 最後の層は結果を出力します。

これらは、画像および音声認識、自然言語処理、予測モデリングなど、幅広いアプリケーションに使用されています。

迅速なエンジニアリング

プロンプトは、意味のある出力を生成するために LLM への入力として提供するテキストまたはコードとして記述された一連の指示であり、質問のように単純なものにすることもできます。 プロンプト エンジニアリングとは、特定のタスクに対して可能な限り最高の出力を生成する効果的なプロンプトを作成するスキル (または芸術だと主張する人もいます) です。 それには、大規模言語モデル (LLM) がどのように機能するか、LLM がトレーニングされるデータ、およびその長所と限界について理解する必要があります。

人間のフィードバックからの強化学習 (RLHF)

RLHF は、明示的な人間によるフィードバックを使用して強化学習システムの報酬モデルをトレーニングするプロセスを指します。 LLM のコンテキストでは、これは人間が LLM の出力をランク付けし、好みの応答を選択することになる可能性があります。これはその後、報酬モデルと呼ばれる別のニューラル ネットワークをトレーニングするために使用され、特定の応答が望ましいかどうかを予測できます。人間。 次に、報酬モデルを使用して LMM を微調整し、人間の好みに合わせた出力を生成します。

これらの技術は、ChatGPT のような機能の画期的な進歩を遂げた LLM の開発において非常に影響力のあるステップであると考えられています。

変成器

トランスフォーマーは、自然言語や時系列などの連続データの処理を可能にする方法で結合される複数のエンコーダーおよびデコーダー コンポーネントで構成されるディープ ニューラル ネットワーク アーキテクチャの一種です。


これらは、遭遇する可能性が高い AI の最も一般的な用語のほんの一部です。 間違いなく、このような用語集は永遠に進行中のプロジェクトであり、テクノロジーが進化し続けるにつれて、新しい用語やアイデアが生まれ続けます。 ただし、現時点では、これらの概念を理解することで、最新の開発に追いつくのに役立つ強固な基盤を構築できます。

フィンの順番待ちリスト