人工智能术语表:了解 GPT、神经网络等
已发表: 2023-06-01您是否对 AI 的可能性很感兴趣,但发现很难掌握所有技术术语? 我们的 AI 词汇表将帮助您理解关键术语和概念。
人工智能在不断发展和扩展,每周都有新的发展和应用出现——而且感觉要跟上的行话数量也在以同样快的速度发展。
总而言之,它可能有点让人不知所措,因此我们编制了一份概念和术语列表,以帮助您更好地了解人工智能这个美丽的新世界。
如果您想将更多关于人工智能和自动化的内容发送到您的收件箱,请务必订阅我们的定期时事通讯。
人工智能 (AI)
人工智能是指创造智能机器,这些机器能够执行通常需要人类智能的复杂任务,例如视觉感知、语音识别、决策制定和语言翻译。 可以训练人工智能系统随着时间的推移学习和提高它们的性能,使它们能够以更高的效率和准确性完成更复杂的任务。
深度学习
深度学习是指训练多于一层的神经网络的方法,每一层代表不同的抽象层次。 通常,这些深度网络在大型数据集上进行训练,以对数据做出预测或决策。
具有单层的神经网络可能能够做出近似预测,但额外的层可以帮助提高准确性——每个层都建立在前一层之上以优化和完善预测。
深度学习算法在处理复杂和非结构化数据(如图像、音频和文本)方面非常有效,并在自然语言处理、语音识别和包括面部识别在内的图像识别系统等广泛应用中取得了重大进展、自动驾驶汽车等
嵌入
自然语言处理 (NLP) 上下文中的嵌入是将可变长度的文本转换为一组固定长度的数字的方法。 通常这组数字会在某种意义上保留语义——例如,“狗”和“动物”的这组数字在数学意义上会很接近。 这使得 NLP 算法能够有效地处理文本。
编码器和解码器网络
这些是深度神经网络架构的类型,其工作是将给定的输入(例如文本)转换为数字表示,例如一组固定长度的数字(编码器),并将这些数字转换回所需的输出(解码器) ).
它们非常常用于自然语言处理任务,例如机器翻译。
微调
通过在新数据集上训练预训练模型使其适应特定任务的过程。 该模型首先在大型通用数据集上进行训练,然后在与任务相关的更小、更具体的数据集上进行训练——这样,模型可以学习识别特定于任务的数据中更细微的模式,从而获得更好的性能。
微调可以通过使用通用模型而不是从头开始训练新模型来节省时间和资源,并且还可以降低过度拟合的风险,模型已经非常好地学习了小型训练集的特征,但它无法推广到其他数据。
生成对抗网络 (GAN)
用于无监督机器学习的一类 AI 算法,其中两个神经网络相互竞争。 GAN 有两个部分:一个生成器模型,经过训练可以生成似是而非的数据的新示例,以及一个鉴别器模型,它试图将示例分类为真实数据或伪造(生成的)数据。 然后这两个模型相互竞争,直到鉴别器在区分真假数据方面变得更差,并开始将假数据归类为真实数据。
生成式人工智能
一种人工智能,可以通过识别大量训练数据中的模式并生成类似于原始数据的独特输出来创建各种内容,包括文本、图像、视频和计算机代码。 与基于规则的其他形式的 AI 不同,生成式 AI 算法使用深度学习模型来生成未明确编程或预定义的新颖输出。
生成式 AI 能够生成模仿人类创造力的高度逼真和复杂的内容,使其成为图像和视频生成、自然语言处理和音乐创作等广泛应用的宝贵工具。 例子包括最近的突破,例如用于文本的 ChatGPT 和用于图像的 DALL-E 和 Midjourney。
生成式预训练变压器 (GPT)
生成式预训练转换器 (GPT) 是一系列神经网络模型,在海量数据集上使用数千亿个参数进行训练,以生成类似人类的文本。 它们基于谷歌研究人员于 2017 年推出的 transformer 架构,该架构使模型能够更好地理解和应用使用单词和表达的上下文,并有选择地关注输入的不同部分——专注于相关的单词或短语它认为对结果更重要。 它们能够生成长响应,而不仅仅是序列中的下一个单词。
GPT 系列模型被认为是迄今为止最大和最复杂的语言模型。 它们通常用于回答问题、总结文本、生成代码、对话、故事和许多其他自然语言处理任务,使它们非常适合聊天机器人和虚拟助手等产品。
2022 年 11 月,OpenAI 发布了基于 GPT-3.5 构建的聊天机器人 ChatGPT,风靡全球,争相试用。 炒作是真实的:GPT 的最新进展甚至使该技术不仅适用于客户服务等业务环境,而且实际上具有变革性。
幻觉
大型语言模型中的一个不幸但众所周知的现象,其中人工智能系统提供了一个看似合理的答案,但由于其训练数据和架构的限制,实际上是不正确、不准确或荒谬的。
一个常见的例子是,当一个模型被问到一个关于它没有接受过训练的事实问题时,它不会说“我不知道”,而是会编造一些东西。 减轻幻觉问题是一个活跃的研究领域,在评估任何大型语言模型 (LLM) 的响应时我们应该始终牢记这一点。

大型语言模型 (LLM)
LLM 是一种神经网络,能够生成类似于人类书写文本的自然语言文本。 这些模型通常在来自书籍、文章、网页等的数千亿个单词的海量数据集上进行训练,并使用深度学习来理解单词之间的复杂模式和关系,以生成或预测新内容。
传统的 NLP 算法通常只查看单词的直接上下文,而 LLM 会考虑大量文本以更好地理解上下文。 有不同类型的 LLM,包括像 OpenAI 的 GPT 这样的模型。
LLM 代理(例如 AutoGPT、LangChain)
就其本身而言,LLM 将文本作为输入并提供更多文本作为输出。 代理是建立在 LLM 之上的系统,使他们能够在没有人工干预的情况下做出决策、自主操作以及计划和执行任务。 代理通过使用 LLM 的功能将高级语言指令翻译成执行它们所需的特定操作或代码来工作。
目前对代理的兴趣和发展呈爆炸式增长。 AutoGPT 等工具正在启用令人兴奋的应用程序,例如“任务列表执行者”,这些应用程序将任务列表作为输入并实际尝试为您完成任务。
机器学习(机器学习)
人工智能的一个子领域,涉及算法和统计模型的开发,使机器能够在不明确编程的情况下逐步提高其在特定任务中的性能。 换句话说,机器从数据中“学习”,并且随着它处理更多数据,它会变得更擅长做出预测或执行特定任务。
机器学习主要分为三种类型:监督学习、非监督学习和强化学习。
- 监督学习是一种机器学习方法,它使用标记数据集来训练算法对数据进行分类或准确预测结果。 例如,如果你提供一组带标签的猫狗图片,模型将能够预测新的、未标记的猫狗图片;
- 无监督学习在数据集中寻找未检测到的模式,没有预先存在的标签或特定的编程,并且需要最少的人工监督;
- 强化学习涉及训练模型以根据来自其环境的反馈做出决策。 它学会采取行动来最大化奖励信号,例如赢得游戏或完成任务。
自然语言处理 (NLP)
NLP是人工智能的一个分支,专注于人类语言与计算机之间的交互。 它将基于规则的人类语言建模与统计、机器学习和深度学习模型相结合,这些模型通常使用大量数据进行训练,使计算机能够处理、理解和生成人类语言。
它的应用程序旨在分析、理解和生成人类语言,包括文本和语音。 一些常见的 NLP 任务包括语言翻译、情感分析、语音识别、文本分类、命名实体识别和文本摘要。
神经网络
神经网络是机器学习的一个子领域,由两位芝加哥研究人员 Warren McCullough 和 Walter Pitts 于 1944 年提出,它以人脑结构为模型。 它由相互连接的节点或神经元层组成,这些层处理和分析数据以做出预测或决策:每一层接收来自前一层节点的输入并产生馈送到下一层节点的输出。 然后,最后一层输出结果。
它们已用于广泛的应用,包括图像和语音识别、自然语言处理和预测建模。
提示工程
提示是一组以文本或代码形式编写的说明,您将其作为输入提供给 LLM,以产生有意义的输出,并且可以像问题一样简单。 提示工程是创建有效提示的技能(或艺术,有些人会争辩),这些提示将为任何给定任务产生最佳输出。 它需要了解大型语言模型 (LLM) 的工作原理、训练它们的数据以及它们的优势和局限性。
从人类反馈中强化学习 (RLHF)
RLHF 是指使用明确的人类反馈来训练强化学习系统的奖励模型的过程。 在 LLM 的上下文中,这可能是人类对 LLM 的输出进行排名并选择他们喜欢的响应——然后将其用于训练另一个神经网络,称为奖励模型,该模型可以预测给定的响应是否是可取的人类。 然后使用奖励模型微调 LMM 以产生更符合人类偏好的输出。
这些技术被认为是开发像 ChatGPT 这样的 LLM 的一个非常有影响力的步骤,它们的能力已经取得了突破性的进步。
变压器
Transformer 是一种深度神经网络架构,由多个编码器和解码器组件组成,这些组件以能够处理自然语言和时间序列等顺序数据的方式组合在一起。
这些只是您可能会遇到的 AI 中一些最常见的术语。 毫无疑问,像这样的词汇表将永远是一个持续的项目——随着技术的不断发展,新的术语和想法将不断涌现。 但就目前而言,通过理解这些概念,您可以建立一个坚实的基础,帮助您跟上最新的发展。