AI 용어집: GPT, 신경망 이해 등
게시 됨: 2023-06-01AI의 가능성에 관심이 있지만 모든 기술 전문 용어를 파악하기가 어렵습니까? 당사의 AI 용어집은 주요 용어와 개념을 이해하는 데 도움이 됩니다.
AI는 매주 새로운 개발 및 응용 프로그램이 등장하면서 지속적으로 진화하고 확장되고 있으며 따라잡아야 할 전문 용어의 양도 그만큼 빠르게 발전하고 있는 것 같습니다.
대체로 다소 어려울 수 있으므로 인공 지능의 멋진 신세계를 더 잘 이해하는 데 도움이 되는 개념 및 용어 목록을 작성했습니다.
받은 편지함으로 전달되는 AI 및 자동화에 대한 더 많은 콘텐츠를 받으려면 정기 뉴스레터를 구독하십시오.
인공지능(AI)
AI는 시각적 인식, 음성 인식, 의사 결정 및 언어 번역과 같이 일반적으로 인간 수준의 지능이 필요한 복잡한 작업을 수행할 수 있는 지능형 기계의 생성을 말합니다. AI 시스템은 시간이 지남에 따라 성능을 학습하고 개선하도록 훈련될 수 있으므로 더 효율적이고 정확하게 더 복잡한 작업을 완료할 수 있습니다.
딥 러닝
딥 러닝은 하나 이상의 계층으로 신경망을 훈련시키는 방법을 말하며 각 계층은 서로 다른 추상화 수준을 나타냅니다. 일반적으로 이러한 딥 네트워크는 데이터에 대한 예측 또는 결정을 내리기 위해 대규모 데이터 세트에서 훈련됩니다.
단일 레이어가 있는 신경망은 대략적인 예측을 할 수 있지만 추가 레이어는 정확도를 향상시키는 데 도움이 될 수 있습니다. 각 레이어는 예측을 최적화하고 세분화하기 위해 이전 레이어를 기반으로 구축됩니다.
딥 러닝 알고리즘은 이미지, 오디오 및 텍스트와 같은 복잡하고 구조화되지 않은 데이터를 처리하는 데 매우 효과적이며 자연어 처리, 음성 인식 및 얼굴 인식을 포함한 이미지 인식 시스템과 같은 광범위한 응용 분야에서 상당한 발전을 이루었습니다. , 자율주행차 등
임베딩
자연어 처리(NLP) 맥락에서 임베딩은 가변 길이의 텍스트를 고정 길이의 숫자 집합으로 변환하는 방법입니다. 일반적으로 이 숫자 집합은 어떤 의미에서 의미론적 의미를 보존합니다. 예를 들어 "개"와 "동물"에 대한 숫자 집합은 수학적 의미에서 서로 가깝습니다. 이를 통해 텍스트를 NLP 알고리즘으로 효율적으로 처리할 수 있습니다.
인코더 및 디코더 네트워크
이들은 주어진 입력(예: 텍스트)을 고정 길이 숫자 세트(인코더)와 같은 수치 표현으로 변환하고 이러한 숫자를 원하는 출력(디코더)으로 다시 변환하는 작업을 수행하는 심층 신경망 아키텍처 유형입니다. ).
기계 번역과 같은 자연어 처리 작업에 매우 일반적으로 사용됩니다.
미세 조정
사전 훈련된 모델을 새 데이터 세트에서 훈련하여 특정 작업에 적응시키는 프로세스입니다. 이 모델은 먼저 크고 일반적인 데이터 세트에서 훈련된 다음 작업과 관련된 더 작고 더 구체적인 데이터 세트에서 훈련됩니다. 이렇게 하면 모델이 작업과 관련된 데이터에서 더 미묘한 패턴을 인식하는 방법을 학습하여 더 나은 성능을 얻을 수 있습니다.
미세 조정은 처음부터 새로운 모델을 교육하는 대신 일반 모델을 사용하여 시간과 리소스를 절약할 수 있으며 모델이 작은 교육 세트의 기능을 매우 잘 학습했지만 과적합의 위험을 줄일 수 있습니다. 다른 데이터로 일반화합니다.
생성적 적대 신경망(GAN)
두 개의 신경망이 서로 경쟁하는 자율 머신 러닝에 사용되는 AI 알고리즘 클래스입니다. GAN은 그럴듯한 데이터의 새로운 예를 생성하도록 훈련된 생성기 모델과 예를 실제 데이터 또는 가짜(생성된) 데이터로 분류하려고 시도하는 판별 모델의 두 부분으로 구성됩니다. 그런 다음 두 모델은 판별자가 진짜와 가짜의 차이를 더 잘 구분하지 못하고 가짜 데이터를 진짜로 분류하기 시작할 때까지 서로 경쟁합니다.
생성 AI
대량의 학습 데이터에서 패턴을 파악하고 원본 데이터와 유사한 고유한 출력을 생성하여 텍스트, 이미지, 비디오, 컴퓨터 코드 등 다양한 콘텐츠를 생성할 수 있는 인공 지능의 한 유형입니다. 규칙을 기반으로 하는 다른 형태의 AI와 달리 생성 AI 알고리즘은 딥 러닝 모델을 사용하여 명시적으로 프로그래밍되거나 미리 정의되지 않은 새로운 출력을 생성합니다.
제너레이티브 AI는 인간의 창의성을 모방하는 매우 사실적이고 복잡한 콘텐츠를 제작할 수 있어 이미지 및 비디오 생성, 자연어 처리, 음악 작곡과 같은 광범위한 애플리케이션에 유용한 도구입니다. 예를 들면 텍스트용 ChatGPT, 이미지용 DALL-E 및 Midjourney와 같은 최근의 혁신이 있습니다.
GPT(Generative Pre-trained Transformer)
GPT(Generative Pre-trained Transformers)는 인간과 유사한 텍스트를 생성하기 위해 방대한 데이터 세트에서 수천억 개의 매개변수로 훈련된 신경망 모델 제품군입니다. 이는 2017년 Google 연구원이 도입한 변환기 아키텍처를 기반으로 합니다. 이를 통해 모델은 단어와 표현이 사용되는 컨텍스트를 더 잘 이해하고 적용할 수 있으며 입력의 다른 부분에 선택적으로 주의를 기울일 수 있습니다. 그것은 결과에 더 중요한 것으로 인식합니다. 시퀀스의 다음 단어뿐만 아니라 긴 응답을 생성할 수 있습니다.
GPT 모델 제품군은 현재까지 가장 크고 복잡한 언어 모델로 간주됩니다. 일반적으로 질문에 답하고, 텍스트를 요약하고, 코드, 대화, 스토리 및 기타 많은 자연어 처리 작업을 생성하는 데 사용되므로 챗봇 및 가상 비서와 같은 제품에 적합합니다.
2022년 11월 OpenAI는 GPT-3.5를 기반으로 구축된 챗봇인 ChatGPT를 출시하여 전 세계를 강타했으며 모두가 시도하기 위해 몰려들었습니다. 그리고 과대 광고는 현실입니다. GPT의 최근 발전으로 인해 이 기술은 고객 서비스와 같은 비즈니스 설정에 적합할 뿐만 아니라 실제로 혁신적입니다.
환각
유감스럽지만 대규모 언어 모델에서 잘 알려진 현상으로, AI 시스템이 학습 데이터 및 아키텍처의 한계로 인해 사실적으로 올바르지 않거나 부정확하거나 무의미한 그럴듯해 보이는 답변을 제공합니다.
일반적인 예는 모델이 훈련되지 않은 것에 대해 사실에 입각한 질문을 받았을 때 "모르겠습니다"라고 말하는 대신 무언가를 구성하는 것입니다. 환각 문제를 완화하는 것은 연구의 활발한 영역이며 대규모 언어 모델(LLM)의 반응을 평가할 때 항상 염두에 두어야 할 사항입니다.

대규모 언어 모델(LLM)
LLM은 인간이 작성한 텍스트와 유사한 자연어 텍스트를 생성할 수 있는 일종의 신경망입니다. 이러한 모델은 일반적으로 책, 기사, 웹 페이지 등에서 가져온 수천억 단어의 방대한 데이터 세트에서 훈련되며 딥 러닝을 사용하여 단어 간의 복잡한 패턴과 관계를 이해하여 새로운 콘텐츠를 생성하거나 예측합니다.
기존의 NLP 알고리즘은 일반적으로 단어의 즉각적인 컨텍스트만 살펴보는 반면 LLM은 컨텍스트를 더 잘 이해하기 위해 많은 양의 텍스트를 고려합니다. OpenAI의 GPT와 같은 모델을 포함하여 다양한 유형의 LLM이 있습니다.
LLM 에이전트(예: AutoGPT, LangChain)
자체적으로 LLM은 텍스트를 입력으로 사용하고 더 많은 텍스트를 출력으로 제공합니다. 에이전트는 LLM 위에 구축된 시스템으로, 의사 결정을 내리고 자율적으로 운영하며 사람의 개입 없이 작업을 계획 및 수행할 수 있는 기관을 제공합니다. 에이전트는 LLM의 기능을 사용하여 높은 수준의 언어 지침을 수행하는 데 필요한 특정 작업 또는 코드로 변환합니다.
현재 에이전트에 대한 관심과 개발이 폭발적으로 증가하고 있습니다. AutoGPT와 같은 도구는 작업 목록을 입력으로 받아 실제로 작업을 시도하고 수행하는 "작업 목록 수행자"와 같은 흥미로운 응용 프로그램을 가능하게 합니다.
기계 학습(ML)
기계가 명시적으로 프로그래밍하지 않고도 특정 작업에서 성능을 점진적으로 향상시킬 수 있도록 하는 알고리즘 및 통계 모델의 개발을 포함하는 AI의 하위 분야입니다. 즉, 기계는 데이터에서 "학습"하고 더 많은 데이터를 처리할수록 예측을 하거나 특정 작업을 수행하는 데 더 능숙해집니다.
기계 학습에는 지도 학습, 비지도 학습 및 강화 학습의 세 가지 주요 유형이 있습니다.
- 감독 학습은 데이터를 분류하거나 결과를 정확하게 예측하도록 알고리즘을 교육하도록 설계된 레이블이 지정된 데이터 세트를 사용하는 기계 학습 접근 방식입니다. 예를 들어 레이블이 지정된 고양이와 개 사진 세트를 제공하는 경우 모델은 레이블이 지정되지 않은 새로운 고양이와 개 사진을 예측할 수 있습니다.
- 비지도 학습은 기존 레이블이나 특정 프로그래밍이 없고 최소한의 인간 감독으로 데이터 세트에서 감지되지 않은 패턴을 찾습니다.
- 강화 학습에는 환경의 피드백을 기반으로 결정을 내리도록 모델을 교육하는 것이 포함됩니다. 게임에서 이기거나 작업을 완료하는 것과 같이 보상 신호를 최대화하는 행동을 취하는 방법을 배웁니다.
자연어 처리(NLP)
NLP는 인간 언어와 컴퓨터 간의 상호 작용에 중점을 둔 AI의 한 분야입니다. 인간 언어의 규칙 기반 모델링을 일반적으로 대량의 데이터를 사용하여 훈련된 통계, 기계 학습 및 심층 학습 모델과 결합하여 컴퓨터가 인간 언어를 처리, 이해 및 생성할 수 있도록 합니다.
해당 응용 프로그램은 텍스트 및 음성을 포함하여 인간 언어를 분석, 이해 및 생성하도록 설계되었습니다. 일부 일반적인 NLP 작업에는 언어 번역, 감정 분석, 음성 인식, 텍스트 분류, 명명된 엔터티 인식 및 텍스트 요약이 포함됩니다.
신경망
신경망은 1944년 시카고의 두 연구원인 Warren McCullough와 Walter Pitts가 제안한 기계 학습의 하위 분야로, 인간의 뇌 구조를 모델로 합니다. 데이터를 처리하고 분석하여 예측 또는 결정을 내리는 상호 연결된 노드 또는 뉴런의 레이어로 구성됩니다. 각 레이어는 이전 레이어의 노드에서 입력을 받고 다음 레이어의 노드에 공급되는 출력을 생성합니다. 그런 다음 마지막 레이어가 결과를 출력합니다.
이미지 및 음성 인식, 자연어 처리 및 예측 모델링을 포함한 광범위한 응용 프로그램에 사용되었습니다.
신속한 엔지니어링
프롬프트는 의미 있는 출력 결과를 얻기 위해 LLM에 입력으로 제공하는 텍스트 또는 코드로 작성된 일련의 지침이며 질문처럼 간단할 수 있습니다. 프롬프트 엔지니어링은 주어진 작업에 대해 가능한 최상의 결과를 생성할 효과적인 프롬프트를 생성하는 기술(또는 예술, 일부 주장)입니다. 대규모 언어 모델(LLM)의 작동 방식, 학습된 데이터, 강점과 한계에 대한 이해가 필요합니다.
사람의 피드백을 통한 강화 학습(RLHF)
RLHF는 강화 학습 시스템의 보상 모델을 훈련하기 위해 명시적인 인간 피드백을 사용하는 프로세스를 나타냅니다. LLM의 맥락에서 이것은 인간이 LLM의 출력 순위를 매기고 선호하는 응답을 선택하는 것일 수 있습니다. 그런 다음 이것은 주어진 응답이 바람직한지 예측할 수 있는 보상 모델이라는 또 다른 신경망을 훈련하는 데 사용됩니다. 인간. 그런 다음 보상 모델을 사용하여 LMM을 미세 조정하여 인간의 선호도에 더 잘 맞는 출력을 생성합니다.
이러한 기술은 기능이 획기적인 발전을 이룬 ChatGPT와 같은 LLM 개발에서 매우 영향력 있는 단계로 생각됩니다.
변신 로봇
변환기는 자연어 및 시계열과 같은 순차적 데이터를 처리할 수 있도록 결합된 여러 인코더 및 디코더 구성 요소로 구성된 일종의 심층 신경망 아키텍처입니다.
다음은 AI에서 접할 수 있는 가장 일반적인 용어 중 일부에 불과합니다. 의심할 여지 없이 이와 같은 용어집은 영원히 진행 중인 프로젝트가 될 것입니다. 기술이 계속 발전함에 따라 새로운 용어와 아이디어가 계속 등장할 것입니다. 그러나 지금은 이러한 개념을 이해함으로써 최신 개발을 따라잡는 데 도움이 되는 견고한 기반을 구축할 수 있습니다.