Glossário de termos de IA: Noções básicas sobre GPT, redes neurais e muito mais
Publicados: 2023-06-01Você está intrigado com as possibilidades da IA, mas acha difícil entender todo o jargão técnico? Nosso glossário de IA ajudará você a entender os principais termos e conceitos.
A IA está em constante evolução e expansão, com novos desenvolvimentos e aplicativos surgindo a cada semana – e parece que a quantidade de jargões para acompanhar está se desenvolvendo com a mesma rapidez.
Em suma, pode ser um pouco opressor, então compilamos uma lista de conceitos e termos para ajudá-lo a entender melhor o admirável mundo novo da inteligência artificial.
Se você deseja receber mais de nosso conteúdo sobre IA e automação em sua caixa de entrada, assine nosso boletim informativo regular.
Inteligência Artificial (IA)
A IA refere-se à criação de máquinas inteligentes capazes de realizar tarefas complexas que normalmente requerem inteligência de nível humano, como percepção visual, reconhecimento de fala, tomada de decisões e tradução de idiomas. Os sistemas de IA podem ser treinados para aprender e melhorar seu desempenho ao longo do tempo, permitindo que concluam tarefas mais complexas com maior eficiência e precisão.
Aprendizado profundo
O aprendizado profundo refere-se a métodos para treinar redes neurais com mais de uma camada, com cada camada representando diferentes níveis de abstração. Normalmente, essas redes profundas são treinadas em grandes conjuntos de dados para fazer previsões ou decisões sobre dados.
Uma rede neural com uma única camada pode fazer previsões aproximadas, mas camadas adicionais podem ajudar a melhorar a precisão – cada uma se baseando na camada anterior para otimizar e refinar as previsões.
Os algoritmos de aprendizado profundo são altamente eficazes no processamento de dados complexos e não estruturados, como imagens, áudio e texto, e permitiram avanços significativos em uma ampla gama de aplicações, como processamento de linguagem natural, reconhecimento de fala e sistemas de reconhecimento de imagem que incluem reconhecimento facial , carros autônomos, etc.
Incorporação
Uma incorporação no contexto do processamento de linguagem natural (NLP) é uma receita para transformar texto de comprimento variável em um conjunto de números de comprimento fixo. Normalmente, esse conjunto de números preservará o significado semântico em algum sentido – por exemplo, o conjunto de números para “cachorro” e “animal” será próximo em um sentido matemático. Isso permite que o texto seja processado com eficiência pelos algoritmos NLP.
Redes de codificador e decodificador
Esses são tipos de arquiteturas de redes neurais profundas cujo trabalho é converter uma determinada entrada, digamos texto, em uma representação numérica, como um conjunto de números de tamanho fixo (codificador) e também converter esses números de volta em uma saída desejada (decodificador ).
Eles são muito comumente usados em tarefas de processamento de linguagem natural, como tradução automática.
Afinação
O processo de adaptação de um modelo pré-treinado a uma tarefa específica treinando-o em um novo conjunto de dados. Esse modelo é treinado primeiro em um conjunto de dados geral grande e, em seguida, em um conjunto de dados menor e mais específico relacionado à tarefa – dessa forma, o modelo pode aprender a reconhecer padrões mais sutis nos dados específicos da tarefa, levando a um melhor desempenho.
O ajuste fino pode economizar tempo e recursos usando modelos gerais em vez de treinar novos a partir do zero, e também pode reduzir o risco de overfitting, onde o modelo aprendeu extremamente bem os recursos de um conjunto de treinamento pequeno, mas não consegue generalizar para outros dados.
Redes adversárias generativas (GANs)
Uma classe de algoritmos de IA usados em aprendizado de máquina não supervisionado, no qual duas redes neurais competem entre si. Os GANs têm duas partes: um modelo gerador que é treinado para gerar novos exemplos de dados plausíveis e um modelo discriminador que tenta classificar exemplos como dados reais ou dados falsos (gerados). Os dois modelos então competem entre si até que o discriminador fique pior em dizer a diferença entre real e falso e comece a classificar dados falsos como reais.
IA generativa
Um tipo de inteligência artificial que pode criar uma ampla variedade de conteúdo – incluindo texto, imagens, vídeo e código de computador – identificando padrões em grandes quantidades de dados de treinamento e gerando saídas únicas que se assemelham aos dados originais. Ao contrário de outras formas de IA baseadas em regras, os algoritmos de IA generativa usam modelos de aprendizado profundo para gerar novas saídas que não são explicitamente programadas ou predefinidas.
A IA generativa é capaz de produzir conteúdo altamente realista e complexo que imita a criatividade humana, tornando-se uma ferramenta valiosa para uma ampla gama de aplicações, como geração de imagens e vídeos, processamento de linguagem natural e composição musical. Os exemplos incluem inovações recentes, como ChatGPT para texto e DALL-E e Midjourney para imagens.
Transformador pré-treinado generativo (GPT)
Os transformadores pré-treinados generativos, ou GPTs, são uma família de modelos de rede neural treinados com centenas de bilhões de parâmetros em conjuntos de dados massivos para gerar texto semelhante ao humano. Eles são baseados na arquitetura do transformador, introduzida pelos pesquisadores do Google em 2017, que permite que os modelos entendam e apliquem melhor o contexto em que as palavras e expressões são usadas e atendam seletivamente a diferentes partes da entrada – com foco em palavras ou frases relevantes que ela percebe como mais importante para o resultado. Eles são capazes de gerar respostas longas, não apenas a próxima palavra em uma sequência.
A família de modelos GPT é considerada o maior e mais complexo modelo de linguagem até hoje. Eles são normalmente usados para responder a perguntas, resumir texto, gerar código, conversas, histórias e muitas outras tarefas de processamento de linguagem natural, tornando-os adequados para produtos como chatbots e assistentes virtuais.
Em novembro de 2022, a OpenAI lançou o ChatGPT, um chatbot construído sobre o GPT-3.5, que conquistou o mundo, com todos se reunindo para experimentá-lo. E o hype é real: os avanços mais recentes no GPT tornaram a tecnologia não apenas viável para configurações de negócios como atendimento ao cliente, mas também transformacional.
Alucinações
Um fenômeno infeliz, mas bem conhecido, em grandes modelos de linguagem, em que o sistema de IA fornece uma resposta de aparência plausível que é factualmente incorreta, imprecisa ou sem sentido devido a limitações em seus dados de treinamento e arquitetura.

Um exemplo comum seria quando um modelo recebe uma pergunta factual sobre algo sobre o qual não foi treinado e, em vez de dizer “não sei”, ele inventa algo. Aliviar o problema das alucinações é uma área ativa de pesquisa e algo que devemos sempre ter em mente ao avaliar a resposta de qualquer modelo de linguagem grande (LLM).
Modelo de linguagem grande (LLM)
Os LLMs são um tipo de rede neural capaz de gerar texto em linguagem natural semelhante ao texto escrito por humanos. Esses modelos são normalmente treinados em conjuntos de dados massivos de centenas de bilhões de palavras de livros, artigos, páginas da web etc. e usam o aprendizado profundo para entender os padrões complexos e as relações entre as palavras para gerar ou prever novos conteúdos.
Embora os algoritmos NLP tradicionais normalmente observem apenas o contexto imediato das palavras, os LLMs consideram grandes extensões de texto para entender melhor o contexto. Existem diferentes tipos de LLMs, incluindo modelos como o GPT da OpenAI.
Agentes LLM (por exemplo, AutoGPT, LangChain)
Por conta própria, os LLMs recebem texto como entrada e fornecem mais texto como saída. Agentes são sistemas construídos em cima de um LLM que lhes dá agência para tomar decisões, operar de forma autônoma e planejar e executar tarefas sem intervenção humana. Os agentes trabalham usando o poder dos LLMs para traduzir instruções de linguagem de alto nível em ações ou códigos específicos necessários para executá-los.
Atualmente há uma explosão de interesse e desenvolvimento em Agents. Ferramentas como o AutoGPT estão permitindo aplicativos empolgantes, como “realizadores de listas de tarefas”, que receberão uma lista de tarefas como entrada e realmente tentarão executar as tarefas para você.
Aprendizado de máquina (ML)
Um subcampo da IA que envolve o desenvolvimento de algoritmos e modelos estatísticos que permitem que as máquinas melhorem progressivamente seu desempenho em uma tarefa específica sem serem explicitamente programadas para isso. Em outras palavras, a máquina “aprende” com os dados e, à medida que processa mais dados, torna-se melhor em fazer previsões ou executar tarefas específicas.
Existem três tipos principais de aprendizado de máquina: aprendizado supervisionado, aprendizado não supervisionado e aprendizado por reforço.
- O aprendizado supervisionado é uma abordagem de aprendizado de máquina que usa conjuntos de dados rotulados projetados para treinar algoritmos para classificar dados ou prever resultados com precisão. Por exemplo, se você fornecer um conjunto de fotos rotuladas de cães e gatos, um modelo será capaz de prever novas fotos não rotuladas de cães e gatos;
- O aprendizado não supervisionado procura padrões não detectados em um conjunto de dados sem rótulos pré-existentes ou programação específica e com supervisão humana mínima;
- O aprendizado por reforço envolve treinar um modelo para tomar decisões com base no feedback de seu ambiente. Ele aprende a realizar ações que maximizam um sinal de recompensa, como vencer um jogo ou concluir uma tarefa.
Processamento de linguagem natural (PNL)
A PNL é um ramo da IA que se concentra na interação entre a linguagem humana e os computadores. Ele combina modelagem baseada em regras da linguagem humana com modelos estatísticos, de aprendizado de máquina e aprendizado profundo, normalmente treinados usando grandes quantidades de dados, que permitem que os computadores processem, compreendam e gerem a linguagem humana.
Seus aplicativos são projetados para analisar, entender e gerar linguagem humana, incluindo texto e fala. Algumas tarefas comuns do NLP incluem tradução de linguagem, análise de sentimento, reconhecimento de fala, classificação de texto, reconhecimento de entidade nomeada e resumo de texto.
Redes neurais
As redes neurais são um subcampo do aprendizado de máquina proposto em 1944 por dois pesquisadores de Chicago, Warren McCullough e Walter Pitts, que é modelado de acordo com a estrutura do cérebro humano. Consiste em camadas de nós interconectados, ou neurônios, que processam e analisam dados para fazer previsões ou decisões: cada camada recebe entradas dos nós da camada anterior e produz saídas que alimentam os nós da próxima camada. A última camada, então, gera os resultados.
Eles têm sido usados para uma ampla gama de aplicações, incluindo reconhecimento de imagem e fala, processamento de linguagem natural e modelagem preditiva.
Engenharia de alerta
Um prompt é um conjunto de instruções escritas como texto ou código que você fornece como uma entrada para um LLM para resultar em saídas significativas e pode ser tão simples quanto uma pergunta. A engenharia de prompt é a habilidade (ou arte, alguns diriam) de criar prompts eficazes que produzirão a melhor saída possível para qualquer tarefa. Requer uma compreensão de como os modelos de linguagem grandes (LLMs) funcionam, os dados nos quais eles são treinados e seus pontos fortes e limitações.
Aprendizagem por reforço com feedback humano (RLHF)
RLHF refere-se ao processo de usar feedback humano explícito para treinar o modelo de recompensa de um sistema de aprendizado por reforço. No contexto de um LLM, podem ser humanos classificando as saídas do LLM e escolhendo as respostas que preferem - isso é usado para treinar outra rede neural, chamada de modelo de recompensa, que pode prever se uma determinada resposta será desejável para humanos. O modelo de recompensa é então usado para ajustar o LMM para produzir uma saída que esteja mais alinhada com as preferências humanas.
Essas técnicas são consideradas uma etapa altamente impactante no desenvolvimento de LLMs como o ChatGPT, que tiveram avanços revolucionários em suas capacidades.
Transformador
Um transformador é um tipo de arquitetura de rede neural profunda composta por vários componentes codificadores e decodificadores que são combinados de forma a permitir o processamento de dados sequenciais, como linguagem natural e séries temporais.
Esses são apenas alguns dos termos mais comuns em IA que você provavelmente encontrará. Sem dúvida, glossários como esses serão para sempre um projeto em andamento – à medida que a tecnologia continua a evoluir, novos termos e ideias continuarão surgindo. Mas, por enquanto, ao entender esses conceitos, você pode construir uma base sólida que o ajudará a acompanhar os desenvolvimentos mais recentes.