Glosario de términos de IA: comprensión de GPT, redes neuronales y más
Publicado: 2023-06-01¿Está intrigado por las posibilidades de la IA pero le resulta difícil familiarizarse con toda la jerga técnica? Nuestro glosario de IA lo ayudará a comprender los términos y conceptos clave.
La IA está en constante evolución y expansión, con nuevos desarrollos y aplicaciones que surgen cada semana, y parece que la cantidad de jerga con la que hay que mantenerse al día se está desarrollando con la misma rapidez.
En general, puede ser un poco abrumador, por lo que hemos compilado una lista de conceptos y términos para ayudarlo a comprender mejor el nuevo y valiente mundo de la inteligencia artificial.
Si desea recibir más de nuestro contenido sobre IA y automatización en su bandeja de entrada, asegúrese de suscribirse a nuestro boletín periódico.
Inteligencia artificial (IA)
AI se refiere a la creación de máquinas inteligentes que son capaces de realizar tareas complejas que generalmente requieren inteligencia a nivel humano, como la percepción visual, el reconocimiento de voz, la toma de decisiones y la traducción de idiomas. Los sistemas de IA se pueden entrenar para aprender y mejorar su rendimiento con el tiempo, lo que les permite completar tareas más complejas con mayor eficiencia y precisión.
Aprendizaje profundo
El aprendizaje profundo se refiere a métodos para entrenar redes neuronales con más de una capa, donde cada capa representa diferentes niveles de abstracción. Por lo general, estas redes profundas se entrenan en grandes conjuntos de datos para hacer predicciones o tomar decisiones sobre los datos.
Una red neuronal con una sola capa puede hacer predicciones aproximadas, pero las capas adicionales pueden ayudar a mejorar la precisión: cada una se basa en la capa anterior para optimizar y refinar las predicciones.
Los algoritmos de aprendizaje profundo son muy efectivos en el procesamiento de datos complejos y no estructurados, como imágenes, audio y texto, y han permitido avances significativos en una amplia gama de aplicaciones, como el procesamiento del lenguaje natural, el reconocimiento de voz y los sistemas de reconocimiento de imágenes que incluyen el reconocimiento facial. , coches autónomos, etc.
incrustación
Una incrustación en el contexto del procesamiento del lenguaje natural (NLP) es una receta para convertir texto de longitud variable en un conjunto de números de longitud fija. Por lo general, este conjunto de números conservará el significado semántico en algún sentido; por ejemplo, el conjunto de números para "perro" y "animal" estarán juntos en un sentido matemático. Esto permite que los algoritmos NLP procesen el texto de manera eficiente.
Redes de codificadores y decodificadores
Estos son tipos de arquitecturas de redes neuronales profundas cuyo trabajo es convertir una entrada determinada, digamos texto, en una representación numérica, como un conjunto de números de longitud fija (codificador), y también convertir estos números nuevamente en una salida deseada (decodificador). ).
Se utilizan con mucha frecuencia en tareas de procesamiento del lenguaje natural, como la traducción automática.
Sintonia FINA
El proceso de adaptar un modelo previamente entrenado a una tarea específica entrenándolo en un nuevo conjunto de datos. Ese modelo se entrena primero en un conjunto de datos general grande y luego en un conjunto de datos más pequeño y específico relacionado con la tarea; de esa manera, el modelo puede aprender a reconocer patrones más matizados en los datos específicos de la tarea, lo que lleva a un mejor rendimiento.
El ajuste fino puede ahorrar tiempo y recursos mediante el uso de modelos generales en lugar de entrenar modelos nuevos desde cero, y también puede reducir el riesgo de sobreajuste, donde el modelo ha aprendido extremadamente bien las características de un conjunto de entrenamiento pequeño, pero no puede para generalizar a otros datos.
Redes antagónicas generativas (GAN)
Una clase de algoritmos de IA utilizados en el aprendizaje automático no supervisado en el que dos redes neuronales compiten entre sí. Las GAN tienen dos partes: un modelo generador que está entrenado para generar nuevos ejemplos de datos plausibles y un modelo discriminador que intenta clasificar ejemplos como datos reales o datos falsos (generados). Luego, los dos modelos compiten entre sí hasta que el discriminador empeora al diferenciar entre lo real y lo falso y comienza a clasificar los datos falsos como reales.
IA generativa
Un tipo de inteligencia artificial que puede crear una amplia variedad de contenido, incluidos texto, imágenes, video y código de computadora, mediante la identificación de patrones en grandes cantidades de datos de entrenamiento y la generación de resultados únicos que se asemejan a los datos originales. A diferencia de otras formas de IA que se basan en reglas, los algoritmos de IA generativa utilizan modelos de aprendizaje profundo para generar resultados novedosos que no están programados ni predefinidos explícitamente.
La IA generativa es capaz de producir contenido muy realista y complejo que imita la creatividad humana, lo que la convierte en una herramienta valiosa para una amplia gama de aplicaciones, como la generación de imágenes y videos, el procesamiento del lenguaje natural y la composición musical. Los ejemplos incluyen avances recientes como ChatGPT para texto y DALL-E y Midjourney para imágenes.
Transformador preentrenado generativo (GPT)
Los transformadores preentrenados generativos, o GPT, son una familia de modelos de redes neuronales entrenados con cientos de miles de millones de parámetros en conjuntos de datos masivos para generar texto similar al humano. Se basan en la arquitectura de transformadores, presentada por los investigadores de Google en 2017, que permite que los modelos comprendan y apliquen mejor el contexto en el que se usan las palabras y expresiones y atiendan selectivamente a diferentes partes de la entrada, centrándose en palabras o frases relevantes que percibe como más importante para el resultado. Son capaces de generar respuestas largas, no solo la siguiente palabra en una secuencia.
La familia de modelos GPT se considera el modelo de lenguaje más grande y complejo hasta la fecha. Por lo general, se usan para responder preguntas, resumir texto, generar código, conversaciones, historias y muchas otras tareas de procesamiento de lenguaje natural, lo que los hace ideales para productos como chatbots y asistentes virtuales.
En noviembre de 2022, OpenAI lanzó ChatGPT, un chatbot construido sobre GPT-3.5, que cautivó al mundo y todos acudieron en masa para probarlo. Y la exageración es real: los avances más recientes en GPT incluso han hecho que la tecnología no solo sea factible para entornos comerciales como el servicio al cliente, sino que en realidad transforme.
alucinaciones
Un fenómeno desafortunado pero bien conocido en modelos de lenguaje grande, donde el sistema de IA proporciona una respuesta de aspecto plausible que es objetivamente incorrecta, inexacta o sin sentido debido a las limitaciones en sus datos de entrenamiento y arquitectura.

Un ejemplo común sería cuando a un modelo se le hace una pregunta fáctica sobre algo en lo que no ha recibido capacitación y en lugar de decir "No sé", inventa algo. Aliviar el problema de las alucinaciones es un área activa de investigación y algo que siempre debemos tener en cuenta al evaluar la respuesta de cualquier modelo de lenguaje grande (LLM).
Modelo de lenguaje grande (LLM)
Los LLM son un tipo de red neuronal capaz de generar texto en lenguaje natural similar al texto escrito por humanos. Estos modelos generalmente se entrenan en conjuntos de datos masivos de cientos de miles de millones de palabras de libros, artículos, páginas web, etc., y utilizan el aprendizaje profundo para comprender los patrones complejos y las relaciones entre las palabras para generar o predecir contenido nuevo.
Mientras que los algoritmos de NLP tradicionales generalmente solo observan el contexto inmediato de las palabras, los LLM consideran grandes franjas de texto para comprender mejor el contexto. Hay diferentes tipos de LLM, incluidos modelos como GPT de OpenAI.
Agentes LLM (por ejemplo, AutoGPT, LangChain)
Por sí solos, los LLM toman texto como entrada y proporcionan más texto como salida. Los agentes son sistemas construidos sobre un LLM que les otorga agencia para tomar decisiones, operar de manera autónoma y planificar y realizar tareas sin intervención humana. Los agentes trabajan utilizando el poder de los LLM para traducir instrucciones de lenguaje de alto nivel en las acciones específicas o el código requerido para realizarlas.
Actualmente hay una explosión de interés y desarrollo en los Agentes. Herramientas como AutoGPT están habilitando aplicaciones emocionantes como "hacedores de listas de tareas" que tomarán una lista de tareas como entrada y realmente intentarán hacer las tareas por usted.
Aprendizaje automático (ML)
Un subcampo de la IA que involucra el desarrollo de algoritmos y modelos estadísticos que permiten a las máquinas mejorar progresivamente su desempeño en una tarea específica sin estar explícitamente programadas para hacerlo. En otras palabras, la máquina "aprende" de los datos y, a medida que procesa más datos, se vuelve mejor para hacer predicciones o realizar tareas específicas.
Hay tres tipos principales de aprendizaje automático: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo.
- El aprendizaje supervisado es un enfoque de aprendizaje automático que utiliza conjuntos de datos etiquetados diseñados para entrenar algoritmos para clasificar datos o predecir resultados con precisión. Por ejemplo, si proporciona un conjunto de imágenes etiquetadas de gatos y perros, un modelo podrá predecir nuevas imágenes sin etiquetar de gatos y perros;
- El aprendizaje no supervisado busca patrones no detectados en un conjunto de datos sin etiquetas preexistentes o programación específica y con supervisión humana mínima;
- El aprendizaje por refuerzo implica entrenar a un modelo para que tome decisiones basadas en la retroalimentación de su entorno. Aprende a realizar acciones que maximicen una señal de recompensa, como ganar un juego o completar una tarea.
Procesamiento del lenguaje natural (PNL)
La PNL es una rama de la IA que se centra en la interacción entre el lenguaje humano y las computadoras. Combina el modelado basado en reglas del lenguaje humano con modelos estadísticos, de aprendizaje automático y de aprendizaje profundo, generalmente entrenados con grandes cantidades de datos, que permiten a las computadoras procesar, comprender y generar lenguaje humano.
Sus aplicaciones están diseñadas para analizar, comprender y generar lenguaje humano, incluidos texto y voz. Algunas tareas comunes de NLP incluyen traducción de idiomas, análisis de sentimientos, reconocimiento de voz, clasificación de texto, reconocimiento de entidades nombradas y resumen de texto.
Redes neuronales
Las redes neuronales son un subcampo del aprendizaje automático propuesto en 1944 por dos investigadores de Chicago, Warren McCullough y Walter Pitts, que sigue el modelo de la estructura del cerebro humano. Consiste en capas de nodos interconectados, o neuronas, que procesan y analizan datos para hacer predicciones o decisiones: cada capa recibe entradas de los nodos de la capa anterior y produce salidas que se envían a los nodos de la siguiente capa. La última capa, entonces, genera los resultados.
Se han utilizado para una amplia gama de aplicaciones, incluido el reconocimiento de imágenes y voz, el procesamiento del lenguaje natural y el modelado predictivo.
Ingeniería rápida
Un mensaje es un conjunto de instrucciones escritas como texto o código que proporciona como entrada a un LLM para generar resultados significativos, y puede ser tan simple como una pregunta. La ingeniería rápida es la habilidad (o el arte, dirían algunos) de crear indicaciones efectivas que producirán el mejor resultado posible para cualquier tarea determinada. Requiere una comprensión de cómo funcionan los modelos de lenguaje grande (LLM), los datos en los que están entrenados y sus fortalezas y limitaciones.
Aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF)
RLHF se refiere al proceso de utilizar comentarios humanos explícitos para entrenar el modelo de recompensa de un sistema de aprendizaje por refuerzo. En el contexto de un LLM, estos podrían ser humanos clasificando los resultados del LLM y eligiendo las respuestas que prefieren; esto luego se usa para entrenar otra red neuronal, llamada modelo de recompensa, que puede predecir si una respuesta determinada será deseable para humanos Luego, el modelo de recompensa se usa para ajustar el LMM para producir resultados que estén mejor alineados con las preferencias humanas.
Se cree que estas técnicas son un paso de gran impacto en el desarrollo de LLM como ChatGPT que han visto avances revolucionarios en sus capacidades.
Transformador
Un transformador es un tipo de arquitectura de red neuronal profunda que se compone de múltiples componentes codificadores y decodificadores que se combinan de tal manera que permiten el procesamiento de datos secuenciales, como el lenguaje natural y las series temporales.
Estos son solo algunos de los términos más comunes en IA que es probable que encuentre. Sin duda, glosarios como estos serán para siempre un proyecto en curso: a medida que la tecnología siga evolucionando, seguirán surgiendo nuevos términos e ideas. Pero por ahora, al comprender estos conceptos, puede construir una base sólida que lo ayudará a mantenerse al día con los últimos desarrollos.