Glossario dei termini AI: comprensione di GPT, reti neurali e altro

Pubblicato: 2023-06-01

Sei incuriosito dalle possibilità dell'intelligenza artificiale ma hai difficoltà a fare i conti con tutto il gergo tecnico? Il nostro glossario AI ti aiuterà a comprendere i termini e i concetti chiave.

L'intelligenza artificiale è in continua evoluzione ed espansione, con nuovi sviluppi e applicazioni che emergono ogni settimana e sembra che la quantità di gergo con cui stare al passo si stia sviluppando altrettanto velocemente.

Tutto sommato, può essere un po' travolgente, quindi abbiamo compilato un elenco di concetti e termini per aiutarti a comprendere meglio il nuovo e coraggioso mondo dell'intelligenza artificiale.

Se desideri ricevere più contenuti sull'intelligenza artificiale e l'automazione nella tua casella di posta, assicurati di iscriverti alla nostra newsletter periodica.


Intelligenza artificiale (AI)

L'intelligenza artificiale si riferisce alla creazione di macchine intelligenti in grado di eseguire compiti complessi che in genere richiedono intelligenza a livello umano, come la percezione visiva, il riconoscimento vocale, il processo decisionale e la traduzione linguistica. I sistemi di intelligenza artificiale possono essere addestrati per apprendere e migliorare le proprie prestazioni nel tempo, consentendo loro di completare attività più complesse con maggiore efficienza e precisione.

Apprendimento approfondito

L'apprendimento profondo si riferisce a metodi per l'addestramento di reti neurali con più di un livello, con ogni livello che rappresenta diversi livelli di astrazione. In genere queste reti profonde vengono addestrate su set di dati di grandi dimensioni per fare previsioni o decisioni sui dati.

Una rete neurale con un singolo livello può essere in grado di effettuare previsioni approssimative, ma ulteriori livelli possono aiutare a migliorare l'accuratezza, ciascuno basato sul livello precedente per ottimizzare e perfezionare le previsioni.

Gli algoritmi di deep learning sono altamente efficaci nell'elaborazione di dati complessi e non strutturati, come immagini, audio e testo, e hanno consentito progressi significativi in ​​un'ampia gamma di applicazioni come l'elaborazione del linguaggio naturale, il riconoscimento vocale e i sistemi di riconoscimento delle immagini che includono il riconoscimento facciale , auto a guida autonoma, ecc.

Incorporamento

Un incorporamento nel contesto dell'elaborazione del linguaggio naturale (NLP) è una ricetta per trasformare un testo di lunghezza variabile in un insieme di numeri di lunghezza fissa. Di solito questo insieme di numeri conserverà il significato semantico in un certo senso - per esempio, l'insieme di numeri per "cane" e "animale" sarà vicino in senso matematico. Ciò consente al testo di essere elaborato in modo efficiente dagli algoritmi NLP.

Reti di codificatori e decodificatori

Questi sono tipi di architetture di reti neurali profonde il cui compito è convertire un dato input, ad esempio testo, in una rappresentazione numerica, come un insieme di numeri di lunghezza fissa (codificatore), e anche riconvertire questi numeri in un output desiderato (decodificatore ).

Sono molto comunemente usati nelle attività di elaborazione del linguaggio naturale come la traduzione automatica.

Ritocchi

Il processo di adattamento di un modello pre-addestrato a un'attività specifica addestrandolo su un nuovo set di dati. Tale modello viene prima addestrato su un set di dati generale di grandi dimensioni e quindi su un set di dati più piccolo e più specifico correlato all'attività: in questo modo, il modello può imparare a riconoscere modelli più sfumati nei dati specifici dell'attività, portando a prestazioni migliori.

La messa a punto può far risparmiare tempo e risorse utilizzando modelli generali invece di addestrarne di nuovi da zero e può anche ridurre il rischio di overfitting, in cui il modello ha appreso molto bene le caratteristiche di un piccolo set di addestramento, ma non è in grado generalizzare ad altri dati.

Reti avversarie generative (GAN)

Una classe di algoritmi AI utilizzati nell'apprendimento automatico non supervisionato in cui due reti neurali competono tra loro. I GAN sono composti da due parti: un modello generatore addestrato per generare nuovi esempi di dati plausibili e un modello discriminatore che cerca di classificare gli esempi come dati reali o dati falsi (generati). I due modelli quindi competono l'uno contro l'altro fino a quando il discriminatore peggiora nel distinguere tra reale e falso e inizia a classificare i dati falsi come reali.

IA generativa

Un tipo di intelligenza artificiale in grado di creare un'ampia varietà di contenuti, tra cui testo, immagini, video e codice informatico, identificando modelli in grandi quantità di dati di addestramento e generando output unici che assomigliano ai dati originali. A differenza di altre forme di IA basate su regole, gli algoritmi di IA generativa utilizzano modelli di deep learning per generare nuovi output che non sono esplicitamente programmati o predefiniti.

L'IA generativa è in grado di produrre contenuti altamente realistici e complessi che imitano la creatività umana, rendendola uno strumento prezioso per un'ampia gamma di applicazioni, come la generazione di immagini e video, l'elaborazione del linguaggio naturale e la composizione musicale. Gli esempi includono recenti scoperte come ChatGPT per il testo e DALL-E e Midjourney per le immagini.

Trasformatore generativo pre-addestrato (GPT)

I trasformatori generativi pre-addestrati, o GPT, sono una famiglia di modelli di reti neurali addestrati con centinaia di miliardi di parametri su enormi set di dati per generare testo simile a quello umano. Si basano sull'architettura del trasformatore, introdotta dai ricercatori di Google nel 2017, che consente ai modelli di comprendere e applicare meglio il contesto in cui le parole e le espressioni vengono utilizzate e di occuparsi selettivamente di diverse parti dell'input, concentrandosi su parole o frasi rilevanti che percepisce come più importante per il risultato. Sono in grado di generare risposte lunghe, non solo la parola successiva in una sequenza.

La famiglia di modelli GPT è considerata i modelli linguistici più grandi e complessi fino ad oggi. In genere vengono utilizzati per rispondere a domande, riassumere testo, generare codice, conversazioni, storie e molte altre attività di elaborazione del linguaggio naturale, rendendoli adatti a prodotti come chatbot e assistenti virtuali.

Nel novembre 2022, OpenAI ha rilasciato ChatGPT, un chatbot basato su GPT-3.5, che ha preso d'assalto il mondo, con tutti che accorrevano per provarlo. E l'hype è reale: i progressi più recenti in GPT hanno persino reso la tecnologia non solo fattibile per impostazioni aziendali come il servizio clienti, ma in realtà trasformativa.

Allucinazioni

Un fenomeno sfortunato ma ben noto nei modelli di linguaggio di grandi dimensioni, in cui il sistema di intelligenza artificiale fornisce una risposta dall'aspetto plausibile che è di fatto errata, imprecisa o priva di senso a causa delle limitazioni nei dati di addestramento e nell'architettura.

Un esempio comune potrebbe essere quando a un modello viene posta una domanda fattuale su qualcosa su cui non è stato addestrato e invece di dire "non lo so" inventerà qualcosa. Alleviare il problema delle allucinazioni è un'area di ricerca attiva e qualcosa che dovremmo sempre tenere a mente quando si valuta la risposta di qualsiasi modello di linguaggio esteso (LLM).

Modello di lingua grande (LLM)

Gli LLM sono un tipo di rete neurale in grado di generare testo in linguaggio naturale simile al testo scritto da esseri umani. Questi modelli sono in genere addestrati su enormi set di dati di centinaia di miliardi di parole da libri, articoli, pagine Web, ecc. e utilizzano il deep learning per comprendere i modelli complessi e le relazioni tra le parole per generare o prevedere nuovi contenuti.

Mentre gli algoritmi NLP tradizionali in genere guardano solo al contesto immediato delle parole, gli LLM considerano ampie porzioni di testo per comprendere meglio il contesto. Esistono diversi tipi di LLM, inclusi modelli come GPT di OpenAI.

Agenti LLM (ad es. AutoGPT, LangChain)

Da soli, gli LLM prendono il testo come input e forniscono più testo come output. Gli agenti sono sistemi costruiti su un LLM che offre loro l'agenzia per prendere decisioni, operare in modo autonomo e pianificare ed eseguire attività senza intervento umano. Gli agenti lavorano utilizzando la potenza degli LLM per tradurre istruzioni linguistiche di alto livello nelle azioni o nel codice specifici necessari per eseguirle.

Attualmente c'è un'esplosione di interesse e sviluppo in Agents. Strumenti come AutoGPT stanno abilitando applicazioni entusiasmanti come "esecutori di elenchi di attività" che prenderanno un elenco di attività come input e proveranno effettivamente a svolgere le attività per te.

Apprendimento automatico (ML)

Un sottocampo dell'intelligenza artificiale che prevede lo sviluppo di algoritmi e modelli statistici che consentono alle macchine di migliorare progressivamente le proprie prestazioni in un'attività specifica senza essere esplicitamente programmate per farlo. In altre parole, la macchina "impara" dai dati e man mano che elabora più dati, diventa più brava a fare previsioni o eseguire compiti specifici.

Esistono tre tipi principali di apprendimento automatico: apprendimento supervisionato, apprendimento non supervisionato e apprendimento per rinforzo.

  • L'apprendimento supervisionato è un approccio di apprendimento automatico che utilizza set di dati etichettati progettati per addestrare gli algoritmi a classificare i dati o prevedere i risultati in modo accurato. Ad esempio, se fornisci una serie di immagini etichettate di cani e gatti, un modello sarà in grado di prevedere nuove immagini non etichettate di cani e gatti;
  • L'apprendimento non supervisionato cerca modelli non rilevati in un set di dati senza etichette preesistenti o programmazione specifica e con una supervisione umana minima;
  • L'apprendimento per rinforzo implica l'addestramento di un modello per prendere decisioni basate sul feedback dal suo ambiente. Impara a intraprendere azioni che massimizzano un segnale di ricompensa, come vincere una partita o completare un'attività.

Elaborazione del linguaggio naturale (PNL)

La PNL è una branca dell'intelligenza artificiale che si concentra sull'interazione tra linguaggio umano e computer. Combina la modellazione basata su regole del linguaggio umano con modelli statistici, di machine learning e deep learning, tipicamente addestrati utilizzando grandi quantità di dati, che consentono ai computer di elaborare, comprendere e generare il linguaggio umano.

Le sue applicazioni sono progettate per analizzare, comprendere e generare il linguaggio umano, inclusi testo e parlato. Alcune attività NLP comuni includono la traduzione in lingua, l'analisi del sentimento, il riconoscimento vocale, la classificazione del testo, il riconoscimento di entità denominate e il riepilogo del testo.

Reti neurali

Le reti neurali sono un sottocampo dell'apprendimento automatico proposto nel 1944 da due ricercatori di Chicago, Warren McCullough e Walter Pitts, modellato sulla struttura del cervello umano. Consiste di strati di nodi interconnessi, o neuroni, che elaborano e analizzano i dati per fare previsioni o decisioni: ogni strato riceve input dai nodi nel livello precedente e produce output che vengono inviati ai nodi nel livello successivo. L'ultimo livello, quindi, emette i risultati.

Sono stati utilizzati per un'ampia gamma di applicazioni, tra cui il riconoscimento di immagini e parlato, l'elaborazione del linguaggio naturale e la modellazione predittiva.

Ingegneria tempestiva

Un prompt è un insieme di istruzioni scritte come testo o codice che fornisci come input a un LLM per produrre output significativi e può essere semplice come una domanda. L'ingegneria del prompt è l'abilità (o l'arte, alcuni direbbero) di creare prompt efficaci che produrranno il miglior risultato possibile per una determinata attività. Richiede una comprensione di come funzionano i modelli linguistici di grandi dimensioni (LLM), i dati su cui vengono addestrati e i loro punti di forza e limiti.

Apprendimento di rinforzo dal feedback umano (RLHF)

RLHF si riferisce al processo di utilizzo del feedback umano esplicito per addestrare il modello di ricompensa di un sistema di apprendimento per rinforzo. Nel contesto di un LLM, potrebbe trattarsi di esseri umani che classificano gli output del LLM e scelgono le risposte che preferiscono: questo viene quindi utilizzato per addestrare un'altra rete neurale, chiamata modello di ricompensa, che può prevedere se una data risposta sarà desiderabile per umani. Il modello di ricompensa viene quindi utilizzato per mettere a punto l'LMM per produrre un output che sia meglio in linea con le preferenze umane.

Si ritiene che queste tecniche siano un passo di grande impatto nello sviluppo di LLM come ChatGPT che hanno visto progressi rivoluzionari nelle loro capacità.

Trasformatore

Un trasformatore è un tipo di architettura di rete neurale profonda costituita da più componenti codificatore e decodificatore combinati in modo tale da consentire l'elaborazione di dati sequenziali come il linguaggio naturale e le serie temporali.


Questi sono solo alcuni dei termini più comuni nell'IA che potresti incontrare. Indubbiamente, glossari come questi saranno per sempre un progetto in corso: man mano che la tecnologia continua ad evolversi, nuovi termini e idee continueranno a emergere. Ma per ora, comprendendo questi concetti, puoi costruire una solida base che ti aiuterà a stare al passo con gli ultimi sviluppi.

Fin lista d'attesa