Glossar der KI-Begriffe: GPT, neuronale Netze und mehr verstehen

Veröffentlicht: 2023-06-01

Sie interessieren sich für die Möglichkeiten der KI, haben aber Schwierigkeiten, sich mit dem ganzen Fachjargon zurechtzufinden? Unser KI-Glossar hilft Ihnen, die wichtigsten Begriffe und Konzepte zu verstehen.

KI entwickelt sich ständig weiter und erweitert sich, jede Woche entstehen neue Entwicklungen und Anwendungen – und es fühlt sich an, als ob sich die Menge an Fachjargon, mit der man Schritt halten muss, genauso schnell entwickelt.

Alles in allem kann es etwas überwältigend sein. Deshalb haben wir eine Liste mit Konzepten und Begriffen zusammengestellt, die Ihnen helfen sollen, die schöne neue Welt der künstlichen Intelligenz besser zu verstehen.

Wenn Sie mehr von unseren Inhalten zum Thema KI und Automatisierung in Ihrem Posteingang erhalten möchten, abonnieren Sie unbedingt unseren regelmäßigen Newsletter.


Künstliche Intelligenz (KI)

Unter KI versteht man die Schaffung intelligenter Maschinen, die in der Lage sind, komplexe Aufgaben auszuführen, die typischerweise Intelligenz auf menschlicher Ebene erfordern, wie etwa visuelle Wahrnehmung, Spracherkennung, Entscheidungsfindung und Sprachübersetzung. KI-Systeme können darauf trainiert werden, im Laufe der Zeit zu lernen und ihre Leistung zu verbessern, sodass sie komplexere Aufgaben effizienter und genauer erledigen können.

Tiefes Lernen

Unter Deep Learning versteht man Methoden zum Training neuronaler Netze mit mehr als einer Schicht, wobei jede Schicht unterschiedliche Abstraktionsebenen darstellt. Typischerweise werden diese tiefen Netzwerke auf große Datensätze trainiert, um Vorhersagen oder Entscheidungen über Daten zu treffen.

Ein neuronales Netzwerk mit einer einzigen Schicht kann möglicherweise ungefähre Vorhersagen treffen, aber zusätzliche Schichten können zur Verbesserung der Genauigkeit beitragen – jede baut auf der vorherigen Schicht auf, um die Vorhersagen zu optimieren und zu verfeinern.

Deep-Learning-Algorithmen sind äußerst effektiv bei der Verarbeitung komplexer und unstrukturierter Daten wie Bilder, Audio und Text und haben erhebliche Fortschritte in einer Vielzahl von Anwendungen wie der Verarbeitung natürlicher Sprache, der Spracherkennung und Bilderkennungssystemen einschließlich Gesichtserkennung ermöglicht , selbstfahrende Autos usw.

Einbetten

Eine Einbettung in den Kontext der Verarbeitung natürlicher Sprache (NLP) ist ein Rezept zur Umwandlung von Text variabler Länge in eine Reihe von Zahlen fester Länge. Normalerweise behält diese Zahlenmenge in gewissem Sinne ihre semantische Bedeutung bei – beispielsweise liegen die Zahlen für „Hund“ und „Tier“ im mathematischen Sinne nahe beieinander. Dies ermöglicht eine effiziente Textverarbeitung durch NLP-Algorithmen.

Encoder- und Decodernetzwerke

Hierbei handelt es sich um Architekturen tiefer neuronaler Netzwerke, deren Aufgabe darin besteht, eine gegebene Eingabe, beispielsweise Text, in eine numerische Darstellung, beispielsweise einen Zahlensatz fester Länge (Encoder), umzuwandeln und diese Zahlen auch wieder in eine gewünschte Ausgabe (Decoder) umzuwandeln ).

Sie werden sehr häufig bei der Verarbeitung natürlicher Sprache wie der maschinellen Übersetzung eingesetzt.

Feinabstimmung

Der Prozess der Anpassung eines vorab trainierten Modells an eine bestimmte Aufgabe, indem es anhand eines neuen Datensatzes trainiert wird. Dieses Modell wird zunächst an einem großen, allgemeinen Datensatz und dann an einem kleineren, spezifischeren Datensatz im Zusammenhang mit der Aufgabe trainiert. Auf diese Weise kann das Modell lernen, differenziertere Muster in den für die Aufgabe spezifischen Daten zu erkennen, was zu einer besseren Leistung führt.

Durch die Feinabstimmung können Zeit und Ressourcen gespart werden, indem allgemeine Modelle verwendet werden, anstatt neue Modelle von Grund auf zu trainieren. Außerdem kann sie das Risiko einer Überanpassung verringern, bei der das Modell die Funktionen eines kleinen Trainingssatzes sehr gut erlernt hat, dies jedoch nicht kann auf andere Daten zu verallgemeinern.

Generative gegnerische Netzwerke (GANs)

Eine Klasse von KI-Algorithmen, die beim unbeaufsichtigten maschinellen Lernen verwendet werden, bei dem zwei neuronale Netze miteinander konkurrieren. GANs bestehen aus zwei Teilen: einem Generatormodell, das darauf trainiert wird, neue Beispiele plausibler Daten zu generieren, und einem Diskriminatormodell, das versucht, Beispiele entweder als echte Daten oder gefälschte (generierte) Daten zu klassifizieren. Die beiden Modelle konkurrieren dann gegeneinander, bis der Diskriminator den Unterschied zwischen echt und gefälscht schlechter erkennt und anfängt, gefälschte Daten als echt zu klassifizieren.

Generative KI

Eine Art künstlicher Intelligenz, die eine Vielzahl von Inhalten – einschließlich Text, Bilder, Videos und Computercode – erstellen kann, indem sie Muster in großen Mengen von Trainingsdaten identifiziert und einzigartige Ausgaben generiert, die den Originaldaten ähneln. Im Gegensatz zu anderen Formen der KI, die auf Regeln basieren, nutzen generative KI-Algorithmen Deep-Learning-Modelle, um neuartige Ergebnisse zu generieren, die nicht explizit programmiert oder vordefiniert sind.

Generative KI ist in der Lage, äußerst realistische und komplexe Inhalte zu produzieren, die die menschliche Kreativität nachahmen, was sie zu einem wertvollen Werkzeug für eine Vielzahl von Anwendungen macht, wie z. B. die Bild- und Videogenerierung, die Verarbeitung natürlicher Sprache und die Musikkomposition. Beispiele hierfür sind aktuelle Durchbrüche wie ChatGPT für Text und DALL-E und Midjourney für Bilder.

Generativer vorab trainierter Transformator (GPT)

Generative Pre-Trained Transformers (GPTs) sind eine Familie neuronaler Netzwerkmodelle, die mit Hunderten von Milliarden Parametern auf riesigen Datensätzen trainiert werden, um menschenähnlichen Text zu generieren. Sie basieren auf der von Google-Forschern im Jahr 2017 eingeführten Transformer-Architektur, die es den Modellen ermöglicht, den Kontext, in dem Wörter und Ausdrücke verwendet werden, besser zu verstehen und anzuwenden und sich gezielt auf verschiedene Teile der Eingabe zu konzentrieren – wobei der Schwerpunkt auf relevanten Wörtern oder Phrasen liegt es wird als wichtiger für das Ergebnis wahrgenommen. Sie sind in der Lage, lange Antworten zu generieren, nicht nur das nächste Wort in einer Sequenz.

Die GPT-Modellfamilie gilt als das bislang größte und komplexeste Sprachmodell. Sie werden in der Regel zum Beantworten von Fragen, zum Zusammenfassen von Texten, zum Generieren von Code, für Konversationen, Geschichten und für viele andere Aufgaben zur Verarbeitung natürlicher Sprache verwendet. Daher eignen sie sich gut für Produkte wie Chatbots und virtuelle Assistenten.

Im November 2022 veröffentlichte OpenAI ChatGPT, einen auf GPT-3.5 basierenden Chatbot, der die Welt im Sturm eroberte und alle strömten herbei, um ihn auszuprobieren. Und der Hype ist real: Jüngste Fortschritte bei GPT haben die Technologie sogar nicht nur für Geschäftsumgebungen wie den Kundenservice nutzbar gemacht, sondern sogar zu einem Wandel geführt.

Halluzinationen

Ein bedauerliches, aber bekanntes Phänomen bei großen Sprachmodellen, bei dem das KI-System eine plausibel aussehende Antwort liefert, die aufgrund von Einschränkungen in seinen Trainingsdaten und seiner Architektur sachlich falsch, ungenau oder unsinnig ist.

Ein häufiges Beispiel wäre, wenn einem Model eine sachliche Frage zu etwas gestellt wird, für das es nicht geschult wurde, und anstatt „Ich weiß nicht“ zu sagen, erfindet es etwas. Die Linderung des Problems der Halluzinationen ist ein aktives Forschungsgebiet und etwas, das wir immer im Auge behalten sollten, wenn wir die Reaktion eines großen Sprachmodells (LLM) bewerten.

Großes Sprachmodell (LLM)

LLMs sind eine Art neuronales Netzwerk, das in der Lage ist, Text in natürlicher Sprache zu erzeugen, der dem von Menschen geschriebenen Text ähnelt. Diese Modelle werden typischerweise auf riesigen Datensätzen von Hunderten Milliarden Wörtern aus Büchern, Artikeln, Webseiten usw. trainiert und nutzen Deep Learning, um die komplexen Muster und Beziehungen zwischen Wörtern zu verstehen und neue Inhalte zu generieren oder vorherzusagen.

Während herkömmliche NLP-Algorithmen normalerweise nur den unmittelbaren Kontext von Wörtern betrachten, berücksichtigen LLMs große Textabschnitte, um den Kontext besser zu verstehen. Es gibt verschiedene Arten von LLMs, darunter Modelle wie das GPT von OpenAI.

LLM-Agenten (z. B. AutoGPT, LangChain)

Für sich genommen nehmen LLMs Text als Eingabe und stellen mehr Text als Ausgabe bereit. Agenten sind Systeme, die auf einem LLM aufbauen und ihnen die Möglichkeit geben, Entscheidungen zu treffen, autonom zu agieren sowie Aufgaben ohne menschliches Eingreifen zu planen und auszuführen. Agenten nutzen die Leistungsfähigkeit von LLMs, um hochsprachliche Anweisungen in die spezifischen Aktionen oder Codes zu übersetzen, die für ihre Ausführung erforderlich sind.

Derzeit gibt es eine Explosion des Interesses und der Entwicklung im Bereich Agenten. Tools wie AutoGPT ermöglichen spannende Anwendungen wie „Task List Doers“, die eine Aufgabenliste als Eingabe verwenden und tatsächlich versuchen, die Aufgaben für Sie zu erledigen.

Maschinelles Lernen (ML)

Ein Teilbereich der KI, der die Entwicklung von Algorithmen und statistischen Modellen umfasst, die es Maschinen ermöglichen, ihre Leistung bei einer bestimmten Aufgabe schrittweise zu verbessern, ohne explizit dafür programmiert zu werden. Mit anderen Worten: Die Maschine „lernt“ aus Daten, und je mehr Daten sie verarbeitet, desto besser kann sie Vorhersagen treffen oder bestimmte Aufgaben ausführen.

Es gibt drei Haupttypen des maschinellen Lernens: überwachtes Lernen, unüberwachtes Lernen und verstärkendes Lernen.

  • Überwachtes Lernen ist ein Ansatz des maschinellen Lernens, der gekennzeichnete Datensätze verwendet, um Algorithmen darin zu trainieren, Daten zu klassifizieren oder Ergebnisse genau vorherzusagen. Wenn Sie beispielsweise eine Reihe beschrifteter Bilder von Katzen und Hunden bereitstellen, kann ein Modell neue, unbeschriftete Bilder von Katzen und Hunden vorhersagen;
  • Unüberwachtes Lernen sucht nach unentdeckten Mustern in einem Datensatz ohne bereits vorhandene Etiketten oder spezifische Programmierung und mit minimaler menschlicher Aufsicht;
  • Beim Reinforcement Learning wird ein Modell trainiert, Entscheidungen auf der Grundlage des Feedbacks seiner Umgebung zu treffen. Es lernt, Maßnahmen zu ergreifen, die ein Belohnungssignal maximieren, z. B. ein Spiel zu gewinnen oder eine Aufgabe zu erledigen.

Verarbeitung natürlicher Sprache (NLP)

NLP ist ein Zweig der KI, der sich auf die Interaktion zwischen menschlicher Sprache und Computern konzentriert. Es kombiniert regelbasierte Modellierung der menschlichen Sprache mit statistischen, maschinellen Lern- und Deep-Learning-Modellen, die typischerweise mithilfe großer Datenmengen trainiert werden und es Computern ermöglichen, menschliche Sprache zu verarbeiten, zu verstehen und zu generieren.

Seine Anwendungen sind darauf ausgelegt, menschliche Sprache, einschließlich Text und Sprache, zu analysieren, zu verstehen und zu generieren. Zu den gängigen NLP-Aufgaben gehören Sprachübersetzung, Stimmungsanalyse, Spracherkennung, Textklassifizierung, Erkennung benannter Entitäten und Textzusammenfassung.

Neuronale Netze

Neuronale Netze sind ein Teilgebiet des maschinellen Lernens, das 1944 von den beiden Chicagoer Forschern Warren McCullough und Walter Pitts vorgeschlagen wurde und der Struktur des menschlichen Gehirns nachempfunden ist. Es besteht aus Schichten miteinander verbundener Knoten oder Neuronen, die Daten verarbeiten und analysieren, um Vorhersagen oder Entscheidungen zu treffen: Jede Schicht empfängt Eingaben von Knoten in der vorherigen Schicht und erzeugt Ausgaben, die an Knoten in der nächsten Schicht weitergeleitet werden. Die letzte Ebene gibt dann die Ergebnisse aus.

Sie werden für eine Vielzahl von Anwendungen eingesetzt, darunter Bild- und Spracherkennung, Verarbeitung natürlicher Sprache und prädiktive Modellierung.

Prompte Technik

Bei einer Eingabeaufforderung handelt es sich um eine Reihe von Anweisungen, die als Text oder Code geschrieben sind und die Sie einem LLM als Eingabe zur Verfügung stellen, um sinnvolle Ausgaben zu erzielen. Sie können so einfach wie eine Frage sein. Unter Prompt Engineering versteht man die Fähigkeit (oder die Kunst, wie manche meinen), effektive Eingabeaufforderungen zu erstellen, die für eine bestimmte Aufgabe die bestmögliche Ausgabe liefern. Es erfordert ein Verständnis dafür, wie große Sprachmodelle (LLMs) funktionieren, auf welchen Daten sie trainiert werden und welche Stärken und Grenzen sie haben.

Verstärkungslernen aus menschlichem Feedback (RLHF)

RLHF bezieht sich auf den Prozess der Nutzung expliziten menschlichen Feedbacks, um das Belohnungsmodell eines Reinforcement-Learning-Systems zu trainieren. Im Kontext eines LLM könnte es sich dabei um Menschen handeln, die die Ergebnisse des LLM ordnen und die von ihnen bevorzugten Antworten auswählen. Dies wird dann verwendet, um ein anderes neuronales Netzwerk, ein sogenanntes Belohnungsmodell, zu trainieren, das vorhersagen kann, ob eine bestimmte Antwort wünschenswert sein wird Menschen. Das Belohnungsmodell wird dann zur Feinabstimmung des LMM verwendet, um eine Ausgabe zu erzeugen, die besser auf die menschlichen Vorlieben abgestimmt ist.

Man geht davon aus, dass diese Techniken einen äußerst wirkungsvollen Schritt in der Entwicklung von LLMs wie ChatGPT darstellen, deren Fähigkeiten bahnbrechende Fortschritte gemacht haben.

Transformator

Ein Transformator ist eine Art tiefe neuronale Netzwerkarchitektur, die aus mehreren Encoder- und Decoderkomponenten besteht, die so kombiniert werden, dass sie die Verarbeitung sequentieller Daten wie natürlicher Sprache und Zeitreihen ermöglichen.


Dies sind nur einige der häufigsten Begriffe im Bereich KI, denen Sie wahrscheinlich begegnen werden. Zweifellos werden Glossare wie diese für immer ein fortlaufendes Projekt bleiben – da sich die Technologie weiterentwickelt, werden immer wieder neue Begriffe und Ideen entstehen. Aber durch das Verständnis dieser Konzepte können Sie zunächst eine solide Grundlage schaffen, die Ihnen hilft, mit den neuesten Entwicklungen Schritt zu halten.

Fin-Warteliste