Folgende Übersicht soll etwas Orientierung im Dschungel der KI-Begriffe geben:
Künstliche Intelligenz (KI) ist ein Sammelbegriff für die Fähigkeit von Maschinen, Verhalten zu imitieren, das normalerweise menschliches Denken erfordert. Beispielsweise können solche Maschinen lernen, Muster erkennen, entscheiden, problemlösen, wahrnehmen oder Sprache verstehen. Vielfältige Technologien werden eingesetzt, um künstliche Intelligenz zu erreichen, darunter Machine Learning.
Machine Learning (ML) ist ein Teilbereich der KI, der sich darauf konzentriert, Algorithmen und statistische Modelle zu entwickeln. Statt explizit programmiert zu werden, lernen ML-Modelle aus Daten, um für neue ungesehene Fälle Vorhersagen machen zu können.
Ein Beispiel: Ein ML-Modell kann trainiert werden, Spam-E-Mails zu erkennen, indem man beim Training zwei Gruppen zeigt: Millionen von Spam- und Millionen von normalen E-Mails. So lernt das Modell diese zu unterscheiden. Nach dem Training erkennt es neue Spam-Mails, ohne dass diese explizit definiert wurden.
Transformer sind eine bahnbrechende Modell-Architektur im Bereich des Machine Learnings (siehe oben). Der Transformer “transformiert” eine Eingabe in eine bestimmte Ausgabe. Er besteht aus einem Encoder, welcher die Eingabe liest und versteht und aus einem Decoder, welcher die Ausgabe erzeugt. Ein Mechanismus, der “Attention” genannt wird, hilft dabei, die wichtigsten Tokens gezielt zu berücksichtigen. Transformer revolutionierten die KI-Welt mit ihrer Fähigkeit, den Kontext und die Beziehungen zwischen Wörtern besser zu erfassen. Damit können sie verschiedenste Aufgaben lösen, wie beispielsweise Textübersetzung oder Erstellen von neuen Texten.
Beispiel: Ein Tranformer kann die Eingabe “Wie geht es dir?” zur Ausgabe “How are you?” transformieren. Erinnerst du dich noch an die Anfangszeiten von Google Translate? Die Übersetzungen boten im besten Fall gute Unterhaltung. Mit der Entwicklung des Transformers 2017 machte die Qualität schlagartig einen riesigen Sprung in grammatischer Korrektheit und Natürlichkeit der Übersetzungen.
Large Language Models (LLMs) sind spezialisierte KI-Modelle, die auf riesigen Textmengen trainiert wurden. Ihnen liegt ebenfalls die Transformer Architektur und komplexe Trainingsabläufe zugrunde. Stark vereinfacht könnte man sagen, ein LLM lernt, in einem beliebigen Text das wahrscheinlichste nächste Wort vorherzusagen. Schlussendlich können die Modelle überraschend menschenähnliche Texte generieren und verschiedenste Aufgaben bewältigen, wie beispielsweise komplexe Fragen beantworten, programmieren oder Texte zusammenfassen.
"You shall know a word by the company it keeps" – John Rupert Firth
Dieser Satz beschreibt treffend, wie LLMs Sprache analysieren: Die Bedeutung eines Wortes ergibt sich aus dem Kontext, in dem es verwendet wird. (Übersetzung: „Die Bedeutung eines Wortes erkennt man an den Wörtern, die es umgeben.“)
Am bekanntesten sind die GPT-Modelle von OpenAI, es gibt aber auch Modelle von anderen Anbietern wie beispielsweise die Claude-Modellreihe von Anthrophic, die Llama-Modelle von Meta oder die Modelle von DeepSeek.
Beispiel: Wenn du eine Frage wie "Wie funktioniert ein Solar-Panel?" stellst, liefert ein LLM eine ausführliche und gut formulierte Antwort.
Das Context Window beschreibt die maximale Textlänge, die ein KI-Modell auf einmal verarbeiten kann. Diese wird in Anzahl Tokens gemessen.
Beispiel: Wenn du also ein ganzes Dokument in ChatGPT lädst, kann es sein, dass es zu lange ist, wenn dein Dokument mehr Tokens zählt, als ChatGPT verarbeiten kann.
Prompts sind die Eingaben, die du einem Modell gibst, um eine Antwort zu erhalten. Die Optimierung dieser Eingaben für bessere und konsistentere Ergebnisse nennt man "Prompt Engineering".
Beispiel:
Einfacher Prompt: "Fasse diese Kundenbeschwerde zusammen."
Besserer Prompt: "1. Fasse diese Kundenbeschwerde in einem Satz zusammen. 2. Schlage eine Lösung in maximal zwei Sätzen vor."
Chain of Thought (CoT) bezeichnet die Methode, Modelle dazu zu bringen, ihre Denkprozesse in mehreren Schritten zu erklären. Dies simuliert in gewisser Weise den normalen menschlichen Denkprozess, denn auf eine komplexe Frage antworten wir nicht direkt mit der Lösung, sondern denken oder schreiben uns einen Lösungsweg auf. In der Forschung konnte gezeigt werden, dass mit dieser Methode die Modelle zuverlässiger richtige Antworten geben. Zudem erleichtert die Technik die Überprüfung der Richtigkeit der Antworten.
Anwendung: Um komplexere Anfragen bearbeiten zu können, weisen wir das Modell nun an, seine Lösung Schritt für Schritt zu erarbeiten. Z.B: "Ein Kunde fragt: 'Ich habe meine Bestellung nicht erhalten. Was soll ich tun?' Überlege Schritt für Schritt, wie du die beste Antwort finden kannst, und erkläre deinen Denkprozess."
Zero-Shot Learning bedeutet, dass ein Modell eine Aufgabe bewältigt, ohne für diese Aufgabe trainiert worden zu sein.
Beim Few-Shot Learning hingegen werden dem Modell wenige Beispiele einer Aufgabe gezeigt. Few-Shot Prompts, also Prompts mit einigen Beispielen, erhöhen in der Regel die Antwortqualität im Vergleich zu Zero-Shot Prompts. Obwohl hier das Wort "Learning" verwendet wird, wird dabei das Modell nicht trainiert, sondern nur der Prompt angepasst.
In beidem – Zero- und Few-Shot - sind LLMs wahre Meister, was sie so vielseitig einsetzbar macht.
Beispiel: Ein KI-gestütztes Support-System kann mit wenigen Beispielen lernen, auf Anfragen konsistenter zu antworten.
Retrieval-Augmented Generation (RAG) ist eine KI-Technologie, die LLMs mit externen Wissensquellen kombiniert, um präzisere, aktuellere und kontextuell relevantere Antworten zu generieren. Dabei werden anhand der User Anfrage relevante Dokumente aus einer Wissensdatenbank wie ein Firmen-internes Wiki oder eine Produkt-Dokumentation abgerufen und dem LLM zusammen mit dem Prompt für die Generierung der Antwort zur Verfügung gestellt.
Anwendung: In der Wissensdatenbank hinterlegen wir alte Support-Fälle, Benutzerhandbücher und Reglemente, welche dann verwendet werden, um genaue Antworten zu liefern.
Fine-Tuning bedeutet, ein vortrainiertes Modell mit spezifischen Daten weiter anzupassen, um eine bestimmte Aufgabe besser zu bewältigen oder ein Antwortformat oder einen Schreibstil einzuhalten.
Beispiel: Unternehmen können ihr LLM mit eigenen Kundensupport-Daten und FAQs trainieren, damit es typische Probleme besser versteht und im gewünschten markenspezifischen Stil antwortet. In der Medizin wird Fine-Tuning genutzt, um KI-Modelle auf Fachliteratur und Patientenakten zu trainieren, damit sie Ärzte bei der Diagnosestellung unterstützen.
Der Begriff "KI-Agent" wird nicht einheitlich verwendet. Allgemein beschreibt er eine spezialisierte KI-Anwendung, die in einer bestimmten Umgebung eigenständig Entscheidungen trifft oder Aufgaben ausführt, um ein definiertes Ziel zu erreichen. Das Spektrum reicht von einfachen Anwendungen, bei denen ein LLM entscheidet, wann es zusätzliche Daten abfragen muss, bis hin zu komplexen Systemen, die Daten aus verschiedenen Quellen auswerten und selbstständig Aktionen wie Einkäufe oder Nachrichtenversand umsetzen.
Anwendung: Im Support kann ein KI-Agent eigenständig erkennen, welche Anfragen dringend sind, und diese priorisieren oder automatisch eine Antwort versenden, wenn das Problem einfach ist.
Mit diesem Verständnis der grundlegenden Begriffe und Methoden bist du bestens gerüstet, zukünftig sicher durch Gespräche über KI zu navigieren . Falls du noch tiefer in die Materie eintauchen möchtest, findest du auf unserer Website weitere Artikel zu aktuellen KI-Entwicklungen und Anwendungsfällen.
Gibt es weitere Begriffe, die du gerne erklärt haben möchtest? Kontaktiere uns und lass es uns wissen!