Teilen

24. Februar 2025

Warum Agenten nichts mit James Bond zu tun haben – Ein KI-Glossar

Künstliche Intelligenz (KI) prägt zunehmend unseren Arbeitsalltag und ist gekommen, um zu bleiben. Bei dem rasanten Tempo, den ständigen Nachrichten zu neuen Entwicklungen und der Flut an Fachbegriffen kann man schnell den Überblick verlieren.

Hast du bei den Worten «Transformer» und «Agenten» auch erst mal an James Bond und die Transformer-Filmreihe gedacht? In diesem Blog-Artikel bringen wir Ordnung ins Chaos und erklären die wichtigsten Begriffe, die früher oder später in jedem Gespräch über KI auftauchen.

13 KI-Begriffe, die du kennen solltest

Folgende Übersicht soll etwas Orientierung im Dschungel der KI-Begriffe geben:

1. Künstliche Intelligenz (KI) – Das grosse Ganze

Künstliche Intelligenz (KI) ist ein Sammelbegriff für die Fähigkeit von Maschinen, Verhalten zu imitieren, das normalerweise menschliches Denken erfordert. Beispielsweise können solche Maschinen lernen, Muster erkennen, entscheiden, problemlösen, wahrnehmen oder Sprache verstehen. Vielfältige Technologien werden eingesetzt, um künstliche Intelligenz zu erreichen, darunter Machine Learning.

2. Machine Learning – Maschinen, die lernen

Machine Learning (ML) ist ein Teilbereich der KI, der sich darauf konzentriert, Algorithmen und statistische Modelle zu entwickeln. Statt explizit programmiert zu werden, lernen ML-Modelle aus Daten, um für neue ungesehene Fälle Vorhersagen machen zu können.

Ein Beispiel: Ein ML-Modell kann trainiert werden, Spam-E-Mails zu erkennen, indem man beim Training zwei Gruppen zeigt: Millionen von Spam- und Millionen von normalen E-Mails. So lernt das Modell diese zu unterscheiden. Nach dem Training erkennt es neue Spam-Mails, ohne dass diese explizit definiert wurden.

Panda isst Pizza

Generative KI bezeichnet Modelle, die neue Inhalte erstellen können – Texte, Bilder, Sprache, Musik und mehr.

3. Generative KI – Die kreative Maschine

Beispiel: DALL-E, ein generatives KI-Modell, kann ein Bild erstellen, das auf einer textlichen Beschreibung basiert, wie "Ein Panda, der eine Pizza isst, gemalt im Stil von Van Gogh".

Abbildung 1: chatGPT generiert ein Bild "Ein Panda, der eine Pizza isst, gemalt im Stil von Van Gogh"

4. Transformer – Der Gamechanger der KI

Transformer sind eine bahnbrechende Modell-Architektur im Bereich des Machine Learnings (siehe oben). Der Transformer “transformiert” eine Eingabe in eine bestimmte Ausgabe. Er besteht aus einem Encoder, welcher die Eingabe liest und versteht und aus einem Decoder, welcher die Ausgabe erzeugt. Ein Mechanismus, der “Attention” genannt wird, hilft dabei, die wichtigsten Tokens gezielt zu berücksichtigen. Transformer revolutionierten die KI-Welt mit ihrer Fähigkeit, den Kontext und die Beziehungen zwischen Wörtern besser zu erfassen. Damit können sie verschiedenste Aufgaben lösen, wie beispielsweise Textübersetzung oder Erstellen von neuen Texten. 

Beispiel: Ein Tranformer kann die Eingabe “Wie geht es dir?” zur Ausgabe “How are you?” transformieren. Erinnerst du dich noch an die Anfangszeiten von Google Translate? Die Übersetzungen boten im besten Fall gute Unterhaltung. Mit der Entwicklung des Transformers 2017 machte die Qualität schlagartig einen riesigen Sprung in grammatischer Korrektheit und Natürlichkeit der Übersetzungen.

5. Large Language Models (LLMs) – Die Sprachgenies

Large Language Models (LLMs) sind spezialisierte KI-Modelle, die auf riesigen Textmengen trainiert wurden. Ihnen liegt ebenfalls die Transformer Architektur und komplexe Trainingsabläufe zugrunde. Stark vereinfacht könnte man sagen, ein LLM lernt, in einem beliebigen Text das wahrscheinlichste nächste Wort vorherzusagen. Schlussendlich können die Modelle überraschend menschenähnliche Texte generieren und verschiedenste Aufgaben bewältigen, wie beispielsweise komplexe Fragen beantworten, programmieren oder Texte zusammenfassen.

"You shall know a word by the company it keeps" – John Rupert Firth

Dieser Satz beschreibt treffend, wie LLMs Sprache analysieren: Die Bedeutung eines Wortes ergibt sich aus dem Kontext, in dem es verwendet wird. (Übersetzung: „Die Bedeutung eines Wortes erkennt man an den Wörtern, die es umgeben.“)

Am bekanntesten sind die GPT-Modelle von OpenAI, es gibt aber auch Modelle von anderen Anbietern wie beispielsweise die Claude-Modellreihe von Anthrophic, die Llama-Modelle von Meta oder die Modelle von DeepSeek.

Beispiel: Wenn du eine Frage wie "Wie funktioniert ein Solar-Panel?" stellst, liefert ein LLM eine ausführliche und gut formulierte Antwort.

6. Token – Die Bausteine der KI-Sprache

Tokens sind die kleinsten Einheiten, in die ein Text zerlegt wird, bevor er von einem KI-Modell verarbeitet wird. Man kann sich Tokens wie Bausteine in einem Lego-Set vorstellen – jedes Wort oder Wortteil ist ein Stein, und erst durch ihre Kombination entsteht ein vollständiges Gebilde. Ein Token kann ein einzelner Buchstabe, ein Wort oder ein Wortbestandteil sein. Die Anzahl der Tokens bestimmt, wie viel ein KI-Modell verarbeiten kann. Die Kosten für ein Modell werden üblicherweise in Franken pro 1 Millionen Tokens berechnet.

Beispiel: Das Wort "Künstliche" könnte als ein Token gezählt werden oder – je nach Modell – in zwei Tokens aufgeteilt sein: "Künst" und "liche". Ein Satz mit zehn Wörtern kann somit mehr als zehn Tokens umfassen.

7. Kontext oder Context Window – Das Gedächtnis der KI

Das Context Window beschreibt die maximale Textlänge, die ein KI-Modell auf einmal verarbeiten kann. Diese wird in Anzahl Tokens gemessen.

Beispiel: Wenn du also ein ganzes Dokument in ChatGPT lädst, kann es sein, dass es zu lange ist, wenn dein Dokument mehr Tokens zählt, als ChatGPT verarbeiten kann.

8. Prompt Engineering – Die Kunst der richtigen Eingabe

Prompts sind die Eingaben, die du einem Modell gibst, um eine Antwort zu erhalten. Die Optimierung dieser Eingaben für bessere und konsistentere Ergebnisse nennt man "Prompt Engineering".

Beispiel:

  • Einfacher Prompt: "Fasse diese Kundenbeschwerde zusammen."

  • Besserer Prompt: "1. Fasse diese Kundenbeschwerde in einem Satz zusammen. 2. Schlage eine Lösung in maximal zwei Sätzen vor."

9. Chain of Thought - Die KI argumentiert

Chain of Thought (CoT) bezeichnet die Methode, Modelle dazu zu bringen, ihre Denkprozesse in mehreren Schritten zu erklären. Dies simuliert in gewisser Weise den normalen menschlichen Denkprozess, denn auf eine komplexe Frage antworten wir nicht direkt mit der Lösung, sondern denken oder schreiben uns einen Lösungsweg auf. In der Forschung konnte gezeigt werden, dass mit dieser Methode die Modelle zuverlässiger richtige Antworten geben. Zudem erleichtert die Technik die Überprüfung der Richtigkeit der Antworten.

Anwendung: Um komplexere Anfragen bearbeiten zu können, weisen wir das Modell nun an, seine Lösung Schritt für Schritt zu erarbeiten. Z.B: "Ein Kunde fragt: 'Ich habe meine Bestellung nicht erhalten. Was soll ich tun?' Überlege Schritt für Schritt, wie du die beste Antwort finden kannst, und erkläre deinen Denkprozess."

10. Zero- / Few-Shot Learning – Anpassung anhand weniger Beispiele

Zero-Shot Learning bedeutet, dass ein Modell eine Aufgabe bewältigt, ohne für diese Aufgabe trainiert worden zu sein.

Beim Few-Shot Learning hingegen werden dem Modell wenige Beispiele einer Aufgabe gezeigt. Few-Shot Prompts, also Prompts mit einigen Beispielen, erhöhen in der Regel die Antwortqualität im Vergleich zu Zero-Shot Prompts. Obwohl hier das Wort "Learning" verwendet wird, wird dabei das Modell nicht trainiert, sondern nur der Prompt angepasst.

In beidem – Zero- und Few-Shot - sind LLMs wahre Meister, was sie so vielseitig einsetzbar macht.

Beispiel: Ein KI-gestütztes Support-System kann mit wenigen Beispielen lernen, auf Anfragen konsistenter zu antworten.

11. RAG – Die Verbindung von Wissen und KI

Retrieval-Augmented Generation (RAG) ist eine KI-Technologie, die LLMs mit externen Wissensquellen kombiniert, um präzisere, aktuellere und kontextuell relevantere Antworten zu generieren. Dabei werden anhand der User Anfrage relevante Dokumente aus einer Wissensdatenbank wie ein Firmen-internes Wiki oder eine Produkt-Dokumentation abgerufen und dem LLM zusammen mit dem Prompt für die Generierung der Antwort zur Verfügung gestellt.

Anwendung: In der Wissensdatenbank hinterlegen wir alte Support-Fälle, Benutzerhandbücher und Reglemente, welche dann verwendet werden, um genaue Antworten zu liefern.

12. Fine-Tuning – Massgeschneiderte KI für spezifische Aufgaben

Fine-Tuning bedeutet, ein vortrainiertes Modell mit spezifischen Daten weiter anzupassen, um eine bestimmte Aufgabe besser zu bewältigen oder ein Antwortformat oder einen Schreibstil einzuhalten.

Beispiel: Unternehmen können ihr LLM mit eigenen Kundensupport-Daten und FAQs trainieren, damit es typische Probleme besser versteht und im gewünschten markenspezifischen Stil antwortet. In der Medizin wird Fine-Tuning genutzt, um KI-Modelle auf Fachliteratur und Patientenakten zu trainieren, damit sie Ärzte bei der Diagnosestellung unterstützen.

13. KI-Agent - Selbständig entscheiden und handeln

Der Begriff "KI-Agent" wird nicht einheitlich verwendet. Allgemein beschreibt er eine spezialisierte KI-Anwendung, die in einer bestimmten Umgebung eigenständig Entscheidungen trifft oder Aufgaben ausführt, um ein definiertes Ziel zu erreichen. Das Spektrum reicht von einfachen Anwendungen, bei denen ein LLM entscheidet, wann es zusätzliche Daten abfragen muss, bis hin zu komplexen Systemen, die Daten aus verschiedenen Quellen auswerten und selbstständig Aktionen wie Einkäufe oder Nachrichtenversand umsetzen.

Anwendung: Im Support kann ein KI-Agent eigenständig erkennen, welche Anfragen dringend sind, und diese priorisieren oder automatisch eine Antwort versenden, wenn das Problem einfach ist.

Mit diesem Verständnis der grundlegenden Begriffe und Methoden bist du bestens gerüstet, zukünftig sicher durch Gespräche über KI zu navigieren . Falls du noch tiefer in die Materie eintauchen möchtest, findest du auf unserer Website weitere Artikel zu aktuellen KI-Entwicklungen und Anwendungsfällen.

Gibt es weitere Begriffe, die du gerne erklärt haben möchtest? Kontaktiere uns und lass es uns wissen!