Was bedeutet Prompt-Chaining? Prompt-Chaining (auch Pipeline-Pattern genannt) ist eine Methode, mit der komplexe Aufgaben für große Sprachmodelle (LLMs) in eine Abfolge von einfacheren Teilschritten zerlegt werden. Anstatt ein LLM mit einer einzigen, überfrachteten Anfrage zu konfrontieren, wird die Gesamtaufgabe in kleinere, logisch aufeinanderfolgende Prompts untergliedert Jeder Schritt konzentriert sich auf einen spezifischen Teilaspekt des Problems und erzeugt ein Resultat, das als Eingabe in den nächsten Prompt übernommen wird. Auf diese Weise entsteht eine Kette von Verarbeitungsschritten (Prompt Chain), in der das LLM schrittweise auf das gewünschte Endergebnis hinarbeitet. Dieses Prinzip ähnelt dem Divide-and-Conquer-Ansatz klassischer Algorithmen: Durch Modularisierung und klare Trennung der Einzelschritte wird die Interaktion mit dem Modell strukturierter, transparenter und kontrollierbarer.

Kapitel 1: Prompt-Chaining
Überblick zum Prompt-Chaining-Muster
Ein einfaches Beispiel zur Verdeutlichung: Anstatt ein LLM in einer einzigen Prompt aufzufordern, „Analysiere einen umfangreichen Marktforschungsbericht, fasse die Ergebnisse zusammen, identifiziere die drei wichtigsten Trends mit konkreten Datenpunkten und formuliere daraus eine E-Mail an das Marketing-Team“, würde man diese Aufgabe in einer Prompt-Kette aufteilen:
- Analyse und Zusammenfassung: Zunächst erhält das Modell den Prompt, den Bericht zu analysieren und die Schlüsselergebnisse in einer Zusammenfassung aufzubereiten.
- Trend-Identifikation: Anschließend wird mithilfe eines zweiten Prompts basierend auf dieser Zusammenfassung nach den drei wichtigsten Trends und den dazugehörigen konkreten Daten gefragt.
- E-Mail-Entwurf: Im letzten Schritt soll das LLM aus den identifizierten Trends und Fakten eine prägnante E-Mail an das Marketing-Team verfassen.
Jeder dieser Schritte ist deutlich fokussierter als die ursprüngliche komplexe Anfrage. Indem die Aufgabe in solche klar umrissenen Etappen zerlegt wird, kann sich das LLM auf jeweils einen Teil konzentrieren, was die Genauigkeit und Verlässlichkeit der Ergebnisse erhöht. Zudem lässt sich so der gesamte Prozess besser nachvollziehen und steuern: Etwaige Fehler oder Ungenauigkeiten kann man gezielt in demjenigen Schritt beheben, in dem sie entstehen, ohne die komplette Interaktion neu aufsetzen zu müssen.
Grenzen einzelner Prompts bei komplexen Aufgaben
Warum ist dieser gestufte Ansatz nötig? Ein einzelner, umfangreicher Prompt stößt bei vielschichtigen Aufgaben schnell an Grenzen. Wenn ein LLM in einem einzigen Durchgang mehrere unterschiedliche Anweisungen gleichzeitig erfüllen soll, steigt das Risiko, dass Teile der Anweisung übergangen werden oder der Zusammenhang verloren geht. Mit zunehmender Prompt-Länge wächst die kognitive Last für das Modell: Es kann vorkommen, dass das LLM bestimmte Details aus dem Anfang des Prompts „vergisst“ oder die Instruktionen nur teilweise befolgt. In der Praxis zeigen sich dabei typische Fehlerbilder:
- Instruction Neglect: Das Modell ignoriert einzelne Anweisungen, besonders wenn viele Anforderungen gleichzeitig gestellt werden.
- Kontextverlust (Context Drift): Während einer langen Antwort kann das LLM vom eigentlichen Thema abdriften und die ursprüngliche Fragestellung aus den Augen verlieren.
- Fehlerfortpflanzung: Anfangs auftretende Missverständnisse oder Fehler ziehen einen Rattenschwanz an Folgefehlern nach sich, da sie im weiteren Verlauf nicht korrigiert werden.
- Beschränkte Kontextfenster: Sehr ausführliche Eingaben sprengen unter Umständen das Kontextfenster des Modells, sodass gar nicht mehr der gesamte notwendige Input berücksichtigt werden kann.
- Halluzinationen: Je komplexer und überladener ein einzelner Prompt ist, desto höher ist tendenziell die Wahrscheinlichkeit, dass das Modell falsche oder erfundene Inhalte („Halluzinationen“) generiert, weil es den Überblick verliert.
IBM empfiehlt daher, überkomplexe Anfragen lieber in verständliche Einzelschritte zu zerlegen. Ein Beispiel aus deren Leitfaden: Soll ein KI-Assistent zunächst einen spanischen Text ins Englische übersetzen, daraus statistische Fakten extrahieren und diese am Ende wieder auf Spanisch auflisten, so wäre ein einziger Prompt mit all diesen Anforderungen „zu komplex und würde die Fehleranfälligkeit erhöhen”. Stattdessen sollte man mehrere aufeinanderfolgende Prompts bauen, die Schritt für Schritt abarbeiten, was gewünscht ist. So sinkt das Risiko, dass das LLM Teile der Aufgabe missversteht oder unvollständig ausführt, jede Stufe ist klar umrissen und für das Modell einfacher zu bewältigen.
Zuverlässigere Ergebnisse durch schrittweise Zerlegung
Prompt-Chaining adressiert die genannten Probleme, indem es komplexe Abläufe in eine Sequenz fokussierter Arbeitsschritte überführt. Das erhöht Zuverlässigkeit und Kontrolle erheblich: Da jeder Prompt in der Kette einen enger gefassten Auftrag hat, verringert sich die kognitive Belastung für das LLM. Es kann gezielter auf die jeweilige Teilfrage eingehen, anstatt mit potenziell widersprüchlichen oder überladenen Anforderungen kämpfen zu müssen. Insgesamt führt dies zu konsistenteren und genaueren Ergebnissen, weil Fehlerquellen eingegrenzt und Zwischenresultate überprüft werden können, bevor der nächste Schritt erfolgt.
Ein weiterer Vorteil ist die bessere Nachvollziehbarkeit des Lösungswegs. Durch die explizite Abfolge einzelner Schritte wird quasi ein Audit-Trail erzeugt: Außenstehende (oder automatische Evaluationsroutinen) können die Zwischenoutputs jeder Stufe betrachten und verstehen, wie das System zu seiner endgültigen Antwort gelangt ist. Diese Transparenz erhöht das Vertrauen in die KI-Systeme, gerade in unternehmenskritischen Anwendungen. Falls das Endresultat nicht den Erwartungen entspricht, lässt sich leichter feststellen, in welchem Schritt die Kette abgewichen ist, und man kann gezielt dort ansetzen (etwa den betreffenden Prompt präzisieren).
Die modulare Struktur einer Prompt-Kette ermöglicht es zudem, externe Tools oder Datenquellen zwischenzuschalten. Da die einzelnen Schritte voneinander getrennt sind, kann man z.B. nach einem LLM-Schritt eine programmgesteuerte Validierung einfügen: So ließe sich nach dem Extrahieren von Zahlenwerten aus einem Text diese Ausgabe zunächst mit einem Rechentool überprüfen oder weiterverarbeiten, bevor das Ergebnis im nächsten Prompt wieder ans LLM gegeben wird. Ein solches Einfügen deterministischer Logik oder externer Berechnungen ist ein wichtiges Mittel, um die Gesamtlösung robuster zu machen und die Schwächen der LLMs (beispielsweise bei Mathematik) auszugleichen. In einem komplexen OCR-Beispiel etwa könnte der Ablauf so aussehen: Zuerst extrahiert das LLM die Rohtexte aus einem eingescannten Dokument, anschließend formatiert es die extrahierten Angaben (z.B. Zahlen in einheitliches Zahlformat), dann übernimmt ein externes Kalkulationstool die Berechnung bestimmter Werte, und schließlich generiert das LLM aus allen geprüften Informationen einen Abschlussbericht. All dies wäre in einem einzigen Prompt kaum zuverlässig zu erreichen, in einer Prompt-Kette hingegen kann jeder Teilschritt mit der optimalen Methode durchgeführt werden.
Strukturierte Zwischenergebnisse
Damit eine Prompt-Kette reibungslos funktioniert, ist es entscheidend, wie die Ergebnisse eines Schritts an den nächsten übergeben werden. Wenn ein Prompt vage oder unstrukturiert antwortet, kann der folgende Schritt diese Ausgabe möglicherweise falsch interpretieren. Deshalb bietet es sich an, für die Zwischenergebnisse klare Formate vorzugeben, etwa in Form von strukturierten Daten (JSON, XML o.ä.). Ein standardisiertes Format stellt sicher, dass maschinelle Weiterverarbeitung ohne Missverständnisse erfolgen kann.
Beispielsweise kann man das Ergebnis der Trendidentifikation als JSON Objekt ausgeben:
{
"trends": [
{
"trend_name": "Agentenbasierte Prozessautomatisierung",
"supporting_data": "Pilotprojekte berichten von 30 bis 50 Prozent kürzerer Bearbeitungszeit in standardisierten Vorgängen."
},
{
"trend_name": "RAG gestützte Wissensnutzung",
"supporting_data": "Antwortqualität steigt messbar, weil aktuelle interne Dokumente gezielt einfließen."
}
]
}
In diesem Format sind die Schlüsselwerte eindeutig benannt und die Struktur ist festgelegt. Der nächste Prompt in der Kette, in unserem Beispiel die E-Mail-Generierung, kann diese JSON-Daten gezielt auslesen (z.B. den trend_name und supporting_data für jeden Trend) und in den Fließtext der E-Mail einarbeiten, ohne durch irrelevante Textfragmente abgelenkt zu werden. Das verringert die Fehleranfälligkeit erheblich. Amazon empfiehlt in seinen KI-Richtlinien explizit, bei Folgeprozessen immer eine feste Schema-Vorgabe für das Modell-Output mitzugeben, um konsistente Ergebnisse zu gewährleisten. Die Verwendung strukturierter Ausgabeformate fungiert hier als Schnittstelle zwischen den einzelnen Kettengliedern und minimiert Missverständnisse an den Übergabepunkten.
Praktische Anwendungsfälle
Prompt-Chaining ist ein universelles Muster, das sich in vielen Bereichen einsetzen lässt, um agentive KI-Systeme zu entwickeln. Überall dort, wo Aufgaben natürlich in Teilaufgaben zerfallen oder wo mehrstufige Verarbeitung erforderlich ist, bietet sich das Ketten-Prinzip an. Im Folgenden einige zentrale Anwendungsfälle aus der Praxis:
- Informationsverarbeitung in Pipelines: Viele Prozesse lassen sich als Abfolge von Transformationen auf Eingabedaten beschreiben. Ein Beispiel ist die automatisierte Dokumentenverarbeitung: Zunächst extrahiert ein Agent den Rohtext aus einem Dokument (Schritt 1), dann wird dieser Text zusammengefasst (Schritt 2), anschließend identifiziert ein weiterer Schritt bestimmte Schlüsselinformationen oder Entitäten darin (Schritt 3), eventuell werden diese mit einer Wissensdatenbank abgeglichen oder angereichert (Schritt 4), und schließlich entsteht daraus ein Abschlussbericht oder ein bestimmtes Ausgabeformat (Schritt 5). Solche mehrstufigen Content-Analyse-Workflows kommen etwa bei KI-Rechercheassistenten zum Einsatz, die dem Benutzer helfen, umfangreiche Quellen auszuwerten und verdichtete Erkenntnisse zu liefern. Auch im Reporting lassen sich durch verkettete Prompts aus Rohdaten schrittweise interpretierbare Berichte generieren. Das Zerlegen komplexer Informationsextraktion in wohldefinierte aufeinanderfolgende Schritte erhöht die Genauigkeit und erlaubt es, an jedem Punkt externe Datenbanken oder Unternehmenswissen einzubinden.
- Beantwortung komplexer Anfragen: Bei anspruchsvollen Fragestellungen, die mehrere Wissensschritte erfordern, stößt eine Ein-Prompt-Lösung schnell an ihre Grenzen. Stattdessen kann eine Kette von Prompts eingesetzt werden, um die Teilfragen nacheinander zu lösen. Beispiel: „Was waren die Hauptursachen des Börsencrashs von 1929 und wie reagierte die Regierung darauf?“ Hier könnte man das LLM erst nach den Ursachen von 1929 fragen (Prompt 1), danach in einem separaten Schritt nach den politischen Gegenmaßnahmen (Prompt 2), und schließlich in einem Synthese-Prompt (Prompt 3) beide Aspekte zu einer Gesamterklärung verbinden. So erhält man eine fundierte Antwort, die Recherche und logische Kombination mehrerer Informationen beinhaltet, etwas, das in einem einzigen großen Sprung schwer erreichbar wäre. Solche Methoden sind grundlegend für KI-Systeme, die mehrschrittiges Schlussfolgern beherrschen müssen, etwa beim autonomen Beantworten von Nutzerfragen auf Basis verschiedener Datenquellen.
Darüber hinaus kombinieren umfangreichere Lösungen häufig parallele und sequentielle Elemente: Ein KI-gestützter Rechercheagent etwa wird zunächst viele Quellen parallel durchsuchen und Informationen extrahieren (parallel, da jede Quelle unabhängig verarbeitet werden kann). Doch die Synthese dieser Informationen erfolgt dann sequentiell, erst wenn alle Puzzleteile vorliegen, werden sie in einem weiteren Schritt zusammengeführt und bewertet, bevor ein abschließender Bericht erstellt wird. Hier zeigt sich, wie eine Pipeline mehrere unabhängige Datenverarbeitungsschritte parallel ausführen kann, um Geschwindigkeit zu gewinnen, während die kritischen abhängigen Schritte (Kollation, Schlussfolgerung, Qualitätskontrolle) streng in einer Kette organisiert sind, um die logische Abfolge sicherzustellen.
- Datenextraktion und -transformation: Das Extrahieren strukturierter Daten aus unstrukturiertem Text ist ein klassisches Szenario, das iterative Verbesserung erfordert. Nehmen wir die Aufgabe, aus einer Reihe von E-Mails oder Rechnungen bestimmte Felder wie Name, Adresse und Rechnungsbetrag auszulesen. In einem ersten Prompt könnte das LLM versuchen, alle relevanten Felder zu erkennen und auszugeben (z.B. als JSON mit entsprechenden Keys). Anschließend prüft ein Validierungs-Schritt (programmatisch oder per LLM) dieses Ergebnis: Fehlen Felder oder wirken einige Werte ungültig? Falls ja, folgt ein zweiter LLM-Prompt, der gezielt um die fehlenden Informationen ergänzt oder Formatfehler korrigiert. Dieser Ablauf, Erkennung ➔ Validierung ➔ Nachbesserung (ggf. in mehreren Iterationen), lässt sich so lange durchlaufen, bis alle erforderlichen Daten vollständig und korrekt extrahiert sind. In der Praxis wird dieses Muster beispielsweise bei der Verarbeitung von Formularen und Belegen angewandt: Ein KI-System liest zunächst den Text (z.B. mittels OCR), standardisiert dann Formate (Zahlen, Datumsangaben etc.), nutzt bei Bedarf zusätzliche Tools (z.B. einen Währungsrechner, um Beträge umzurechnen), und gibt am Ende fehlerfrei strukturierte Datensätze aus. Gerade bei schwierigen OCR-Problemen (etwa schlecht gescannten Dokumenten) hat sich gezeigt, dass eine mehrstufige Vorgehensweise deutlich zuverlässiger ist als eine einzige monolithische KI-Abfrage.
- Content-Erstellung in Phasen: Die Generierung anspruchsvoller Inhalte, sei es ein Fachartikel, eine Marketingbroschüre oder sogar ein technisches Dokument, lässt sich in Planungs- und Kreativphasen unterteilen. Prompt-Chaining ermöglicht es, diese Phasen schrittweise vom LLM durchlaufen zu lassen. Ein typisches Beispiel: Zuerst werden in einem Ideation-Prompt mehrere Themenvorschläge oder Gliederungsentwürfe erzeugt (Prompt 1: „Schlage mir 5 potenzielle Themen inklusive Grobstruktur vor…“). Im nächsten Schritt wählt man einen Entwurf aus und lässt das Modell eine detaillierte Outline bzw. Struktur dazu erstellen (Prompt 2). Darauf folgen einzelne Schreib-Prompts pro Gliederungspunkt (Prompt 3a, 3b, 3c,… für Abschnitt 1, 2, 3,…), damit das LLM Abschnitt für Abschnitt den Inhalt ausarbeitet. Abschließend kann ein Review-Prompt den kompletten Entwurf gegenlesen, stilistisch angleichen und auf Konsistenz prüfen (Prompt 4). Diese mehrstufige Texterstellung stellt sicher, dass das Endergebnis kohärent und gut strukturiert ist, da das Modell in jeder Phase gezielt instruiert wird, von der Idee bis zur Endredaktion. Solche Workflows werden in der Praxis für automatische Berichtserstellungen, Blog-Post-Generatoren und sogar im Kreativschreiben genutzt. Jede Phase kann dabei ggf. von unterschiedlichen „Rollen“ des LLM ausgeführt werden (z.B. erst als Brainstormer, dann als Gliederungsexperte, dann als Fachautor und zuletzt als Lektor), was die Qualität weiter erhöht.
- Konversationsagenten mit Kontext: In Chatbots und dialogorientierten Systemen ist die Erhaltung des Gesprächskontextes über mehrere Nutzer-Eingaben hinweg essenziell. Moderne architekturierte Dialogsysteme benutzen weit komplexere Mechanismen als simples Prompt-Chaining, um den Zustand eines Gesprächs zu managen, dennoch bildet die Idee des sequentiellen Aufbaus von Prompts einen Grundpfeiler auch hier. Konkret läuft es darauf hinaus, dass jede Benutzereingabe nicht isoliert betrachtet wird, sondern zusammen mit relevanten Informationen aus den vorigen Dialogturns an das Modell geht. Technisch gesehen konstruiert das System bei jeder neuen Nutzeranfrage einen kombinierten Prompt, der z.B. enthält: die letzten Aussagen, ggf. extrahierte Fakten oder Entitäten aus früheren Äußerungen und eine aktualisierte Rollenbeschreibung, was der Agent tun soll. So „erinnert“ sich der Agent an frühere Angaben des Nutzers, ohne dass das Modell tatsächlich über langfristigen Speicher verfügt, die Historie wird schlicht immer wieder mitgeschickt.Ein Beispiel: Fragt ein Nutzer „Wie ist das Wetter morgen?“, antwortet der Bot. Fragt der Nutzer danach „Und brauche ich einen Regenschirm?“, so muss die KI aus dem Kontext schließen, dass sich „Und“ auf das vorhergehende Wetterthema bezieht. Mit Prompt-Chaining wird hier jede neue Frage durch den Kontext der vorherigen ergänzt, damit das Modell korrekt interpretieren kann, worauf sich die Folgefrage bezieht. Auf diese Weise lassen sich mehrzügige Dialoge führen, die konsistent bleiben. Natürlich stoßen rein sequenzielle Ansätze an Grenzen (lange Chats füllen irgendwann das Kontextfenster, weshalb Zusammenfassungen alter Dialogteile nötig werden etc.), doch das Prinzip, dass der Verlauf Schritt für Schritt im Prompt mitgeführt wird, ist grundlegend für jeden Chatbot. In der Praxis kommen dafür oft komplexere Zustandsautomaten oder Memory-Komponenten zum Einsatz, Prompt-Chaining liefert hier gewissermaßen die „Klebstoff“-Technik, um Zustand als Teil des Prompt-Inputs zu bewahren.
- Code-Generierung und -Verfeinerung: Auch bei der automatischen Programmerstellung hat sich ein mehrstufiges Vorgehen bewährt. Eine Nutzeranfrage wie „Schreibe mir eine Funktion, die Zahlwörter (‚eins‘, ‚zwei‘, …) in Ziffern umwandelt und alle Zahlen in einem gegebenen Text summiert“ erfordert mehrere gedankliche Schritte. Ein möglicher Prompt-Chain-Ansatz wäre: Zuerst lässt man das LLM einen groben Lösungsplan oder Pseudocode entwerfen (Prompt 1). Auf Basis dieser Skizze generiert man dann den ersten Codeentwurf (Prompt 2). Anschließend kann das Modell (oder ein static code analyzer) gebeten werden, diesen Code auf Fehler oder Verbesserungsmöglichkeiten zu prüfen (Prompt 3). Eventuell auftretende Fehlermeldungen oder Optimierungsvorschläge fließen dann in einen weiteren Verfeinerungs-Prompt ein, der den Code korrigiert und optimiert (Prompt 4). Zuletzt kann man das LLM noch Kommentare oder sogar Unit-Tests schreiben lassen (Prompt 5), um die Lösung abzurunden. Dieses iterative Vorgehen spiegelt den realen Entwicklungsprozess wider und führt zu funktionalerem Code, als wenn man sofort die vollständige Implementierung in einem Durchlauf anfordert. Wichtiger Nebeneffekt: Zwischen den LLM-Prompts kann man gezielt auch deterministische Checks einbauen, etwa den Code tatsächlich einmal ausführen oder mit einem externen Compiler auf Syntax prüfen, bevor der nächste Prompt startet. So verbindet die Kette die kreativen Fähigkeiten des LLM (für Entwurf und Korrektur) mit der Zuverlässigkeit klassischer Programmier-Tools (für Tests und Ausführung). In unternehmenseigenen AI-Assistenztools für Entwickler (wie GitHub Copilot, ChatGPT Code Interpreter oder neuere AutoML-Systeme) werden solche Mechanismen eingesetzt, um die Trefferquote bei komplexen Coding-Aufgaben zu erhöhen.
- Multimodale und mehrstufige Analyse: Prompt-Chaining ist nicht auf Text beschränkt. Bei Aufgaben, die verschiedene Datenmodalitäten betreffen (Text, Bild, Tabellen, etc.), bietet sich eine Kette von spezialisierten Schritten an. Angenommen, eine KI soll ein Bild mit eingebettetem Text analysieren: Das Bild zeigt z.B. ein Diagramm mit Beschriftungen, und es liegt eine Tabelle vor, die die Bedeutung der Beschriftungen erklärt. Hier könnte das Vorgehen so aussehen: Zunächst beschreibt ein Prompt den Bildinhalt oder extrahiert den eingebetteten Text (Prompt 1, evtl. mit Bildanalyse). Dann werden in Prompt 2 die extrahierten Texte mit den Labeln aus der Tabelle verknüpft (d.h. welcher Text gehört zu welchem Label). Anschließend interpretiert Prompt 3 diese kombinierten Informationen, um die eigentliche Frage des Nutzers zum Bild zu beantworten. Jedes dieser Module ist für sich einfacher als die Gesamtaufgabe „Verstehe dieses komplexe Bild und beantworte eine Detailfrage dazu“. Entsprechend steigt durch die Aufteilung die Erfolgswahrscheinlichkeit. In ähnlicher Weise können multimodale Agenten etwa erst sensorische Daten (z.B. Audio oder Bild) in Text umwandeln und dann per Text-Prompt weiterverarbeiten. Prompt-Chaining schafft hier die Möglichkeit, verschiedene KI-Modelle oder Verarbeitungsschritte miteinander zu orchestrieren, das Ergebnis eines Schritt-für-Schritt-Ansatzes ist oftmals besser, als wenn ein einzelnes Modell alles auf einmal erledigen müsste.
Beispiel: Prompt-Chaining in der Praxis
Nachdem wir die Theorie und verschiedene Anwendungsmuster beleuchtet haben, soll ein kurzer Blick in den praktischen Einsatz des Prompt-Chaining erfolgen. Mit geeigneten Frameworks lässt sich eine Prompt-Kette recht einfach in Code gießen. Untenstehend demonstriert ein Python-Beispiel, wie zwei verkettete Prompts als Pipeline fungieren. Der erste Schritt extrahiert technische Spezifikationen aus einem unstrukturierten Text, der zweite Schritt formatiert diese Spezifikationen als JSON-Struktur.
Hinweis: Für das folgende Beispiel verwenden wir die Bibliothek LangChain, welche mit ihrer Expression Language (LCEL) eine elegante Syntax zum Verketten von LLM-Aufrufen bereitstellt. Zudem kommt exemplarisch das Modell ChatOpenAI (GPT-ähnlich) zum Einsatz. Bevor der Code ausgeführt wird, müssen die benötigten Pakete installiert und API-Zugangsdaten (z.B. ein OpenAI API Key) konfiguriert sein.
import os
from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
# Optional: from dotenv import load_dotenv; load_dotenv()
llm = ChatOpenAI(temperature=0)
# Prompt 1: Informationen extrahieren
prompt_extract = ChatPromptTemplate.from_template(
"Extrahiere die technischen Spezifikationen aus folgendem Text:nn{text_input}"
)
# Prompt 2: Ausgabe in JSON transformieren
prompt_transform = ChatPromptTemplate.from_template(
"Wandle die folgenden Spezifikationen in ein JSON-Objekt mit den Schlüsseln 'cpu', 'memory' und 'storage' um:nn{specifications}"
)
# Kette mit LCEL
extraction_chain = prompt_extract | llm | StrOutputParser()
full_chain = (
{"specifications": extraction_chain}
| prompt_transform
| llm
| StrOutputParser()
)
# Ausführung
input_text = "Das neue Laptop-Modell bietet einen 3.5 GHz Octa-Core-Prozessor, 16GB RAM und eine 1TB NVMe-SSD."
final_result = full_chain.invoke({"text_input": input_text})
print("n--- Finale JSON-Ausgabe ---")
print(final_result)
In diesem Code wird zuerst das LangChain-Modell initialisiert und zwei Prompt-Vorlagen definiert: Eine für die Extraction (Aufforderung, Specs aus Text zu ziehen) und eine für die Transformation (Aufforderung, diese Specs in JSON zu formatieren). Mit dem Pipe-Operator | einer Spezialität der LangChain Expression Language, werden dann die Schritte zu einer Kette verbunden: prompt_extract | llm bedeutet, dass der Extraktions-Prompt vom LLM ausgeführt wird; das Ergebnis wird anschließend direkt durch StrOutputParser() in einen String überführt. Dieser String wird als Eingabe (specifications) an den nächsten Prompt prompt_transform weitergereicht, der wiederum vom llm ausgeführt wird. Abschließend parst erneut ein StrOutputParser die Modellantwort. Durch diese Deklaration mit Pipes entsteht automatisiert eine Ausführungskette, die wir mit full_chain.invoke(...) anstoßen können. Gibt man den Beispieltext (ein Satz mit technischen Merkmalen eines Laptops) hinein, produziert die Kette folgendes Ergebnis:
--- Finale JSON-Ausgabe ---
{
"cpu": "3.5 GHz Octa-Core-Prozessor",
"memory": "16GB RAM",
"storage": "1TB NVMe-SSD"
}
Wie man sieht, hat das System die technischen Spezifikationen korrekt erkannt und in einer strukturierten JSON-Ausgabe bereitgestellt. Dieses Ergebnis könnte nun direkt von einer nachgelagerten Softwarekomponente weiterverarbeitet werden. Das Beispiel demonstriert, wie Prompt-Chaining dabei hilft, komplexe Textverständnis-Aufgaben in klare Teilschritte zu zerlegen und wie Frameworks (hier LangChain mit LCEL, alternativ z.B. das neuere LangGraph) Entwickler dabei unterstützen, solche Ketten in wenigen Zeilen Code zu definieren.
Kontext-Engineering: Der nächste Evolutionsschritt
Abb. 1: Schematische Darstellung der Elemente des Kontext-Engineerings. Der Gesamtkontext für ein KI-Modell umfasst u.a. explizite Anweisungen (System-Prompt), die aktuelle Benutzeranfrage, den Dialogverlauf (Kurzzeitgedächtnis), längerfristig gespeichertes Wissen über den Nutzer oder die Aufgabe, aus externen Quellen abgerufene Informationen (RAG), verfügbare Tools und deren Outputs sowie Vorgaben zum Ausgabeformat. Kontext-Engineering beschäftigt sich damit, all diese Informationsquellen zielgerichtet aufzubereiten und dem Modell bereitzustellen.
Man hat gesehen, wie wichtig der bereitgestellte Kontext für das Gelingen einer Prompt-Kette ist. Kontext-Engineering geht nun noch einen Schritt weiter: Es handelt sich um die systematische Disziplin, die gesamte Informationsumgebung um ein KI-Modell herum zu gestalten, gewissermaßen eine Generalisierung des Prompt-Engineering, Der Kerngedanke dabei ist, dass die Leistungsfähigkeit eines KI-Agents weniger von der Architektur oder Größe des Modells abhängt, sondern vor allem davon, welche Informationen dem Modell in welcher Form zum Zeitpunkt der Inferenz zur Verfügung gestellt werden. Ein hervorragendes Sprachmodell nutzt wenig, wenn es, bildlich gesprochen, mit geschlossenen Augen und Ohren agieren muss. Kontext-Engineering stellt sicher, dass das LLM zur richtigen Zeit genau die richtigen Informationen bekommt, die es für die korrekte Aufgabenerledigung benötigt.
Im Grunde verschiebt sich mit Kontext-Engineering der Fokus: Weg von der einmaligen Formulierung einer Eingabe (Prompt) hin zum Aufbau eines umfassenden, dynamischen Kontextes für das Modell. Dazu gehören mehrere Schichten von Informationen:
- System-Prompt / Rolleninstruktion: Grundlegende Anweisungen, die definieren wie das Modell antworten soll (z.B. Stil, Rolle, Verbotsregeln). Dieser wird meist einmalig zu Beginn festgelegt.
- Benutzereingabe: Die konkrete aktuelle Anfrage oder Aufgabe, die vom Nutzer kommt.
- Verlaufs- und Zustandsdaten: Bisherige Interaktionen, Gesprächshistorie oder andere kurzzeitige Erinnerungen, die relevant sind (Kurzzeitgedächtnis).
- Langzeitwissen über den Nutzer oder die Domäne: Persistente Daten, z.B. bekannte Vorlieben des Nutzers, frühere Problemlösungen, firmeninternes Wissen, auf das zurückgegriffen werden kann.
- Externe Wissensquellen: Alle Informationen, die das Modell zur Laufzeit aus Datenbanken, Dokumenten oder dem Web abrufen kann (Stichwort Retrieval-Augmented Generation, RAG). Dadurch bleibt das KI-System aktuell und faktenbasiert.
- Werkzeuge und deren Ergebnisse: Integrierte Tools oder APIs, die das Modell verwenden darf (etwa eine Kalender-Abfrage, eine Rechenfunktion, ein Übersetzungsmodul). Die Ausgaben dieser Tools fließen ebenfalls in den Kontext mit ein.
- Strukturvorgaben für die Ausgabe: Vorgaben, in welchem Format oder Schema die Antwort erwartet wird (z.B. „Beantworte in JSON“, oder „antworte mit einer stichpunktartigen Liste“).
- Agenten-interner Zustand: Falls der Agent selbst mehrschrittig plant (z.B. via Chain-of-Thought, wo er Zwischengedanken hat), gehört auch dieser intermediate state zum Kontext, der verwaltet werden will.
Kontext-Engineering bedeutet, all diese Bausteine orchestriert zusammenzufügen, bevor das Modell seine nächste Antwort generiert. Die Qualität dieser bereitgestellten Umgebung bestimmt maßgeblich die Qualität des Outputs. Sundeep Teki, ein KI-Experte, bringt es auf den Punkt: „Die fähigsten Modelle scheitern nicht an sich selbst, sondern weil sie nur eine unvollständige, ‚halbgare‘ Sicht der Welt erhalten.“ Selbst ein GPT-4 würde falsche Antworten geben, wenn es mit veraltetem oder unzureichendem Kontext arbeiten muss. Die Erfahrung zeigt: Oft erzielt man mehr Verbesserungen, indem man den Kontext optimiert, als durch den Wechsel zu einem minimal stärkeren Modell.
Das praktische Vorgehen im Kontext-Engineering ist eher mit Softwarearchitektur als mit bloßem Prompt-Schreiben vergleichbar. Es geht darum, Pipelines aufzubauen, welche zur Laufzeit dynamisch Informationen sammeln, aufbereiten und dem KI-Modell zuführen. Man reframed also die Aufgabe vom „eine Frage stellen“ hin zu „eine komplette operative Szene aufbauen, in der die KI sinnvoll handeln kann“. Ein kontext-engineerter Agent, der etwa eine E-Mail für einen Nutzer verfassen soll, würde vor dem eigentlichen Schreib-Prompt z.B. folgende Aktionen durchführen: Den Kalender des Nutzers abfragen (Tool-Output: verfügbare Termine nächste Woche), frühere Mails mit dem Empfänger „Jim“ aus der Ablage holen (retrieved documents: vielleicht letzte Gesprächsverläufe), den Beziehungskontext identifizieren (implicit data: Jim ist z.B. ein wichtiger Kunde) und die bevorzugte Ansprache oder Tonalität des Nutzers kennen (User Profile: eher förmlich oder locker). All das fließt als Kontext in den Schreib-Prompt ein. Das Resultat wird dadurch wesentlich nützlicher und personalisierter sein als die generische Antwort, die man von einer KI ohne diesen Kontext bekommen hätte.
Um ein solch reichhaltiges Kontextfenster bereitzustellen, kommen oft automatisierte Optimierungsschleifen zum Einsatz. Beispielsweise bietet Google Cloud mit der Vertex AI Prompt Optimizer einen Dienst, der systematisch verschiedene Prompt-Varianten testet und evaluiert, um die beste Instruktion für ein bestimmtes Modell zu finden. Dabei werden beispielhafte Eingaben und Wunschausgaben vorgegeben; der Optimizer variiert und bewertet die Promptformulierungen anhand definierter Metriken, bis eine optimale Variante gefunden ist. Solche Tools erlauben es, Prompts und Systemanweisungen datengetrieben zu verfeinern, ohne jedes Detail manuell justieren zu müssen. Insbesondere beim Übertragen von Prompts auf neue Modell-Versionen (z.B. von GPT-3 auf Gemini) ist das hilfreich, anstatt mühsam auszuprobieren, kann der Optimierungsalgorithmus iterativ die Anpassungen vornehmen. Das Ergebnis des Kontext-Engineerings sind also KI-Systeme, die wesentlich situierter und robuster agieren: Sie wissen um die relevanten Fakten, haben Zugang zu aktuellem Wissen, halten Regeln ein und nutzen Hilfsmittel, kurz, sie operieren mit einem ganzheitlichen Lagebild statt nur mit einem isolierten Prompt. Dies ist die entscheidende Grundlage, um aus einfachen Chatbots wirklich leistungsfähige Agenten zu formen, die in dynamischen Umgebungen zuverlässig planen, schlussfolgern und handeln können.
Auf einen Blick
- Problem: Komplexe Aufgaben überfordern LLMs, wenn man sie in einem einzigen Prompt lösen lassen will. Das Modell läuft Gefahr, Teile der Anweisung zu übersehen, den Kontext zu verlieren oder falsche Angaben zu halluzinieren. Ein monolithischer Prompt kann meist die zahlreichen Constraints und Schritte nicht zugleich abbilden, das Ergebnis ist oft unzuverlässig und fehlerhaft.
- Lösung: Prompt-Chaining zerlegt die Aufgabe in eine sequenzielle Kette von kleineren Prompts. Jeder Schritt konzentriert sich auf einen Aspekt und nutzt das Ergebnis des vorigen Schritts als Input. Dadurch entsteht ein kontrollierter Workflow, der Schritt für Schritt zur Endlösung führt. Dieses modulare Vorgehen erhöht die Treffergenauigkeit, vereinfacht Debugging und erlaubt die Einbindung externer Tools oder Daten zwischen den Schritten. Prompt-Chaining ist ein Grundbaustein für fortgeschrittene Agenten, die mehrschrittig planen, schlussfolgern und ihren Zustand verwalten müssen.
- Faustregel: Wenden Sie Prompt-Chaining an, wenn eine Aufgabe zu vielschichtig für eine einzige Modellanfrage ist, wenn unterschiedliche Verarbeitungsschritte (z.B. Extraktion ➔ Analyse ➔ Bericht) nötig sind, wenn zwischen den Schritten externe Verarbeitungen oder Abfragen erfolgen sollen oder wenn Sie ein agentives System bauen, das eine mehrstufige Interaktion mit Umwelt und Gedächtnis benötigt. In solchen Fällen erreicht man mit einer wohlstrukturierten Kette meist wesentlich robustere Ergebnisse als mit einem einzigen Prompt.
Abb. 2: Prinzip des Prompt-Chaining-Musters, schematische Darstellung eines sequentiellen Workflows. Die Nutzeranfrage (In) wird zunächst von einem ersten LLM-Schritt verarbeitet (LLM1). Dessen Ergebnis (Output 1) durchläuft optional eine Prüfungs- oder Verzweigungslogik („Gate“), die entscheidet, ob der Prozess fortgesetzt werden kann (Pass) oder abgebrochen wird (Fail → Exit). Im erfolgreichen Fall fließt der Output als Eingabe in den nächsten LLM-Schritt (LLM2), erzeugt dort Output 2, welcher wiederum an LLM3 weitergereicht wird. Schließlich liegt das Endresultat (Out) vor. Zwischen den LLM-Schritten können feste Regeln („Gates“) die Weitergabe steuern oder Teilergebnisse validieren. Dieses Pattern erlaubt es, nach jedem Schritt kontrollierend einzugreifen und so komplexe Abläufe verlässlich umzusetzen.
Wichtigste Erkenntnisse
- Schrittweises Vorgehen: Prompt-Chaining zerlegt komplexe Aufgaben in eine Abfolge kleiner, fokussierter Schritte. Anstatt alles auf einmal zu verlangen, wird ein Problem in Teilprobleme separiert, die das LLM nacheinander abarbeitet. Dieses Muster wird auch als Pipeline-Pattern bezeichnet und erhöht die Lösungsqualität deutlich.
- Verkettete LLM-Aufrufe: In einer Prompt-Kette bildet die Ausgabe eines Schritts die Eingabe des nächsten. So entsteht eine logische Sequenz, in der jeder LLM-Aufruf auf den Ergebnissen des vorherigen aufbaut. Neben LLM-Aufrufen können auch feste Programm-Module (z.B. Tool-Outputs oder if/else-Entscheidungen) zwischen den Prompts integriert werden.
- Höhere Zuverlässigkeit: Durch die Aufteilung sinkt die kognitive Belastung pro Prompt. Das Modell kann sich schrittweise konzentrieren, was Genauigkeit und Konsistenz fördert. Probleme wie Kontextverlust oder ignorierte Anweisungen treten seltener auf. Zudem lassen sich Fehler schneller eingrenzen, da man jeden Zwischenschritt prüfen und ggf. nachbessern kann.
- Transparenz und Kontrolle: Prompt-Chaining macht den Lösungsprozess nachvollziehbar. Entwickler und Fachexperten können jeden Step samt Teilresultat begutachten. Das ermöglicht feinere Kontrolle und einfacheres Debugging als bei einer einzigen Black-Box-Antwort des Modells. Außerdem kann zwischen den Schritten Geschäftslogik oder Validierungscode eingebunden werden, um die Einhaltung von Regeln und Qualitätsstandards sicherzustellen.
- Integration externer Fähigkeiten: Eine Kette bietet definierte Schnittstellen zwischen einzelnen Schritten, an denen externe Tools, Datenbanken oder APIs genutzt werden können. So lassen sich z.B. aktuelle Informationen per API abrufen oder Berechnungen durchführen, die das LLM allein nicht zuverlässig beherrscht. Das Zusammenspiel von LLM und traditionellen Softwarekomponenten wird durch das Pipeline-Muster erheblich vereinfacht.
- Agenten und Multi-Step-Systeme: Komplexe agentive KI-Systeme (etwa autonome Assistenten) basieren intern oft auf Prompt-Chaining. Planung, Werkzeuggebrauch und Gedächtnisabruf werden in separate Prompt-Schritte ausgelagert. Dieses Pattern bildet daher die Grundlage für viele fortgeschrittene Architekturen, von mehrteiligen Frage-Antwort-Systemen bis hin zu Multi-Agenten-Ökosystemen.
- Werkzeuge & Frameworks: Für die Umsetzung von Prompt-Chains stehen robuste Frameworks zur Verfügung. LangChain zum Beispiel bietet mit LCEL eine deklarative Syntax, um Ketten von LLM-Aufrufen zu definieren. LangGraph ermöglicht darüber hinaus komplexe Graph-Strukturen mit Verzweigungen, Zustandsspeicherung und Zyklen für anspruchsvolle Workflows. Auch Googles neuer Agent Development Kit (ADK) zielt darauf ab, mehrschrittige Agenten einfach zu bauen, dort werden ebenfalls sequentielle (SequentialAgent) und parallele (ParallelAgent) Chains als Grundbausteine angeboten. Mit solchen Tools lässt sich Prompt-Chaining effizient implementieren und in bestehende Software integrieren.
Fazit
Prompt-Chaining hat sich als Schlüsseltechnik im Umgang mit großen Sprachmodellen etabliert. Indem man ein kompliziertes Problem in eine logisch aufgebaute Abfolge von Einzelaufgaben zerlegt, gelingt es, die Stärken der KI gezielt auszunutzen und ihre Schwächen abzufedern. Diese „Teile-und-herrsche“-Strategie steigert die Zuverlässigkeit der Ergebnisse, da das Modell immer nur einen wohldefinierten Auftrag auf einmal erhält und Zwischenergebnisse überprüft werden können. Prompt-Chains bilden die Grundlage für fortgeschrittene KI-Agenten, die mehrschrittig denken, planen und handeln. Sie ermöglichen die Integration von externem Wissen und Tools und sorgen dafür, dass ein KI-System nicht isoliert, sondern als Teil eines größeren Ganzen agiert.
Gleichzeitig markiert das Konzept des Kontext-Engineerings die nächste Evolutionsstufe: Es reicht nicht, nur Prompts clever zu gestalten, man muss dem Modell die gesamte relevante Informationsbasis zum richtigen Zeitpunkt liefern. Ein durchdachtes Kontext-Management in Kombination mit Prompt-Chaining erlaubt es, wirklich leistungsfähige, kontextbewusste KI-Anwendungen zu bauen, die weit über die Fähigkeiten einer einzelnen Prompt-Antwort hinausgehen. Für Entscheider auf C-Level bedeutet dies: Mit solchen Techniken lässt sich die Zuverlässigkeit und Nachvollziehbarkeit von KI-Systemen erheblich steigern, ein wichtiger Aspekt, um KI-Lösungen erfolgreich und vertrauenswürdig in Unternehmensprozesse zu integrieren. Für Technologen und Entwickler bietet Prompt-Chaining einen klaren Pfad, komplexe Anforderungen in robuste KI-Workflows zu gießen. Es bildet damit einen Brückenschlag zwischen klassischen Software-Prinzipien und moderner KI-Entwicklung. Wer die Muster des Prompt-Chaining verinnerlicht, hält einen mächtigen Werkzeugkasten in der Hand, um die Möglichkeiten von LLMs voll auszuschöpfen und gleichzeitig deren Risiken zu kontrollieren.
Referenzen
- LangChain Dokumentation zur LCEL (LangChain Expression Language)
- LangGraph Dokumentation und Beispiele (Stateful Prompt-Chains)
- Prompt Engineering Guide – Chaining Prompts
- OpenAI API Anleitung (Mehrturn-Interaktionen und Kontext)
- Crew AI Dokumentation (Aufgaben & Prozesse in Agenten)
- Google AI Developers Guide (Prompt- und Kontextgestaltung)
- Google Vertex AI Prompt Optimizer Dokumentation
Bringen Sie KI in Ihre operativen Prozesse – mit AI CONSULT Wir helfen Organisationen, ihre Service- und Supportprozesse und interne Abläufe mit KI-Agenten zu transformieren. Von VoiceBots bis zu automatisierter Prozesssteuerung: wir identifizieren die relevanten Use Cases und passenden Lösungen und begleiten die Implementierung für messbaren Business Impact. Sie möchten herausfinden, wie KI Ihre Prozesse effizienter, skalierbarer und kundenfreundlicher machen kann? Buchen Sie ein Strategiegespräch, und wir entwickeln gemeinsam Ihren individuellen Fahrplan.