System-Prompt-Lernen: Andrej Karpathys Vision für das nächste Paradigma im KI-Training
Andrej Karpathy, eine führende Stimme in der KI-Entwicklung und ehemaliger KI-Direktor bei Tesla, hat kürzlich mit einer scheinbar einfachen Idee eine Debatte ausgelöst: Vielleicht haben wir bei der Art und Weise, wie große Sprachmodelle (LLMs) lernen, ein ganzes Paradigma übersehen. Sein Vorschlag, das „System-Prompt-Lernen“, beinhaltet nicht mehr Daten oder tiefere Netzwerke – sondern einen intelligenteren Weg, Modelle mithilfe editierbarer Anweisungen zu steuern, die menschlichem Gedächtnis und menschlichem Denken ähneln.
In einer Welt, in der KI-Investitionen von Durchbrüchen abhängen, die über reines Vorabtraining und teure Feinabstimmung hinausgehen, wirft diese Idee – abgeleitet von der Mechanik hinter Claudes 17.000 Wörter umfassendem System-Prompt – kritische Fragen auf, wie wir KI effizienter und verantwortungsvoller skalieren können.
Vorabtraining, Feinabstimmung… und was dann?
Der aktuelle KI-Trainingsstack wird von zwei wichtigen Strategien dominiert:
- Vorabtraining: LLMs nehmen riesige Mengen an Text auf, um ein allgemeines Verständnis von Sprache und der Welt zu entwickeln.
- Feinabstimmung: Spezifische Verhaltensweisen werden durch beaufsichtigte Beispiele oder Reinforcement Learning verstärkt, oft abgestimmt auf menschliches Feedback (RLHF).
Reinforcement Learning from Human Feedback (RLHF) ist ein mehrstufiger Prozess, der verwendet wird, um KI-Modelle, insbesondere große Sprachmodelle, besser an menschliche Präferenzen anzupassen. Dabei wird menschliches Feedback genutzt, oft durch das Ranking verschiedener Modellausgaben, um ein Belohnungsmodell zu erstellen, das anschließend das Lernen der KI durch Reinforcement Learning steuert.
Beide Ansätze verändern die internen Parameter des Modells. Karpathy weist jedoch auf ein menschliches Lernmerkmal hin, das diese Methoden übersehen: Wir „verdrahten“ unser Gehirn beim Lernen oft nicht neu. Wir machen uns Notizen. Wir hinterlassen uns ausdrückliche Erinnerungen. Wir passen uns an, indem wir unsere internen Anweisungen ändern, nicht unsere Kernverdrahtung.
Das System-Prompt-Lernen leiht sich dieses Prinzip aus. Anstatt die Gewichte mit Gradienten zu bearbeiten, schlägt es vor, den System-Prompt des Modells zu bearbeiten – eine dauerhafte Reihe von Anweisungen, die sein Verhalten bei verschiedenen Aufgaben formen. In diesem Rahmen könnten LLMs theoretisch ihre eigenen Problemlösungsstrategien schreiben, verfeinern und aktualisieren – wie das Führen eines persönlichen Notizbuchs.
Claudes 17.000-Wort-Handbuch: Der Funke hinter der Verschiebung
Karpathys Vorschlag war nicht nur theoretisch. Er wurde durch ein reales Beispiel ausgelöst: das Claude-Modell von Anthropic, dessen System-Prompt fast 17.000 Wörter umfasst. Dieser Mega-Prompt kodiert alles von moralischen Grenzen (z.B. Vermeidung von urheberrechtlich geschützten Songtexten) bis hin zu detaillierten Strategien zur Beantwortung von Fragen (z.B. wie man Buchstaben in einem Wort wie Erdbeere zählt). Den vollständigen Claude-System-Prompt können Sie hier einsehen.
Tabelle 1: Eigenschaften und Komponenten von Claudes System-Prompt
Eigenschaft | Details |
---|---|
Größe | ca. 16.739 Wörter (110 KB) |
Token-Länge | Berichten zufolge etwa 24.000 Tokens |
Vergleich | Viel größer als der o4-mini von OpenAI (2.218 Wörter, 15,1 KB) |
Schlüsselkomponenten | |
Aktuelle Informationen | Gibt Datum und kontextbezogene Informationen zu Beginn der Konversation |
Verhaltensrichtlinien | Anweisungen zur Formatierung der Antwort und zum Interaktionsstil |
Rollendefinition | Legt die Identität und die Betriebsparameter von Claude fest |
Werkzeugdefinitionen | Größte Komponente; Anweisungen zur Nutzung von Werkzeugen von MCP-Servern |
Sicherheitsparameter | Anleitungen zum Umgang mit potenziell schädlichen Anfragen |
Technische Anweisungen | Anleitungen zum Zählen von Wörtern/Zeichen und zur Formatierung |
Zweck | Dient als "Einstellungen" dafür, wie das LLM mit Benutzern interagiert |
Entwicklung | Wird regelmäßig basierend auf Benutzerfeedback und Designverbesserungen aktualisiert |
Anstatt Wissen fest in die Gewichte einzucodieren – was ineffizient, unflexibel und kostspielig sein kann –, scheint Anthropic den System-Prompt als dynamische Anweisungsliste zu verwenden. Laut Karpathy ähnelt dies der Art und Weise, wie sich Menschen anpassen: indem sie explizit formulieren: „Wenn X passiert, versuche den Ansatz Y.“
Diese Verschiebung wandelt System-Prompts von statischen Verhaltensanleitungen zu lebendigen Dokumenten – einem Ort, an dem LLMs verallgemeinerte Strategien speichern und im Laufe der Zeit überarbeiten könnten. Tatsächlich ist es ein Vorschlag, KI nicht nur intelligenter, sondern auch lehrbarer zu machen.
Warum das für Investoren und Entwickler wichtig ist
Der Reiz des System-Prompt-Lernens ist nicht nur akademisch. Er spricht direkt wichtige Probleme bei der aktuellen KI-Implementierung an:
1. Geringere Betriebskosten
Die Feinabstimmung eines Modells – insbesondere mit RLHF – ist teuer und langsam. Die Aktualisierung eines System-Prompts ist dagegen nahezu kostenlos und sofort möglich. Wenn Kernverhaltensweisen durch Aktualisierung von Anweisungen anstelle von erneuter Schulung der Gewichte geändert werden können, wird die Implementierung schneller und kostengünstiger.
Methoden zur Aktualisierung von KI-Modellen: Feinabstimmung/RLHF vs. System-Prompt-Bearbeitung
Methode | Kosten & Aufwand | Zeit bis zur Umsetzung | Schlüsselmerkmale |
---|---|---|---|
Feinabstimmung / RLHF | Hoch: Benötigt Rechenleistung, Daten und ML-Expertise | Lang (Tage–Wochen) | Aktualisiert Modellgewichte für Aufgaben-/Domänengenauigkeit; weniger flexibel nach dem Training |
Prompt-Bearbeitung | Niedrig: Hauptsächlich Prompt-Design/-Tests | Kurz (Stunden–Tage) | Passt Verhalten über Anweisungen an; schnell, flexibel, kein erneutes Training erforderlich |
Allgemeine Hinweise | Kosten hängen von Modellgröße, Tokens und Infrastruktur ab | Laufende Wartung | Wahl hängt von Zielen, Ressourcen und erforderlicher Leistung ab; kann kombiniert werden |
2. Agilere KI-Produkte
Startups, die domänenspezifische Agenten entwickeln (Rechts-Bots, medizinische Assistenten, Kundendienstwerkzeuge), benötigen schnelle Iteration. System-Prompts ermöglichen schnelle Änderungen ohne erneutes Training des Modells, was die Anpassungsfähigkeit in Produktionsumgebungen erhöht.
3. Dateneffizienz und Feedbackschleifen
Herkömmliche Feinabstimmung erfordert große Datensätze. Das System-Prompt-Lernen bietet einen höherdimensionalen Feedbackkanal. Anstatt für eine skalare Belohnung zu optimieren, ermöglicht es reichhaltigeres, textuelles Feedback – näher an der Art und Weise, wie Menschen Anweisungen geben.
Was Experten dazu sagen
Die Idee hat gemischte Reaktionen in KI-Kreisen hervorgerufen:
- Befürworter vergleichen System-Prompts mit einer schriftlichen Thora – die grundlegende Anweisungen definiert –, während neue Fälle durch interaktives Lernen angepasst und erweitert werden, ähnlich einer mündlichen Thora.
- Kritiker machen sich Sorgen um Skalierung und Komplexität. Wenn Prompts wachsen, besteht die Gefahr, dass sie brüchig, inkonsistent oder widersprüchlich werden. Dies könnte die Zuverlässigkeit in kritischen Anwendungen beeinträchtigen.
- Einige plädieren für einen hybriden Ansatz: periodische „Destillation“ des System-Prompt-Wissens in die Gewichte, damit die KI im Laufe der Zeit von explizitem zu habituellem Wissen übergehen kann – genau wie Menschen.
- Andere experimentieren mit Speicherhierarchien, bei denen Modelle Beispiele zur Problemlösung indizieren und nur bei Bedarf in den Prompt-Kontext einfügen – dies wird mit Retrieval-Augmented Generation (RAG) und Planungswerkzeugen kombiniert.
Retrieval-Augmented Generation (RAG) ist eine KI-Architektur, die darauf abzielt, die von Großen Sprachmodellen (LLMs) generierten Antworten zu verbessern. Sie funktioniert, indem sie zuerst relevante Informationen aus externen Wissensquellen abruft und diesen Kontext dann dem LLM zuführt, um genauere, relevantere und aktuellere Antworten zu produzieren.
Trotz seines Versprechens sehen einige das System-Prompt-Lernen nicht als Paradigmenwechsel, sondern als inkrementelle Entwicklung. Wenn jedoch Unternehmen wie Anthropic, OpenAI und Google sich stark in der Größe ihrer System-Prompts unterscheiden (Claudes 16.739 Wörter vs. OpenAI’s ca. 2.218), ist klar, dass der Prompt zu einer neuen Grenze wird.
Wohin das als Nächstes gehen könnte
Wenn LLMs ihre eigenen System-Prompts autonom schreiben und aktualisieren könnten – um gelernte Lektionen, getestete Strategien und verfeinerte Aufgaben zu dokumentieren –, könnten wir die Geburt einer neuen KI-Trainingsarchitektur erleben:
- Selbst-verfeinernde Agenten, die sich in der Produktion durch die Überarbeitung ihrer eigenen Handbücher weiterentwickeln
- Aufgaben-spezialisierte Modelle, die keine umfangreiche erneute Schulung für neue Domänen erfordern
- Halbautomatische Destillation, bei der Prompt-basiertes Wissen selektiv in langfristige Gewichte verschoben wird, um die Leistung zu verbessern, ohne die Flexibilität zu verlieren
Dies könnte gut zu den Anforderungen von Unternehmen passen: Modelle, die interpretierbar, nachvollziehbar und schrittweise trainierbar sind – mit minimaler Ausfallzeit.
Ein Notizbuch für Maschinen
Karpathys Idee mag abstrakt klingen, aber sie greift eine tiefe Intuition auf: Intelligenz hängt nicht nur davon ab, was wir wissen – es geht darum, wie wir dieses Wissen zur Nutzung strukturieren. Das System-Prompt-Lernen deutet darauf hin, dass LLMs nicht nur größere Gehirne brauchen – sie brauchen bessere Notizbücher.
Da mehr KI-Unternehmen diesen Mittelweg zwischen Vorabtraining und Feinabstimmung erkunden, ist zu erwarten, dass sich Prompt Engineering zu Prompt-Architektur entwickelt – einer eigenen Disziplin. Ob dies das nächste Paradigma oder eine mächtige Hilfsfunktion wird, bleibt abzuwarten.
Aber eines ist klar: Im Rennen um die Entwicklung intelligenterer, kostengünstigerer und besser steuerbarer KI könnte es bald wichtiger sein, Modellen beizubringen, wie sie lernen, als was sie wissen.