Karpathy schlägt neue KI-Trainingsmethode vor, inspiriert vom 17000-Wörter-System-Prompt von Claude

Von
Lang Wang
6 Minuten Lesezeit

System-Prompt-Lernen: Andrej Karpathys Vision für das nächste Paradigma im KI-Training

Andrej Karpathy, eine führende Stimme in der KI-Entwicklung und ehemaliger KI-Direktor bei Tesla, hat kürzlich mit einer scheinbar einfachen Idee eine Debatte ausgelöst: Vielleicht haben wir bei der Art und Weise, wie große Sprachmodelle (LLMs) lernen, ein ganzes Paradigma übersehen. Sein Vorschlag, das „System-Prompt-Lernen“, beinhaltet nicht mehr Daten oder tiefere Netzwerke – sondern einen intelligenteren Weg, Modelle mithilfe editierbarer Anweisungen zu steuern, die menschlichem Gedächtnis und menschlichem Denken ähneln.

Andrej Karpathy präsentiert auf der Bühne, bekannt für seine Arbeit bei Tesla und OpenAI. (ytimg.com)
Andrej Karpathy präsentiert auf der Bühne, bekannt für seine Arbeit bei Tesla und OpenAI. (ytimg.com)

In einer Welt, in der KI-Investitionen von Durchbrüchen abhängen, die über reines Vorabtraining und teure Feinabstimmung hinausgehen, wirft diese Idee – abgeleitet von der Mechanik hinter Claudes 17.000 Wörter umfassendem System-Prompt – kritische Fragen auf, wie wir KI effizienter und verantwortungsvoller skalieren können.


Vorabtraining, Feinabstimmung… und was dann?

Der aktuelle KI-Trainingsstack wird von zwei wichtigen Strategien dominiert:

  • Vorabtraining: LLMs nehmen riesige Mengen an Text auf, um ein allgemeines Verständnis von Sprache und der Welt zu entwickeln.
  • Feinabstimmung: Spezifische Verhaltensweisen werden durch beaufsichtigte Beispiele oder Reinforcement Learning verstärkt, oft abgestimmt auf menschliches Feedback (RLHF).

Reinforcement Learning from Human Feedback (RLHF) ist ein mehrstufiger Prozess, der verwendet wird, um KI-Modelle, insbesondere große Sprachmodelle, besser an menschliche Präferenzen anzupassen. Dabei wird menschliches Feedback genutzt, oft durch das Ranking verschiedener Modellausgaben, um ein Belohnungsmodell zu erstellen, das anschließend das Lernen der KI durch Reinforcement Learning steuert.

Beide Ansätze verändern die internen Parameter des Modells. Karpathy weist jedoch auf ein menschliches Lernmerkmal hin, das diese Methoden übersehen: Wir „verdrahten“ unser Gehirn beim Lernen oft nicht neu. Wir machen uns Notizen. Wir hinterlassen uns ausdrückliche Erinnerungen. Wir passen uns an, indem wir unsere internen Anweisungen ändern, nicht unsere Kernverdrahtung.

Das System-Prompt-Lernen leiht sich dieses Prinzip aus. Anstatt die Gewichte mit Gradienten zu bearbeiten, schlägt es vor, den System-Prompt des Modells zu bearbeiten – eine dauerhafte Reihe von Anweisungen, die sein Verhalten bei verschiedenen Aufgaben formen. In diesem Rahmen könnten LLMs theoretisch ihre eigenen Problemlösungsstrategien schreiben, verfeinern und aktualisieren – wie das Führen eines persönlichen Notizbuchs.


Claudes 17.000-Wort-Handbuch: Der Funke hinter der Verschiebung

Karpathys Vorschlag war nicht nur theoretisch. Er wurde durch ein reales Beispiel ausgelöst: das Claude-Modell von Anthropic, dessen System-Prompt fast 17.000 Wörter umfasst. Dieser Mega-Prompt kodiert alles von moralischen Grenzen (z.B. Vermeidung von urheberrechtlich geschützten Songtexten) bis hin zu detaillierten Strategien zur Beantwortung von Fragen (z.B. wie man Buchstaben in einem Wort wie Erdbeere zählt). Den vollständigen Claude-System-Prompt können Sie hier einsehen.

Tabelle 1: Eigenschaften und Komponenten von Claudes System-Prompt

EigenschaftDetails
Größeca. 16.739 Wörter (110 KB)
Token-LängeBerichten zufolge etwa 24.000 Tokens
VergleichViel größer als der o4-mini von OpenAI (2.218 Wörter, 15,1 KB)
Schlüsselkomponenten
Aktuelle InformationenGibt Datum und kontextbezogene Informationen zu Beginn der Konversation
VerhaltensrichtlinienAnweisungen zur Formatierung der Antwort und zum Interaktionsstil
RollendefinitionLegt die Identität und die Betriebsparameter von Claude fest
WerkzeugdefinitionenGrößte Komponente; Anweisungen zur Nutzung von Werkzeugen von MCP-Servern
SicherheitsparameterAnleitungen zum Umgang mit potenziell schädlichen Anfragen
Technische AnweisungenAnleitungen zum Zählen von Wörtern/Zeichen und zur Formatierung
ZweckDient als "Einstellungen" dafür, wie das LLM mit Benutzern interagiert
EntwicklungWird regelmäßig basierend auf Benutzerfeedback und Designverbesserungen aktualisiert

Anstatt Wissen fest in die Gewichte einzucodieren – was ineffizient, unflexibel und kostspielig sein kann –, scheint Anthropic den System-Prompt als dynamische Anweisungsliste zu verwenden. Laut Karpathy ähnelt dies der Art und Weise, wie sich Menschen anpassen: indem sie explizit formulieren: „Wenn X passiert, versuche den Ansatz Y.“

Diese Verschiebung wandelt System-Prompts von statischen Verhaltensanleitungen zu lebendigen Dokumenten – einem Ort, an dem LLMs verallgemeinerte Strategien speichern und im Laufe der Zeit überarbeiten könnten. Tatsächlich ist es ein Vorschlag, KI nicht nur intelligenter, sondern auch lehrbarer zu machen.


Warum das für Investoren und Entwickler wichtig ist

Der Reiz des System-Prompt-Lernens ist nicht nur akademisch. Er spricht direkt wichtige Probleme bei der aktuellen KI-Implementierung an:

1. Geringere Betriebskosten

Die Feinabstimmung eines Modells – insbesondere mit RLHF – ist teuer und langsam. Die Aktualisierung eines System-Prompts ist dagegen nahezu kostenlos und sofort möglich. Wenn Kernverhaltensweisen durch Aktualisierung von Anweisungen anstelle von erneuter Schulung der Gewichte geändert werden können, wird die Implementierung schneller und kostengünstiger.

Methoden zur Aktualisierung von KI-Modellen: Feinabstimmung/RLHF vs. System-Prompt-Bearbeitung

MethodeKosten & AufwandZeit bis zur UmsetzungSchlüsselmerkmale
Feinabstimmung / RLHFHoch: Benötigt Rechenleistung, Daten und ML-ExpertiseLang (Tage–Wochen)Aktualisiert Modellgewichte für Aufgaben-/Domänengenauigkeit; weniger flexibel nach dem Training
Prompt-BearbeitungNiedrig: Hauptsächlich Prompt-Design/-TestsKurz (Stunden–Tage)Passt Verhalten über Anweisungen an; schnell, flexibel, kein erneutes Training erforderlich
Allgemeine HinweiseKosten hängen von Modellgröße, Tokens und Infrastruktur abLaufende WartungWahl hängt von Zielen, Ressourcen und erforderlicher Leistung ab; kann kombiniert werden
2. Agilere KI-Produkte

Startups, die domänenspezifische Agenten entwickeln (Rechts-Bots, medizinische Assistenten, Kundendienstwerkzeuge), benötigen schnelle Iteration. System-Prompts ermöglichen schnelle Änderungen ohne erneutes Training des Modells, was die Anpassungsfähigkeit in Produktionsumgebungen erhöht.

3. Dateneffizienz und Feedbackschleifen

Herkömmliche Feinabstimmung erfordert große Datensätze. Das System-Prompt-Lernen bietet einen höherdimensionalen Feedbackkanal. Anstatt für eine skalare Belohnung zu optimieren, ermöglicht es reichhaltigeres, textuelles Feedback – näher an der Art und Weise, wie Menschen Anweisungen geben.


Was Experten dazu sagen

Die Idee hat gemischte Reaktionen in KI-Kreisen hervorgerufen:

  • Befürworter vergleichen System-Prompts mit einer schriftlichen Thora – die grundlegende Anweisungen definiert –, während neue Fälle durch interaktives Lernen angepasst und erweitert werden, ähnlich einer mündlichen Thora.
  • Kritiker machen sich Sorgen um Skalierung und Komplexität. Wenn Prompts wachsen, besteht die Gefahr, dass sie brüchig, inkonsistent oder widersprüchlich werden. Dies könnte die Zuverlässigkeit in kritischen Anwendungen beeinträchtigen.
  • Einige plädieren für einen hybriden Ansatz: periodische „Destillation“ des System-Prompt-Wissens in die Gewichte, damit die KI im Laufe der Zeit von explizitem zu habituellem Wissen übergehen kann – genau wie Menschen.
  • Andere experimentieren mit Speicherhierarchien, bei denen Modelle Beispiele zur Problemlösung indizieren und nur bei Bedarf in den Prompt-Kontext einfügen – dies wird mit Retrieval-Augmented Generation (RAG) und Planungswerkzeugen kombiniert.

Retrieval-Augmented Generation (RAG) ist eine KI-Architektur, die darauf abzielt, die von Großen Sprachmodellen (LLMs) generierten Antworten zu verbessern. Sie funktioniert, indem sie zuerst relevante Informationen aus externen Wissensquellen abruft und diesen Kontext dann dem LLM zuführt, um genauere, relevantere und aktuellere Antworten zu produzieren.

Trotz seines Versprechens sehen einige das System-Prompt-Lernen nicht als Paradigmenwechsel, sondern als inkrementelle Entwicklung. Wenn jedoch Unternehmen wie Anthropic, OpenAI und Google sich stark in der Größe ihrer System-Prompts unterscheiden (Claudes 16.739 Wörter vs. OpenAI’s ca. 2.218), ist klar, dass der Prompt zu einer neuen Grenze wird.


Wohin das als Nächstes gehen könnte

Wenn LLMs ihre eigenen System-Prompts autonom schreiben und aktualisieren könnten – um gelernte Lektionen, getestete Strategien und verfeinerte Aufgaben zu dokumentieren –, könnten wir die Geburt einer neuen KI-Trainingsarchitektur erleben:

  • Selbst-verfeinernde Agenten, die sich in der Produktion durch die Überarbeitung ihrer eigenen Handbücher weiterentwickeln
  • Aufgaben-spezialisierte Modelle, die keine umfangreiche erneute Schulung für neue Domänen erfordern
  • Halbautomatische Destillation, bei der Prompt-basiertes Wissen selektiv in langfristige Gewichte verschoben wird, um die Leistung zu verbessern, ohne die Flexibilität zu verlieren

Dies könnte gut zu den Anforderungen von Unternehmen passen: Modelle, die interpretierbar, nachvollziehbar und schrittweise trainierbar sind – mit minimaler Ausfallzeit.


Ein Notizbuch für Maschinen

Karpathys Idee mag abstrakt klingen, aber sie greift eine tiefe Intuition auf: Intelligenz hängt nicht nur davon ab, was wir wissen – es geht darum, wie wir dieses Wissen zur Nutzung strukturieren. Das System-Prompt-Lernen deutet darauf hin, dass LLMs nicht nur größere Gehirne brauchen – sie brauchen bessere Notizbücher.

Da mehr KI-Unternehmen diesen Mittelweg zwischen Vorabtraining und Feinabstimmung erkunden, ist zu erwarten, dass sich Prompt Engineering zu Prompt-Architektur entwickelt – einer eigenen Disziplin. Ob dies das nächste Paradigma oder eine mächtige Hilfsfunktion wird, bleibt abzuwarten.

Aber eines ist klar: Im Rennen um die Entwicklung intelligenterer, kostengünstigerer und besser steuerbarer KI könnte es bald wichtiger sein, Modellen beizubringen, wie sie lernen, als was sie wissen.

Das könnte Ihnen auch gefallen

Dieser Artikel wurde von unserem Benutzer gemäß den Regeln und Richtlinien für die Einreichung von Nachrichten. Das Titelbild ist computererzeugte Kunst nur zu illustrativen Zwecken; nicht indikativ für den tatsächlichen Inhalt. Wenn Sie glauben, dass dieser Artikel gegen Urheberrechte verstößt, zögern Sie bitte nicht, dies zu melden, indem Sie uns eine E-Mail senden. Ihre Wachsamkeit und Zusammenarbeit sind unschätzbar, um eine respektvolle und rechtlich konforme Community aufrechtzuerhalten.

Abonnieren Sie unseren Newsletter

Erhalten Sie das Neueste aus dem Unternehmensgeschäft und der Technologie mit exklusiven Einblicken in unsere neuen Angebote

Wir verwenden Cookies auf unserer Website, um bestimmte Funktionen zu ermöglichen, Ihnen relevantere Informationen bereitzustellen und Ihr Erlebnis auf unserer Website zu optimieren. Weitere Informationen finden Sie in unserer Datenschutzrichtlinie und unseren Nutzungsbedingungen . Obligatorische Informationen finden Sie im Impressum