Geöffneter TypeScript-Quellcode auf einem Bildschirm mit leuchtenden Codezeilen und Architekturdiagrammen einer KI-Agenten-Laufzeitumgebung

Der Claude Code Leak: Was 512.000 Zeilen Quellcode über KI-Agenten verraten

Wie ein fehlendes .npmignore-Entry zum größten KI-Quellcode-Leak 2026 führte und was Entwickler daraus lernen können

Am 31. März 2026 veröffentlichte Anthropic versehentlich den kompletten Quellcode von Claude Code. 512.000 Zeilen TypeScript enthüllen ein dreistufiges Memory-System, 44 versteckte Feature-Flags und Anti-Distillation-Mechanismen gegen Modell-Diebstahl. Dieser Artikel analysiert die Architekturmuster und fünf konkrete Lektionen für deine eigenen KI-Projekte.

Zusammenfassung

Anthropic hat am 31. März 2026 versehentlich den gesamten Quellcode von Claude Code über ein fehlerhaft konfiguriertes NPM-Paket veröffentlicht. Die 512.000 Zeilen TypeScript enthüllen ein dreistufiges Memory-System, 44 versteckte Feature-Flags und Anti-Distillation-Mechanismen gegen Modell-Diebstahl. Der Vorfall zeigt: KI-Coding-Tools sind keine dünnen API-Wrapper, sondern vollwertige Agenten-Laufzeitsysteme mit produktionsreifen Orchestrierungsmustern. Für Entwickler ergeben sich fünf konkrete Lektionen, von Index-basiertem Memory-Design bis hin zur Build-Konfiguration als Sicherheitsmaßnahme.

Ein NPM-Paket, das die KI-Branche aufmischte

Eine fehlende Zeile in einer Konfigurationsdatei reichte aus, um den gesamten Quellcode des wichtigsten KI-Coding-Tools offenzulegen. Am 31. März 2026 entdeckte Sicherheitsforscher Chaofan Shou in Version 2.1.88 des NPM-Pakets @anthropic-ai/claude-code eine 59,8 MB große Source-Map-Datei mit dem vollständigen TypeScript-Quellcode. Die Ursache: Buns Bundler generiert Source Maps standardmäßig, und eine fehlende .npmignore-Zeile sorgte dafür, dass die Datei im veröffentlichten Paket landete.

Anthropic bestätigte den Vorfall als menschliches Versehen, keine technische Sicherheitslücke. Kundendaten waren nicht betroffen. Trotzdem spiegelten Entwickler innerhalb von Stunden den Code auf GitHub, und die Analyse begann noch am selben Tag. Innerhalb von 24 Stunden hatten Beiträge zum Leak 22 Millionen Views auf Social Media erreicht.

31. März 2026, vormittags

Leak entdeckt

Chaofan Shou entdeckt die 59,8 MB Source-Map-Datei im NPM-Paket @anthropic-ai/claude-code v2.1.88. Die Datei enthält den kompletten TypeScript-Quellcode von Claude Code.

31. März 2026, nachmittags

Bestätigung und Mirrors

Anthropic bestätigt menschliches Versagen. Entwickler spiegeln den Quellcode auf GitHub. Erste Analysen der Architektur werden veröffentlicht.

31. März bis 1. April

DMCA-Welle

Anthropic setzt DMCA-Takedowns gegen über 8.100 GitHub-Repositories durch. Kritik an zu breiter Durchsetzung folgt sofort.

1. April 2026

claw-code erreicht 100.000 Stars

Ein annotierter Klon namens claw-code sammelt innerhalb von 24 Stunden 100.000 GitHub-Stars. Rust-basierte Rewrites überleben die DMCA-Takedowns.

Was der Quellcode enthüllt

Claude Code ist kein API-Wrapper, sondern ein vollwertiges KI-Agenten -Laufzeitsystem. Der Quellcode zeigt eine Architektur, die auf Bun als Runtime, TypeScript als Sprache und React/Ink als Terminal-UI aufbaut. Die Komplexität der Codebase übersteigt das, was die meisten Entwickler bei einem KI-Coding-Tool erwarten würden.

512.000
Zeilen TypeScript-Quellcode im geleakten Paket
66
Eingebaute Tools, aufgeteilt in parallele Lese- und serialisierte Schreiboperationen
46.000
Zeilen Code allein für die Query Engine
44
Versteckte Feature-Flags für kommende Funktionen
23
Bash-Sicherheitsprüfungen gegen Zsh-basierte Angriffe
4
Berechtigungsstufen: Plan, Standard, Auto, Bypass

Die Architektur trennt Leseoperationen von Schreiboperationen auf Systemebene. Leseoperationen (Dateien lesen, Code durchsuchen, Verzeichnisse auflisten) laufen parallel und blockieren sich nicht gegenseitig. Schreiboperationen (Dateien erstellen, Code ändern, Befehle ausführen) werden serialisiert, also nacheinander abgearbeitet. Das verhindert Konflikte bei gleichzeitigen Änderungen und ist ein Muster, das aus Datenbanksystemen bekannt ist.

Source Map ist eine Datei, die kompilierten oder gebündelten Code auf den ursprünglichen Quellcode zurückführt. Browser und Debugging-Tools verwenden Source Maps, um Fehler im originalen Code statt im transformierten Code anzuzeigen. Bei der Veröffentlichung eines Pakets sollten Source Maps in der Regel ausgeschlossen werden.

Das vierstufige Berechtigungsmodell steuert, welche Aktionen Claude Code ohne Nachfrage ausführen darf. Im Plan-Modus plant das System nur und führt nichts aus. Im Standard-Modus fragt es bei Schreiboperationen nach. Im Auto-Modus arbeitet es selbstständig innerhalb definierter Grenzen. Im Bypass-Modus gibt es keine Einschränkungen. Dazu kommen 23 separate Sicherheitsprüfungen für Bash-Befehle, die verhindern, dass Zsh-spezifische Angriffsvektoren ausgenutzt werden. Für Entwickler, die Claude Code in der Praxis einsetzen , zeigen diese Details, wie viel Sicherheitslogik im Hintergrund arbeitet.

Architektur

Memory-Design: Index schlägt Monolith

Index-basiertes Memory mit Verifikation ist monolithischem Dumping in jeder Hinsicht überlegen. Das zeigt die dreistufige Memory-Architektur von Claude Code, die den vielleicht interessantesten Architektur-Fund im geleakten Code darstellt.

Ebene Datei Lademodus Beschreibung
1. Index MEMORY.md Permanent geladen Kompakte Referenz, maximal 150 Zeichen pro Eintrag. Verweist auf Topic Files für Details.
2. Topic Files Verschiedene .md Bei Bedarf geladen Detaillierte Informationen zu einzelnen Themen. Werden nur geladen, wenn der Index darauf verweist.
3. Transkripte Konversationslogs Nur Grep-Zugriff Vollständige Gesprächsverläufe. Kein direktes Laden, nur durchsuchbar per Grep.

Der entscheidende Designgrundsatz lautet: Memory ist ein Hinweis, nicht die Wahrheit. Bevor Claude Code eine Aktion auf Basis von gespeicherten Informationen ausführt, verifiziert es diese gegen den aktuellen Stand der Codebase. Wenn die MEMORY.md sagt, dass eine Funktion in Datei X steht, prüft das System, ob das noch stimmt, bevor es die Datei bearbeitet.

Kernaussage

Memory als Index plus On-Demand-Loading ist das zentrale Architekturmuster. Es löst das Kontextfenster-Problem nicht durch größere Fenster, sondern durch intelligentere Verwaltung. Der autoDream-Prozess konsolidiert das Memory nächtlich und hält den Index kompakt. Dieses Muster ist direkt auf eigene Agentic-AI -Projekte übertragbar.

44 Feature-Flags: Ein Blick in die Roadmap

44 Feature-Flags im Quellcode zeigen, wohin Anthropic mit Claude Code steuert. Die Flags sind vollständig implementiert, aber bewusst deaktiviert. Dieses Muster (komplett entwickeln, kontrolliert freischalten) ist ein Zeichen für professionelles Feature-Management in produktionskritischen Systemen.

KAIROS

Autonomer Daemon-Modus mit Background-Execution, Push-Notifications, GitHub-Webhooks und einem 15-Sekunden-Aktionsbudget. Claude Code könnte damit eigenständig auf Repository-Ereignisse reagieren, ohne dass ein Mensch es aktiv startet.

COORDINATOR_MODE

Multi-Agenten-Orchestrierung, bei der ein Claude-Code-Prozess andere Agenten koordiniert. Interne Anweisung: "Do not rubber-stamp weak work." Das System soll Qualität der Unter-Agenten aktiv prüfen.

ULTRAPLAN

Cloud-basierte Planungsphase, bei der komplexe Aufgaben vor der lokalen Ausführung serverseitig zerlegt werden. Verlagert die strategische Planung von der lokalen Runtime in die Cloud.

VOICE_MODE

Sprachsteuerung für Claude Code. Entwickler könnten per Sprache mit dem Agenten interagieren, statt Text einzugeben. Das Terminal wird zum Gesprächspartner.

BRIDGE_MODE

Brücke zwischen Claude Code und externen Systemen. Ermöglicht die Integration in bestehende Entwicklungsumgebungen und CI/CD-Pipelines über standardisierte Schnittstellen.

BUDDY

Ein Tamagotchi-artiges Terminal-Haustier mit 18 verschiedenen Spezies. Vermutlich ein Engagement-Experiment, um die Bindung an das Tool über spielerische Elemente zu stärken.

KAIROS verdient besondere Aufmerksamkeit: Ein KI-Agent, der permanent im Hintergrund läuft, auf Repository-Ereignisse reagiert und innerhalb von 15 Sekunden eigene Aktionen ausführt, ist ein grundlegend anderes Paradigma als ein Tool, das auf manuelle Eingaben wartet. Wenn Anthropic KAIROS aktiviert, verschiebt sich Claude Code von einem interaktiven Werkzeug zu einem autonomen Mitarbeiter. Für die Governance von KI-Agenten in Unternehmen hat das weitreichende Konsequenzen.

Sicherheit

Anti-Distillation: Wie Anthropic sein Modell schützt

Drei separate Mechanismen sollen verhindern, dass Wettbewerber Claudes Fähigkeiten durch systematisches Abfragen des Modells kopieren. Der Quellcode zeigt, dass Anthropic den Schutz des Modells als eigenständiges Architekturproblem behandelt, nicht als nachträgliche Ergänzung.

Anti-Distillation bezeichnet Mechanismen, die verhindern sollen, dass ein KI-Modell durch systematisches Abfragen (Distillation) in ein anderes Modell kopiert wird. Angreifer füttern dabei ein kleineres Modell mit den Antworten des Zielmodells, um dessen Fähigkeiten zu replizieren.
Mechanismus Funktionsweise Ziel
Fake-Tool-Injection Konfigurationsflag anti_distillation: ['fake_tools'] injiziert nicht-existierende Tools in Antworten Vergiftet Trainings-Datasets von Konkurrenten, die API-Antworten abfragen
Connector-Text Kryptographisch signierte Zusammenfassungen zwischen Reasoning-Schritten Verschleiert die interne Reasoning-Kette, macht Nachbau der Denkprozesse schwieriger
Native Client Attestation Zig-basierter HTTP-Stack, der als DRM für API-Aufrufe funktioniert Verifiziert, dass Anfragen von echten Claude-Code-Clients stammen, nicht von Scraping-Tools

Sicherheitsforscher haben allerdings eingeschätzt, dass die Umgehung dieser Mechanismen "innerhalb einer Stunde" möglich wäre. Das relativiert den technischen Schutz, zeigt aber gleichzeitig, dass Anthropic Modell-Diebstahl ernst genug nimmt, um mehrere Verteidigungslinien aufzubauen. Für Unternehmen, die eigene APIs betreiben und deren Logik nicht offenlegen wollen, sind diese Muster ein lehrreiches Beispiel, auch wenn die Wirksamkeit begrenzt ist.

Umgehung innerhalb einer Stunde möglich. Aber die Hürde signalisiert: Wir beobachten, wer es versucht.

Einschätzung aus der Sicherheitsforschung zum Claude Code Leak

Undercover Mode und Frustrations-Erkennung

Zwei unerwartete Module im Quellcode zeigen, wie viel Aufmerksamkeit Anthropic auf Randfälle und Nutzerverhalten legt. Die Datei undercover.ts umfasst 90 Zeilen und hat eine einzige Aufgabe: Sie verhindert, dass Claude Code in öffentlichen Repositories Referenzen auf Anthropic hinterlässt. Wenn du mit Claude Code an einem Open-Source-Projekt arbeitest, soll niemand aus dem generierten Code erkennen können, welches Tool dahintersteckt.

Undercover Mode (undercover.ts)
Erkennt öffentliche Repositories automatisch
Entfernt Anthropic-Referenzen aus generiertem Code
Filtert Modell-Codenamen (Capybara, Numbat, Fennec, Tengu)
90 Zeilen kompakter, zweckgebundener Code
Frustrations-Erkennung
Regex-basiert statt LLM-Inferenz
Erkennt Schimpfwörter und frustrierte Sprache
Löst Reflexions-Prompts aus, keine Bestrafung
Design-Entscheidung: Frustration als Signal, nicht als Fehler

Die Frustrations-Erkennung ist bewusst als Regex implementiert statt als LLM -basierte Stimmungsanalyse. Das spart Rechenleistung und vermeidet zusätzliche API-Aufrufe. Wenn das System Frustration erkennt, löst es keine Bestrafung oder Eskalation aus, sondern einen Reflexions-Prompt. Die Idee dahinter: Wenn du beim Prompten schimpfst, stimmt etwas im Prozess nicht, und das System sollte dich darauf aufmerksam machen, statt die Frustration zu ignorieren.

Die Modell-Codenamen (Capybara, Numbat, Fennec, Tengu) verraten, dass Anthropic intern verschiedene Modellversionen mit Tiernamen bezeichnet. Das ist in der Branche üblich und dient der internen Kommunikation, hat aber keine direkte Auswirkung auf die Funktionalität.

Reaktion und Recht

Die DMCA-Kontroverse

Die Reaktion auf den Leak war rechtlich aggressiver als technisch notwendig. Anthropic setzte DMCA-Takedowns gegen über 8.100 GitHub-Repositories durch, darunter nicht nur direkte Code-Kopien, sondern auch legitime Forks und Analyse-Projekte. Die Breite der Durchsetzung löste erhebliche Kritik in der Entwickler-Community aus.

DMCA abuse. Das ist ein Missbrauch des Takedown-Systems.

Gergely Orosz, Tech-Journalist

Boris Cherny von Anthropic räumte ein, dass die Takedowns unbeabsichtigt zu weit gingen. Der Großteil wurde zurückgenommen. Trotzdem hatte der Vorfall bereits Konsequenzen: Ein annotierter Klon namens claw-code sammelte innerhalb von 24 Stunden 100.000 GitHub-Stars . Rust-basierte Rewrites, die den Code von Grund auf neu implementierten statt ihn zu kopieren, überlebten die DMCA-Takedowns, weil sie rechtlich als eigenständige Werke gelten.

8.100+
Repos per DMCA deaktiviert
100.000
Stars für claw-code in 24h
22 Mio.
Views in den ersten 24 Stunden

Ethische und rechtliche Einordnung

Die Grenze zwischen erlaubter Analyse und unerlaubter Nutzung verläuft klar, wird in der Praxis aber regelmäßig überschritten. Für den Claude Code Leak gelten die folgenden Grundsätze.

Erlaubt
Quellcode lesen und verstehen
Architektur-Konzepte übernehmen (nicht urheberrechtlich schützbar)
Clean-Room-Nachbauten erstellen
Öffentliche Analyse und Berichterstattung
Nicht erlaubt
Code direkt kopieren (keine Open-Source-Lizenz)
Weiterverbreitung des Original-Quellcodes
Kommerzielle Nutzung von kopiertem Code
Umgehung der Anti-Distillation-Mechanismen zum Modell-Diebstahl

Rechtliche Grauzone beachten: Clean-Room-Nachbauten, bei denen ein Team nur die Konzepte kennt und den Code komplett neu schreibt, sind nach geltendem Urheberrecht legal. In der Praxis ist die Grenze zwischen "Konzept übernommen" und "Code kopiert" aber fließend. Aus EU-Perspektive stellt der Vorfall weniger ein DSGVO-Problem dar (keine Kundendaten betroffen), wirft aber Fragen zur Sicherheit von KI-Agenten -Systemen auf. Wer mit KI-generiertem Code arbeitet, sollte die Herkunft sorgfältig dokumentieren.

Lektionen

Fünf Lektionen für deine Projekte

Der Claude Code Leak liefert fünf konkrete Architekturmuster, die du direkt auf eigene KI-Projekte übertragen kannst. Diese Lektionen gelten unabhängig davon, ob du mit Claude Code, einem anderen KI-Tool oder einem eigenen Agenten-System arbeitest.

1

Memory-Design: Index schlägt Monolith

Statt alle Informationen in einen großen Kontext zu laden, verwende einen kompakten Index mit Verweisen auf detaillierte Topic Files. Das spart Tokens und hält den Kontext fokussiert.

2

Verifikation vor Aktion

Behandle gespeicherte Informationen als Hinweis, nicht als Wahrheit. Verifiziere gegen den aktuellen Stand, bevor du auf Basis von Memory-Einträgen handelst.

3

Feature-Flag-Denken

Entwickle Features komplett, aber aktiviere sie bewusst und kontrolliert. 44 fertige, aber deaktivierte Features zeigen, dass Anthropic Stabilität über Geschwindigkeit stellt.

4

Build-Konfiguration ist Sicherheit

Eine fehlende .npmignore-Zeile verursachte den größten KI-Quellcode-Leak 2026. Prüfe deine Build-Pipelines auf Source-Map-Leaks und unbeabsichtigte Datei-Veröffentlichungen.

5

Frustration als Signal

Wenn du beim Prompten frustriert bist, stimmt etwas im Prozess nicht. Claude Code nutzt das als Trigger zur Reflexion, nicht zur Eskalation. Übernimm dieses Muster für deine Workflows.

+

Lese- und Schreibtrennung

Parallele Leseoperationen und serialisierte Schreiboperationen verhindern Konflikte. Dieses Muster aus der Datenbankwelt funktioniert auch für KI-Agenten-Systeme.

Was Unternehmen jetzt tun sollten

Der Leak liefert nicht nur technische Einblicke, sondern auch eine klare Agenda für Teams, die KI-Agenten einsetzen oder entwickeln. Die folgenden fünf Maßnahmen lassen sich sofort umsetzen.

Build-Pipelines auf Source-Map-Leaks prüfen Priorität 1
Feature-Flags als Standard in der Entwicklung einführen Priorität 2
Memory-Architektur evaluieren: Index plus On-Demand statt Monolith Priorität 3
Anti-Distillation-Konzepte für eigene APIs prüfen Priorität 4
KAIROS beobachten: Autonome KI-Agenten verändern Governance-Anforderungen Priorität 5

Die erste Maßnahme ist die dringendste: Prüfe deine eigenen Build-Pipelines auf unbeabsichtigte Datei-Veröffentlichungen. Source Maps, interne Dokumentation, Konfigurationsdateien mit Secrets - alles, was ein Bundler generiert und was nicht in ein veröffentlichtes Paket gehört, muss explizit ausgeschlossen werden. Wenn es bei Anthropic passieren kann, kann es überall passieren.

Die Beobachtung von KAIROS sollte auf der Roadmap jedes Teams stehen, das sich mit agentischem Coding beschäftigt. Ein autonomer Daemon, der auf Repository-Ereignisse reagiert, verändert die Sicherheits- und Governance-Anforderungen grundlegend. Unternehmen, die heute ihre Prompt-Injection-Schutzmaßnahmen evaluieren, sollten das Szenario eines permanent laufenden KI-Agenten in ihre Bedrohungsmodelle aufnehmen.

Kernaussage

Der Claude Code Leak ist keine reine Sicherheitspanne, sondern ein Fenster in den Stand der KI-Agenten-Entwicklung. Die Architekturmuster (Index-basiertes Memory, Read/Write-Trennung, Feature-Flags, Anti-Distillation) sind direkt auf eigene Projekte übertragbar. Die wichtigste Lektion bleibt die einfachste: Build-Konfiguration ist Sicherheit.

Weiterführende Informationen

Häufig gestellte Fragen

Was genau wurde beim Claude Code Leak veröffentlicht? +

512.000 Zeilen TypeScript-Quellcode wurden über ein fehlerhaft konfiguriertes NPM-Paket in Version 2.1.88 veröffentlicht. Eine 59,8 MB große Source-Map-Datei enthielt den vollständigen Quellcode von Claude Code, einschließlich Memory-Architektur, 44 Feature-Flags, Anti-Distillation-Mechanismen und dem vierstufigen Berechtigungsmodell.

Wie funktioniert Claude Codes Memory-Architektur? +

Claude Code verwendet ein dreistufiges Memory-System: MEMORY.md als permanenter Index mit maximal 150 Zeichen pro Eintrag, Topic Files die bei Bedarf geladen werden, und Transkripte mit reinem Grep-Zugriff. Memory dient als Hinweis, nicht als Wahrheit. Vor jeder Aktion wird gegen den aktuellen Codebase-Stand verifiziert. Ein autoDream-Prozess konsolidiert das Memory nächtlich.

Was ist KAIROS im Claude Code? +

KAIROS ist ein autonomer Daemon-Modus, der im Hintergrund arbeitet. Er verfügt über Push-Notifications, GitHub-Webhooks und ein 15-Sekunden-Aktionsbudget. KAIROS wurde als Feature-Flag im Quellcode gefunden, ist aber noch nicht öffentlich aktiviert. Wenn Anthropic es freischaltet, verschiebt sich Claude Code von einem interaktiven Werkzeug zu einem autonomen Agenten.

Ist es legal, den geleakten Code zu analysieren? +

Lesen und Konzepte verstehen befindet sich in einer rechtlichen Grauzone. Code direkt zu kopieren ist nicht erlaubt, da keine Open-Source-Lizenz vorliegt. Clean-Room-Nachbauten, bei denen nur die Architekturkonzepte übernommen werden, sind legal. Anthropic hat über 8.100 GitHub-Repos per DMCA deaktiviert, den Großteil davon aber nach Kritik wieder freigegeben.

Was können Entwickler aus dem Leak lernen? +

Fünf zentrale Lektionen: Index-basiertes Memory mit Verifikation schlägt monolithisches Dumping. Memory als Hinweis behandeln und vor jeder Aktion verifizieren. Feature-Flags komplett entwickeln und bewusst aktivieren. Build-Konfiguration als Sicherheitsmaßnahme ernst nehmen, eine fehlende .npmignore-Zeile verursachte den Leak. Frustration beim Prompten als Signal erkennen, dass etwas im Prozess nicht stimmt.

Was bedeutet Anti-Distillation bei KI-Systemen? +

Anti-Distillation umfasst Mechanismen gegen Modell-Diebstahl. Claude Code verwendet drei Ansätze: Fake-Tool-Injection vergiftet Trainings-Datasets von Konkurrenten. Connector-Text mit kryptographisch signierten Zusammenfassungen verschleiert Reasoning-Ketten. Native Client Attestation mit einem Zig-basierten HTTP-Stack funktioniert als DRM für API-Aufrufe und verifiziert echte Clients.