System prompts Claude fuités : le repo gratuit (2026)

6 avril 2026

Logo Claude traversé par une déchirure coral avec un stamp LEAKED 2026

System prompts Claude fuités : le repo gratuit (2026)

En bref : - Un repo GitHub public (asgeirtj/system_prompts_leaks) compile les system prompts complets de Claude Opus 4.6, Sonnet 4.6 et Claude Code, plus ceux d'autres modèles majeurs. - Tu y trouves ce qu'Anthropic ne publie pas officiellement : la structure interne de Claude Code, ses outils, son mode plan, sa gestion de mémoire. - Le vrai intérêt n'est pas de lire. C'est de donner ces prompts à Claude et de lui demander de t'expliquer chaque choix, puis de générer ta propre version pour ton cas d'usage. - Gratuit, en un clic. Tu repars avec 3 prompts à copier-coller pour exploiter le repo aujourd'hui.

Sommaire

Quelqu'un a compilé les system prompts complets de Claude dans un repo GitHub public. Opus 4.6, Sonnet 4.6, Claude Code, les modules mémoire, le mode plan, le chercheur — tout y est. Gratuit, en un clic. Aucun paywall, aucun formulaire.

Ça fait 48 heures que je fouille dedans. Et le plus intéressant n'est pas le côté "leak". Anthropic publie déjà ses system prompts officiels depuis août 2024. Ce que le repo ajoute, c'est ce qui est resté caché jusqu'ici : Claude Code, les tools internes, le think tool, la structure exacte du mode plan. En clair, ce qui explique vraiment comment Claude fonctionne.

Je passe mes journées chez Cypher IA à construire des prompts qui font tourner des workflows réels. Quand je tombe sur un document qui montre comment l'une des boîtes les plus avancées du monde structure son IA, je lis. Et je te montre comment tu peux l'exploiter sans perdre trois heures à scroller du markdown.

Dans cet article, tu repars avec le lien du repo, les trois prompts exacts à donner à Claude pour en tirer quelque chose de concret, et une comparaison honnête entre ce qui est déjà officiel et ce qui ne l'est pas.

Logo Claude traversé par une déchirure coral avec un stamp LEAKED 2026
La fuite dont tout le monde devrait parler, et dont presque personne ne parle

La ressource : le repo GitHub

Commençons par le plus important. Si tu es passé par un de mes posts et que tu viens chercher le lien, le voici, sans détour :

github.com/asgeirtj/system_prompts_leaks

C'est un repo GitHub public, gratuit, accessible en un clic. Pas de formulaire, pas de paywall, pas de compte à créer. Tu cliques, tu lis, tu peux cloner en local si tu veux une copie figée.

Pour aller droit au but, le fichier le plus intéressant s'appelle `Anthropic/claude-code.md`. C'est le system prompt complet de Claude Code, et c'est lui qui justifie à lui seul toute la démarche — parce que celui-là, contrairement aux autres, Anthropic ne le publie pas officiellement.

Cloner en local, au cas où

Le repo peut être mis hors ligne à tout moment. Anthropic a déjà déposé des DMCA sur d'autres compilations similaires par le passé. Pour figer ta version, une seule commande :

git clone https://github.com/asgeirtj/system_prompts_leaks.git

Tu as la totalité en local, offline, pour toujours. C'est ce que j'ai fait dès que j'ai vu passer le repo, et je te conseille de faire pareil maintenant, pas dans deux semaines.

Ce qui est le plus utile, par ordre de priorité

Tout n'a pas la même valeur dans le repo. Si tu as une heure devant toi, concentre-toi sur ce qui est vraiment inédit plutôt que de scroller au hasard.

  1. `Anthropic/claude-code.md` — le system prompt complet de Claude Code, introuvable ailleurs. La vraie pépite.
  2. `Anthropic/claude-opus-4.6.md` et `claude-sonnet-4.6.md` — les modèles user-facing. Intéressants pour comprendre la structure, mais Anthropic en publie déjà une version officielle.
  3. Les dossiers des autres boîtes (OpenAI, Google, xAI) — bonus pour comparer les approches entre éditeurs.

Maintenant que tu as le lien et que tu sais où chercher, la suite de l'article t'explique comment en tirer quelque chose de concret en quinze minutes, sans te taper deux heures de lecture.

Ce qu'il y a vraiment dans le repo

Le repo s'appelle `asgeirtj/system_prompts_leaks`. Il décrit sa mission comme "a museum of how these companies tell their models to behave when nobody's looking". Traduction : un musée de comment les boîtes parlent à leurs modèles quand personne ne regarde.

Côté Claude, tu y trouves trois blocs majeurs.

Claude Opus 4.6 et Claude Sonnet 4.6 — les system prompts des modèles user-facing sur claude.ai. Rien d'ultra-secret ici : Anthropic en publie déjà une version officielle dans sa release notes. Mais le repo ajoute les versions extraites en conditions réelles, avec les variations dynamiques selon l'interface (web, API, mobile).

Claude Code — c'est là que ça devient intéressant. Le system prompt de Claude Code n'est pas dans la politique de transparence d'Anthropic. Il est assemblé dynamiquement au runtime à partir de plusieurs modules : base system, tool definitions, mode plan, sub-agents, instructions de sécurité, CLAUDE.md du projet. Le repo compile tout ça dans un fichier unique lisible d'un coup.

Les modules fonctionnels — mémoire persistante, mode plan, outil think, sub-agent "Explore", instructions de commit. Chacun de ces modules est un mini-system-prompt avec sa propre logique. Les lire dans l'ordre, c'est littéralement comprendre l'architecture interne d'un agent IA qui marche.

Combien de temps pour tout lire

Compilé, l'ensemble représente plusieurs milliers de lignes de markdown dense. Une lecture intégrale prend deux à trois heures. Tu n'as pas besoin de tout lire — la bonne stratégie est de sélectionner le module qui te sert (Plan Mode, Memory, Commit Instructions) et de l'étudier seul.

Pourquoi c'est une masterclass de prompt engineering

Lire un system prompt d'Anthropic, c'est comme ouvrir le capot d'une Formule 1. Tu vois la mécanique exacte que la boîte utilise pour faire tenir un modèle sur 200+ tâches complexes sans qu'il dérive. Trois leçons concrètes que tu peux appliquer dès demain.

XML tags partout

Claude est spécifiquement entraîné à parser les balises XML. Dans le repo, tu vois Anthropic structurer tout avec des tags : <instructions>, <context>, <task>, <output_format>, <example>, <thinking>. Pas un paragraphe en texte brut. Pas une liste à puces.

La doc officielle d'Anthropic le confirme — "XML tags effectively isolate key elements, reducing misinterpretation". Concrètement, sur tes propres prompts : au lieu d'écrire "Voici le contexte, voici la tâche, voici le format attendu", tu entoures chaque bloc d'un tag. Gain de précision mesurable.

Plan Mode : séparer le "penser" du "faire"

Dans le system prompt de Claude Code, il y a un bloc explicite pour le Plan Mode : un mode read-only où Claude analyse tout le codebase, pose des questions, génère un plan détaillé — sans toucher aux fichiers. Tu valides le plan, puis il exécute.

L'idée sous-jacente : la plupart des erreurs d'agent IA viennent du fait qu'il commence à écrire du code avant d'avoir compris le problème. Séparer explicitement la phase "think" de la phase "do" est une des techniques les plus puissantes pour fiabiliser un workflow IA.

Tu peux la copier dans tes propres agents. Un premier appel : "Produis un plan détaillé, ne touche à rien". Un deuxième appel : "Exécute le plan, une étape à la fois, demande validation entre chaque".

Le think tool

Distinct du "extended thinking" (qui se passe avant la réponse), le think tool permet à Claude de faire une pause pendant une chaîne d'appels d'outils pour réfléchir avant de continuer. C'est documenté officiellement par Anthropic dans un article dédié, et le repo montre son invocation réelle dans Claude Code.

Utilité : quand tu enchaînes 5-10 appels d'outils et que tu veux éviter que le modèle parte en vrille au milieu, tu lui donnes un outil "pause and think". Il l'utilise au moment où il détecte qu'il doit reconsidérer sa stratégie.

3 prompts pour exploiter le repo (à copier)

Tu as le lien. La vraie question, maintenant, c'est qu'est-ce que tu en fais.

Le piège classique est de lire le markdown comme un article de blog. Tu ouvres, tu parcours, tu trouves ça fascinant, tu fermes l'onglet. Quarante-huit heures plus tard, tu as tout oublié.

La bonne approche : tu donnes le fichier à Claude lui-même et tu lui demandes de faire le travail d'analyse et de transposition pour toi. Voici les trois prompts que j'utilise.

Prompt 1 — Analyse explicative

Tu es un expert en prompt engineering. Je viens de te coller le system prompt
complet de [NOM DU MODULE, ex: Claude Code Plan Mode].

<system_prompt>
[colle ici le contenu du fichier markdown du repo]
</system_prompt>

Analyse-moi ce prompt section par section. Pour chaque instruction significative :
1. Explique pourquoi elle est là (quel problème elle résout)
2. Identifie la technique de prompt engineering utilisée (role, constraint,
XML tag, few-shot, chain-of-thought, etc.)
3. Donne-moi une note sur 10 de son intérêt pour un non-Anthropic qui voudrait
s'en inspirer

Termine par les 5 instructions les plus transposables pour un usage business.

Tu obtiens une analyse structurée en cinq minutes. Tu comprends le quoi et le pourquoi.

Prompt 2 — Génération sur-mesure

Tu as analysé le system prompt de [NOM DU MODULE] dans notre échange précédent.
Maintenant, génère-moi un system prompt sur-mesure pour mon cas d'usage suivant :

<cas_usage>
[décris ton cas : "un agent qui m'aide à traiter les emails entrants",
"un assistant qui écrit des scripts vidéo", "un coach produit", etc.]
</cas_usage>

Contraintes :
- Utilise les mêmes techniques que celles du prompt Anthropic analysé
- Structure le tout en XML tags
- Inclus une section <instructions>, <output_format>, et <examples>
- Max 800 mots
- Tutoiement dans les instructions au modèle

Donne-moi le prompt final, prêt à copier dans un Custom GPT ou un Claude
Project.

Tu passes de "j'ai lu quelque chose d'intéressant" à "j'ai un prompt de niveau pro calibré pour mon activité". En dix minutes.

Prompt 3 — Transformation en skill réutilisable

Prends le system prompt que tu viens de générer et transforme-le en un skill
ClaudeProject réutilisable :

1. Donne-lui un nom court et un slogan
2. Écris un fichier SKILL.md avec : description, quand l'utiliser, structure
de l'output attendu, et 2-3 exemples d'input/output
3. Liste les 3 variables contextuelles que je devrais injecter à chaque appel
(données dynamiques que le prompt ne contient pas)

Format de sortie : un seul bloc markdown avec le SKILL.md complet.

Résultat : tu as un skill versionable, réutilisable, documenté. Plus besoin de retaper ton prompt à chaque conversation.

Ce qu'Anthropic publie déjà officiellement

Important à comprendre pour relativiser : Anthropic publie déjà une grosse partie de ses system prompts. Depuis août 2024, la boîte a lancé une politique de transparence qui met à disposition les prompts des modèles Claude user-facing, avec une mise à jour à chaque release. C'est Simon Willison qui a documenté le lancement en premier.

Mais cette transparence a des trous. Voilà ce que le repo comble.

ModulePublié officiellement par AnthropicDans le repo
Claude Opus (web/app)OuiOui
Claude Sonnet (web/app)OuiOui
Claude Haiku (web/app)OuiOui
Claude via APINonPartiellement
Claude Code (CLI agent)Non**Oui**
Tool definitions (bash, read, edit, grep)Non**Oui**
Plan ModeNon**Oui**
Memory system (mémoire persistante)Non**Oui**
Sub-agent ExploreNon**Oui**
Commit instructions + Undercover ModeNon**Oui**

La colonne de droite, c'est exactement ce qui t'intéresse si tu construis des agents. Les parties officielles ont surtout une valeur pédagogique. Les parties non-officielles ont une valeur technique — elles te montrent comment une vraie boîte structure un agent de production.

Limites, risques et légalité

Restons lucides sur ce que ce repo n'est pas.

Ce n'est pas un hack. Personne n'a brute-forcé Anthropic. Ces prompts ont été extraits via des méthodes publiques (questions au modèle, analyse du JavaScript côté client, inspection du trafic réseau). Certains sont partiellement incomplets ou légèrement différents de la version servie en production à l'instant T.

Ce n'est pas "le cerveau" de Claude. Le system prompt est une couche d'instruction. Il guide le modèle, il ne le crée pas. Claude reste Claude — son vrai "QI" vient de son entraînement, pas du texte qui précède ta question. Copier le prompt d'Opus n'en fait pas un Opus-à-la-maison.

Les mises à jour sautent. Ce qui est dans le repo aujourd'hui peut être obsolète dans 15 jours. Anthropic itère sur ses prompts en permanence. Utilise le repo comme un snapshot pédagogique, pas comme une bible.

La dimension légale. Ces prompts sont la propriété intellectuelle d'Anthropic. Les lire et s'en inspirer pour apprendre est une zone grise largement tolérée. Les republier commercialement sans attribution, en revanche, est problématique. En cas de doute, garde le repo comme une ressource d'apprentissage personnelle.

Questions fréquentes

Où est le repo exactement ?

Le repo principal est à l'adresse github.com/asgeirtj/system_prompts_leaks. Il compile les system prompts de Claude (Opus 4.6, Sonnet 4.6, Claude Code) ainsi que d'autres modèles majeurs comme GPT, Gemini et Grok. Tout est en markdown, navigable depuis l'arborescence GitHub.

Est-ce légal d'utiliser ces prompts ?

Les utiliser pour apprendre ou s'en inspirer dans tes propres prompts est largement toléré et fait partie du folklore du prompt engineering. Les republier commercialement sans attribution, en revanche, touche à la propriété intellectuelle d'Anthropic. En cas de doute, garde ça comme une ressource d'apprentissage personnelle.

Est-ce que je peux "copier" Claude Code avec son system prompt ?

Non. Copier le system prompt dans un autre modèle (GPT, Gemini, un modèle open source) ne transforme pas ce modèle en Claude Code. Le comportement de Claude Code vient à 80% de son fine-tuning et seulement 20% de son system prompt. Copie les techniques (Plan Mode, think tool, XML tags), pas le texte brut.

Anthropic ne publie pas déjà ses system prompts ?

Si, en partie. Depuis août 2024, Anthropic publie officiellement les system prompts des modèles Claude user-facing (Opus, Sonnet, Haiku sur claude.ai). Mais pas ceux de Claude Code, ni des tools internes, ni du mode plan, ni du système de mémoire. C'est exactement ce que le repo comble.

Comment commencer concrètement ce soir ?

Trois étapes : (1) va sur github.com/asgeirtj/system_prompts_leaks, (2) ouvre le dossier Anthropic/claude-code.md, (3) copie-colle le contenu dans une conversation Claude avec le Prompt 1 de cet article. En 15 minutes tu as une analyse complète de comment Anthropic structure un agent de production.

Conclusion

Le repo asgeirtj est la meilleure ressource gratuite de 2026 pour comprendre comment un agent IA de production est réellement structuré. Pas parce que c'est "secret" (la moitié est déjà publiée par Anthropic), mais parce que tout est compilé au même endroit, lisible en une session, avec Claude Code en bonus — qui, lui, n'est documenté nulle part ailleurs.

Le vrai levier n'est pas de lire. C'est de donner ces prompts directement à Claude et de lui demander de faire le travail de traduction pour ton cas d'usage. Les trois prompts de la section dédiée te donnent exactement ça.

Chaque semaine, je partage les prompts, patterns et workflows IA que j'utilise vraiment dans Cypher IA. Si tu veux ce genre de retours directement dans ta boîte mail, rejoins La Dépêche Cypher ci-dessous.

Envie d'aller plus loin ?

On vous aide à passer à l'action.

15 minutes pour identifier le premier cas d'usage IA rentable dans votre entreprise.

Prendre rendez-vous