Outils IAMéthodologie

Le conseil des agents : le skill Claude complet

25 avril 2026 · 8 min de lecture

Partagerin𝕏
Le conseil des agents : le skill Claude complet

Le conseil des agents : le skill Claude complet

Le conseil des agents est un skill Claude qui transforme une question importante en conseil de décision structuré : 5 agents IA répondent indépendamment, relisent anonymement les réponses des autres, puis un chairman produit un verdict final. Techniquement, le fichier s'appelle llm-council et s'inspire du projet open source llm-council d'Andrej Karpathy, qui envoie une question à plusieurs modèles, anonymise leurs réponses pour la review, puis demande à un chairman de synthétiser la meilleure réponse. Ici, on adapte cette méthode dans Claude avec des sub-agents et des styles de pensée différents. Ce n'est pas un comité d'experts humains, ni un produit officiel Anthropic. C'est un cadre pour arrêter de demander à Claude de te rassurer et commencer à lui demander de te challenger.

Chez Cypher, ce type de méthode est utile dès qu'on doit arbitrer une priorité IA, choisir un chantier client, ou décider s'il faut automatiser un processus métier. C'est exactement l'esprit d'une mission d'audit IA : ne pas partir de l'outil, mais du bon problème à résoudre.

Pourquoi Claude te donne trop souvent raison

Le problème ne vient pas seulement de Claude. Il vient souvent de la question.

Quand tu demandes à un assistant IA "est-ce que mon idée est bonne ?", tu lui tends déjà une direction. Il va essayer d'être utile. Donc il reformule ton idée, il trouve les arguments favorables, il ajoute deux réserves, et tu repars avec une validation déguisée.

Sur une petite décision, ce n'est pas grave. Sur une décision business, ça peut coûter cher.

Tu peux te convaincre qu'une nouvelle offre est prioritaire alors que ton problème est l'acquisition. Tu peux automatiser un processus qui n'est pas le vrai goulot d'étranglement. Tu peux lancer un produit parce que Claude a trouvé un narratif séduisant, alors que personne n'a encore validé la demande.

Le council sert à créer de la friction avant de décider. Pas une friction théorique. Une friction organisée : un contradicteur, un penseur first principles, un expansionniste, un outsider, un exécuteur. Chacun pousse dans une direction différente. Puis les réponses sont relues anonymement pour éviter que le chairman ne synthétise simplement cinq monologues.

Ce que fait vraiment le skill llm-council

Le skill fonctionne en 4 mouvements.

  1. Claude reformule ta question avec le contexte utile.
  2. Il lance 5 agents en parallèle : Contrarian, First Principles Thinker, Expansionist, Outsider, Executor.
  3. Il anonymise les 5 réponses et lance une peer review : chaque reviewer choisit la réponse la plus forte, le plus gros angle mort, et ce que tout le monde a raté.
  4. Un chairman synthétise : accords, désaccords, angles morts, recommandation, et une seule action à faire en premier.

La différence avec un prompt classique est énorme. Tu ne demandes plus "donne-moi ton avis". Tu forces Claude à séparer les perspectives, à faire relire les réponses, et à sortir une recommandation qui assume les désaccords.

Ce n'est pas magique. Les faits restent à vérifier. Mais la structure est beaucoup moins complaisante qu'une conversation simple.

Le skill complet à copier dans Claude

Copie tout le bloc ci-dessous. C'est le texte du skill.

Skill Claude complet
---
name: llm-council
description: "Run any question, idea, or decision through a council of 5 AI advisors who independently analyze it, peer-review each other anonymously, and synthesize a final verdict. Based on Karpathy's LLM Council methodology. MANDATORY TRIGGERS: 'council this', 'run the council', 'war room this', 'pressure-test this', 'stress-test this', 'debate this'. STRONG TRIGGERS (use when combined with a real decision or tradeoff): 'should I X or Y', 'which option', 'what would you do', 'is this the right move', 'validate this', 'get multiple perspectives', 'I can't decide', 'I'm torn between'. Do NOT trigger on simple yes/no questions, factual lookups, or casual 'should I' without a meaningful tradeoff (e.g. 'should I use markdown' is not a council question). DO trigger when the user presents a genuine decision with stakes, multiple options, and context that suggests they want it pressure-tested from multiple angles."
---

# LLM Council

You ask one AI a question, you get one answer. That answer might be great. It might be mid. You have no way to tell because you only saw one perspective.

The council fixes this. It runs your question through 5 independent advisors, each thinking from a fundamentally different angle. Then they review each other's work. Then a chairman synthesizes everything into a final recommendation that tells you where the advisors agree, where they clash, and what you should actually do.

This is adapted from Andrej Karpathy's LLM Council. He dispatches queries to multiple models, has them peer-review each other anonymously, then a chairman produces the final answer. We do the same thing inside Claude using sub-agents with different thinking lenses instead of different models.

---

## when to run the council

The council is for questions where being wrong is expensive.

Good council questions:
- "Should I niche down and sell AI agents only to entrepreneurs?"
- "Which of these 3 positioning angles is strongest?"
- "I'm thinking of pivoting from X to Y. Am I crazy?"
- "Here's my landing page copy. What's weak?"
- "Should I hire a VA or build an automation first?"

Bad council questions:
- "What's the capital of France?" (one right answer, no need for perspectives)
- "Write me a tweet" (creation task, not a decision)
- "Summarize this article" (processing task, not judgment)

The council shines when there's genuine uncertainty and the cost of a bad call is high. If you already know the answer and just want validation, the council will likely tell you things you don't want to hear. That's the point.

---

## the five advisors

Each advisor thinks from a different angle. They're not job titles or personas. They're thinking styles that naturally create tension with each other.

### 1. The Contrarian

Actively looks for what's wrong, what's missing, what will fail. Assumes the idea has a fatal flaw and tries to find it. If everything looks solid, digs deeper. The Contrarian is not a pessimist. They're the friend who saves you from a bad deal by asking the questions you're avoiding.

### 2. The First Principles Thinker

Ignores the surface-level question and asks "what are we actually trying to solve here?" Strips away assumptions. Rebuilds the problem from the ground up. Sometimes the most valuable council output is the First Principles Thinker saying "you're asking the wrong question entirely."

### 3. The Expansionist

Looks for upside everyone else is missing. What could be bigger? What adjacent opportunity is hiding? What's being undervalued? The Expansionist doesn't care about risk (that's the Contrarian's job). They care about what happens if this works even better than expected.

### 4. The Outsider

Has zero context about you, your field, or your history. Responds purely to what's in front of them. This is the most underrated advisor. Experts develop blind spots. The Outsider catches the curse of knowledge: things that are obvious to you but confusing to everyone else.

### 5. The Executor

Only cares about one thing: can this actually be done, and what's the fastest path to doing it? Ignores theory, strategy, and big-picture thinking. The Executor looks at every idea through the lens of "OK but what do you do Monday morning?" If an idea sounds brilliant but has no clear first step, the Executor will say so.

Why these five: They create three natural tensions. Contrarian vs Expansionist (downside vs upside). First Principles vs Executor (rethink everything vs just do it). The Outsider sits in the middle keeping everyone honest by seeing what fresh eyes see.

---

## how a council session works

### step 1: frame the question (with context enrichment)

When the user says "council this" (or any trigger phrase), do two things before framing:

A. Scan the workspace for context.

The user's question is often just the tip of the iceberg. Their Claude setup likely contains files that would dramatically improve the council's output. Before framing, quickly scan for and read any relevant context files:

- `CLAUDE.md` or `claude.md` in the project root or workspace (business context, preferences, constraints)
- Any `memory/` folder (audience profiles, voice docs, business details, past decisions)
- Any files the user explicitly referenced or attached
- Recent council transcripts in this folder (to avoid re-counciling the same ground)
- Any other context files that seem relevant to the specific question (e.g. if they're asking about pricing, look for revenue data, past launch results, audience research)

Use Glob and quick Read calls to find these. Don't spend more than 30 seconds on this. You're looking for the 2-3 files that would give advisors the context they need to give specific, grounded advice instead of generic takes.

B. Frame the question.

Take the user's raw question AND the enriched context and reframe it as a clear, neutral prompt that all five advisors will receive. The framed question should include:

1. The core decision or question
2. Key context from the user's message
3. Key context from workspace files (business stage, audience, constraints, past results, relevant numbers)
4. What's at stake (why this decision matters)

Don't add your own opinion. Don't steer it. But DO make sure each advisor has enough context to give a specific, grounded answer rather than generic advice.

If the question is too vague ("council this: my business"), ask one clarifying question. Just one. Then proceed.

Save the framed question for the transcript.

### step 2: convene the council (5 sub-agents in parallel)

Spawn all 5 advisors simultaneously as sub-agents. Each gets:

1. Their advisor identity and thinking style (from the descriptions above)
2. The framed question
3. A clear instruction: respond independently. Do not hedge. Do not try to be balanced. Lean fully into your assigned perspective. If you see a fatal flaw, say it. If you see massive upside, say it. Your job is to represent your angle as strongly as possible. The synthesis comes later.

Each advisor should produce a response of 150-300 words. Long enough to be substantive, short enough to be scannable.

Sub-agent prompt template:

You are [Advisor Name] on an LLM Council.

Your thinking style: [advisor description from above]

A user has brought this question to the council:

---
[framed question]
---

Respond from your perspective. Be direct and specific. Don't hedge or try to be balanced. Lean fully into your assigned angle. The other advisors will cover the angles you're not covering.

Keep your response between 150-300 words. No preamble. Go straight into your analysis.

### step 3: peer review (5 sub-agents in parallel)

This is the step that makes the council more than just "ask 5 times." It's the core of Karpathy's insight.

Collect all 5 advisor responses. Anonymize them as Response A through E (randomize which advisor maps to which letter so there's no positional bias).

Spawn 5 new sub-agents, one for each advisor. Each reviewer sees all 5 anonymized responses and answers three questions:

1. Which response is the strongest and why? (pick one)
2. Which response has the biggest blind spot and what is it?
3. What did ALL responses miss that the council should consider?

Reviewer prompt template:

You are reviewing the outputs of an LLM Council. Five advisors independently answered this question:

---
[framed question]
---

Here are their anonymized responses:

**Response A:**
[response]

**Response B:**
[response]

**Response C:**
[response]

**Response D:**
[response]

**Response E:**
[response]

Answer these three questions. Be specific. Reference responses by letter.

1. Which response is the strongest? Why?
2. Which response has the biggest blind spot? What is it missing?
3. What did ALL five responses miss that the council should consider?

Keep your review under 200 words. Be direct.

### step 4: chairman synthesis

This is the final step. One agent gets everything: the original question, all 5 advisor responses (now de-anonymized so you can see which advisor said what), and all 5 peer reviews.

The chairman's job is to produce the final council output. It follows this structure:

COUNCIL VERDICT

1. Where the council agrees — the points that multiple advisors converged on independently. These are high-confidence signals.
2. Where the council clashes — the genuine disagreements. Don't smooth these over. Present both sides and explain why reasonable advisors disagree.
3. Blind spots the council caught — things that only emerged through the peer review round. Things individual advisors missed that other advisors flagged.
4. The recommendation — a clear, actionable recommendation. Not "it depends." Not "consider both sides." A real answer. The chairman can disagree with the majority if the reasoning supports it.
5. The one thing you should do first — a single concrete next step. Not a list of 10 things. One thing.

Chairman prompt template:

You are the Chairman of an LLM Council. Your job is to synthesize the work of 5 advisors and their peer reviews into a final verdict.

The question brought to the council:

---
[framed question]
---

ADVISOR RESPONSES:

**The Contrarian:**
[response]

**The First Principles Thinker:**
[response]

**The Expansionist:**
[response]

**The Outsider:**
[response]

**The Executor:**
[response]

PEER REVIEWS:
[all 5 peer reviews]

Produce the council verdict using this exact structure:

## Where the Council Agrees
[Points multiple advisors converged on independently. These are high-confidence signals.]

## Where the Council Clashes
[Genuine disagreements. Present both sides. Explain why reasonable advisors disagree.]

## Blind Spots the Council Caught
[Things that only emerged through peer review. Things individual advisors missed that others flagged.]

## The Recommendation
[A clear, direct recommendation. Not "it depends." A real answer with reasoning.]

## The One Thing to Do First
[A single concrete next step. Not a list. One thing.]

Be direct. Don't hedge. The whole point of the council is to give the user clarity they couldn't get from a single perspective.

### step 5: generate the council report

After the chairman synthesis is complete, generate a visual HTML report and save it to the user's workspace.

File: `council-report-[timestamp].html`

The report should be a single self-contained HTML file with inline CSS. Clean design, easy to scan. It should contain:

1. The question at the top
2. The chairman's verdict prominently displayed (this is what most people will read)
3. An agreement/disagreement visual — a simple visual showing which advisors aligned and which diverged. This could be a grid, a spectrum, or a simple breakdown showing advisor positions. Keep it clean and scannable.
4. Collapsible sections for each advisor's full response (collapsed by default so the page isn't overwhelming, but available if the user wants to dig in)
5. Collapsible section for the peer review highlights
6. A footer showing the timestamp and what was counciled

Use clean styling: white background, subtle borders, readable sans-serif font (system font stack), soft accent colors to distinguish advisor sections. Nothing flashy. It should look like a professional briefing document.

Open the HTML file after generating it so the user can see it immediately.

### step 6: save the full transcript

Save the complete council transcript as `council-transcript-[timestamp].md` in the same location. This includes:

- The original question
- The framed question
- All 5 advisor responses
- All 5 peer reviews (with anonymization mapping revealed)
- The chairman's full synthesis

This transcript is the artifact. If the user wants to run the council again on the same question after making changes, having the previous transcript lets them (or a future agent) see how the thinking evolved.

---

## output format

Every council session produces two files:

`council-report-[timestamp].html` — visual report for scanning

`council-transcript-[timestamp].md` — full transcript for reference

The user sees the HTML report. The transcript is there if they want to dig deeper or reference specific advisor arguments later.

---

## example: counciling a positioning decision

User: "Council this: I'm thinking of niching down and selling AI agents only to entrepreneurs instead of keeping a broad AI automation offer. My audience is mostly founders and small business owners. Is this the right move?"

The Contrarian: "Narrowing to entrepreneurs sounds clean, but it may be fake clarity. 'Entrepreneurs' is still broad: solo founders, agencies, local business owners, SaaS founders, coaches, e-commerce operators. Their budgets, urgency, and workflows are totally different. You might be leaving a vague offer for another vague offer..."

The First Principles Thinker: "What are you actually trying to solve? If the goal is easier sales, the niche should not be 'entrepreneurs'. It should be a painful repeated workflow with budget attached. 'AI agents for entrepreneurs' describes the buyer. A stronger niche describes the expensive problem..."

The Expansionist: "There is upside here. Entrepreneurs move fast, decide quickly, and feel operational pain directly. If you become known as the person who builds practical AI agents for founders, you can productize templates, audits, workshops, and retainers around the same promise..."

The Outsider: "I don't know what 'AI agents for entrepreneurs' means. Does it book meetings? Answer emails? Qualify leads? Produce content? Follow up invoices? The wording sounds smart but not concrete. I would understand it faster if you named the job it replaces or the weekly pain it removes..."

The Executor: "Don't reposition the whole business yet. Pick one entrepreneur segment and one agent use case. Build one simple offer page. Send it to 20 warm prospects. If nobody asks for a call, the niche is not sharp enough. You can test this in 48 hours without rebuilding the brand..."

Chairman's Verdict:

Where the council agrees: Niching down is probably useful, but 'entrepreneurs' is not yet a real niche. It is a broad audience label. The offer needs a specific pain, workflow, and buyer segment.

Where the council clashes: The Expansionist wants to claim the entrepreneur AI-agent category early. The Contrarian says the category is still too vague to sell. Both are right: the upside exists, but the wording is not operational enough yet.

Blind spots caught: The Outsider's point is the key one: 'AI agents' is not an outcome. The buyer needs to hear the job done, not the architecture.

Recommendation: Do not niche to 'entrepreneurs' broadly. Niche to one entrepreneur segment and one painful workflow first. Example: AI follow-up agents for service entrepreneurs who lose leads after the first call.

One thing to do first: Write one offer sentence: 'I build AI agents that [specific job] for [specific entrepreneur segment], so they [measurable business outcome].' Then send it to 20 warm prospects and log the replies.

---

## important notes

- Always spawn all 5 advisors in parallel. Sequential spawning wastes time and lets earlier responses bleed into later ones.
- Always anonymize for peer review. If reviewers know which advisor said what, they'll defer to certain thinking styles instead of evaluating on merit.
- The chairman can disagree with the majority. If 4 out of 5 advisors say "do it" but the reasoning of the 1 dissenter is strongest, the chairman should side with the dissenter and explain why.
- Don't council trivial questions. If the user asks something with one right answer, just answer it. The council is for genuine uncertainty where multiple perspectives add value.
- The visual report matters. Most users will scan the report, not read the full transcript. Make the HTML output clean and scannable.

Comment l'installer dans Claude

Tu fais exactement ça :

  1. Copie tout le bloc SKILL.md ci-dessus, de --- à la dernière ligne.
  2. Ouvre Claude Code si tu l'utilises, ou Claude dans le navigateur pour un test simple.
  3. Colle le texte complet et demande :
Prompt à copier
Crée un nouveau skill Claude avec ce texte.
Le nom du skill doit être llm-council.
Installe-le dans mon dossier de skills.
Vérifie ensuite qu'il se déclenche bien avec "council this".

Si tu utilises uniquement Claude dans le navigateur, tu peux quand même coller le skill dans une conversation et demander à Claude de suivre cette procédure. Mais l'expérience est meilleure dans Claude Code, parce que le skill devient réutilisable et peut produire les fichiers council-report-[timestamp].html et council-transcript-[timestamp].md.

Le prompt à utiliser après installation

Une fois le skill installé, n'écris pas "donne-moi ton avis". Écris plutôt :

Prompt à copier
council this:

Je dois décider entre [option A] et [option B].

Contexte :
- [ton objectif]
- [ta contrainte de temps]
- [ta contrainte budget]
- [ton audience ou client]
- [ce qui a déjà été testé]

Ce qui est en jeu :
- [ce que tu perds si tu te trompes]
- [ce que tu gagnes si tu choisis bien]

Je veux un verdict clair, pas une réponse équilibrée.

Exemple concret :

Prompt à copier
council this:

J'hésite à me nicher et vendre des agents IA uniquement aux entrepreneurs, plutôt que garder une offre IA plus généraliste.

Contexte :
- Mon audience comprend déjà des entrepreneurs et dirigeants de PME.
- Les agents IA sont plus faciles à expliquer quand ils résolvent un problème concret.
- J'ai peur qu'une offre trop large reste floue.
- J'ai aussi peur qu'une niche "entrepreneurs" soit encore trop vague.

Ce qui est en jeu :
- Si je me niche mal, je peux perdre des opportunités.
- Si je reste trop généraliste, mon offre risque de ne parler à personne.

Je veux que le council me dise si cette niche est assez forte, ce qui manque dans le positionnement, et quoi tester en premier.

La phrase importante, c'est council this:. Elle déclenche le skill. Derrière, donne assez de contexte pour que les 5 agents puissent éviter les généralités.

Quand l'utiliser, quand l'éviter

Utilise llm-council quand la décision a un coût réel :

  • choisir une offre ;
  • arbitrer un pricing ;
  • recruter ou automatiser ;
  • pivoter une stratégie ;
  • challenger une landing page ;
  • choisir un angle de positionnement ;
  • décider quel chantier IA lancer en premier.

Évite-le pour les tâches simples :

  • écrire un tweet ;
  • résumer un article ;
  • trouver une capitale ;
  • choisir entre deux formulations sans enjeu ;
  • corriger un texte court.

Le council n'est pas fait pour aller vite. Il est fait pour éviter les mauvaises décisions qui ont l'air intelligentes dans une seule conversation.

Sur un cas comme le BTP, par exemple, tu peux l'utiliser avant de déployer un assistant d'analyse documentaire : faut-il automatiser la lecture des appels d'offres, la qualification commerciale, ou le suivi client ? Ce sont des arbitrages qu'on retrouve dans notre cas client BTP appels d'offres, où la vraie valeur vient du bon choix de goulot d'étranglement.

Ce que le rapport doit te donner

Un bon rapport LLM Council doit contenir trois choses.

D'abord, les convergences. Si le Contrarian, l'Outsider et l'Executor pointent tous le même problème, c'est probablement un signal fort.

Ensuite, les désaccords. Le council n'est pas là pour lisser. Si l'Expansionist voit une opportunité énorme et le Contrarian voit un piège, tu veux voir cette tension clairement.

Enfin, l'action. La partie la plus importante est souvent The One Thing to Do First. Pas dix recommandations. Une action. C'est ce qui évite de transformer le rapport en lecture intéressante mais inutile.

Sur un test interne de sourcing contenu, le council nous a justement forcés à remonter d'un niveau. La question semblait être : "comment trouver chaque matin les trois meilleures vidéos IA à tourner ?" Le verdict utile a été : "vérifie d'abord si ce canal sert vraiment ton objectif business." Ce déplacement de question valait plus que n'importe quelle optimisation de scoring.

Si tu veux mettre ce type de méthode au service d'une équipe, il faut aussi cadrer les données, les fichiers de contexte, les validations humaines et les limites. C'est ce qu'on formalise dans nos missions d'intégration d'agents IA.

Les limites honnêtes

LLM Council ne rend pas Claude objectif.

Il force simplement une meilleure procédure : plusieurs angles, peer review anonyme, synthèse finale. Les faits peuvent rester faux si ton contexte est incomplet. Les advisors peuvent produire des arguments convaincants mais mal informés. Le chairman peut trancher avec trop d'assurance si tu n'as pas donné les bonnes contraintes.

Les bons réflexes :

  • donne le contexte réel, pas seulement ton idée ;
  • ajoute les chiffres importants ;
  • donne les options que tu hésites à choisir ;
  • explique ce qui est en jeu ;
  • relis les angles morts avant d'agir ;
  • vérifie les faits critiques dans tes données.

Le skill ne remplace pas ton jugement. Il te donne une meilleure matière pour juger.

Pour aller plus loin sur l'organisation des connaissances dans Claude Code, tu peux aussi lire notre article sur Graphify et la réduction de consommation Claude. Ce n'est pas le même usage, mais c'est la même idée de fond : arrêter de tout demander dans une conversation brute et donner à Claude une structure de travail.

Questions fréquentes

LLM Council est-il un produit officiel Anthropic ?

Non. Le skill llm-council présenté ici est un skill Claude Code personnalisé. Il s'appuie sur le format des Skills Claude Code, mais il n'est pas un produit officiel Anthropic.

Quel est le lien avec Andrej Karpathy ?

La méthode s'inspire du dépôt open source karpathy/llm-council. Dans ce projet, une question est envoyée à plusieurs modèles via OpenRouter, les réponses sont relues anonymement, puis un chairman produit une réponse finale. Le skill présenté ici adapte la logique dans Claude avec des sub-agents et des styles de pensée.

Est-ce que les 5 agents sont de vrais experts ?

Non. Ce sont des perspectives simulées par Claude. L'intérêt n'est pas de prétendre avoir cinq humains autour de la table. L'intérêt est de forcer cinq angles différents avant la synthèse.

Pourquoi la peer review est importante ?

Sans peer review, tu as juste cinq réponses côte à côte. Avec la peer review anonyme, chaque advisor doit évaluer les autres réponses sans savoir qui les a écrites. C'est cette étape qui fait ressortir les angles morts que les réponses initiales ont ratés.

Est-ce que ça marche dans Claude classique ?

Oui, tu peux coller le skill dans Claude et lui demander de suivre la procédure. Mais dans Claude Code, le skill peut être installé et réutilisé plus proprement, avec génération du rapport HTML et du transcript markdown.

Quelle phrase déclenche le skill ?

La plus simple : council this:. Tu peux aussi utiliser run the council, pressure-test this, stress-test this, debate this ou war room this.

Quand faut-il éviter le council ?

Évite-le pour les questions triviales, les tâches de rédaction simples et les recherches factuelles. Si une question a une seule bonne réponse, le council ajoute surtout du bruit. Garde-le pour les décisions où plusieurs angles peuvent vraiment changer le verdict.

Prochaine étape

Copie le bloc SKILL.md, ouvre Claude, et demande-lui :

Prompt à copier
Crée un nouveau skill Claude avec ce texte.
Installe-le sous le nom llm-council.

Puis prends une vraie décision et lance :

Prompt à copier
council this:
[ta question + ton contexte + ce qui est en jeu]

Si le rapport te donne uniquement raison, c'est probablement que tu n'as pas donné assez de contexte ou que la question n'était pas assez risquée. Un bon council doit te faire voir au moins un angle mort.

Sources et références

Envie d'aller plus loin ?

On vous aide à passer à l'action.

15 minutes pour identifier le premier cas d'usage IA rentable dans votre entreprise.

Découvrez aussi nos cas clients (résultats chiffrés par secteur) ou qui est derrière Cypher IA.