Référence

Configuration

La configuration de Palabre se fait dans `palabre.config.json` à la racine de ton projet.

La configuration de Palabre se fait dans palabre.config.json à la racine de ton projet.

palabre init génère ce fichier et détecte les outils disponibles localement. La config garde les blocs agents connus pour rester facile à éditer, mais les defaults utilisent une paire détectée quand c'est possible.

Si tu viens d'une ancienne installation, chicane.config.json reste lisible comme fallback. Le nom courant pour les nouvelles configs est palabre.config.json.

Structure générale

{
  "outputDir": ".",
  "defaults": {
    "agentA": "codex",
    "agentB": "claude",
    "turns": 4
  },
  "agents": { }
}

defaults

ChampDescriptionValeur par défaut
agentAAgent qui ouvre le débat
agentBAgent qui répond en second
turnsNombre de tours d'échange4

Racine

ChampDescriptionValeur par défaut
outputDirDossier de destination du .debate.md.

Déclarer un agent CLI

Pour les outils comme Claude, Codex ou Gemini qui s'utilisent en ligne de commande :

"claude": {
  "type": "cli",
  "command": "claude.exe",
  "args": ["--print"],
  "role": "reviewer"
}
"codex": {
  "type": "cli",
  "command": "codex",
  "args": ["exec", "--skip-git-repo-check", "--color", "never", "--sandbox", "read-only", "-"],
  "shell": true,
  "role": "implementer"
}

Options CLI

OptionDescription
commandCommande à lancer
argsArguments passés à la commande
roleRôle de l'agent dans le débat
shelltrue si la commande passe par le shell système (nécessaire pour certains wrappers npm sur Windows)
timeoutMsTimeout global en ms
idleTimeoutMsTimeout si aucune sortie pendant N ms (à utiliser avec prudence pour les IA)
allowEmptyOutputAutorise une réponse vide (désactivé par défaut)
modelArgNom du flag modèle si différent de --model

Windows : pour Claude, utilise claude.exe avec "shell": false. Pour Codex et Gemini (wrappers npm), utilise "shell": true.


Déclarer un agent Ollama

Pour les modèles locaux exposés par Ollama :

"ollama-local": {
  "type": "ollama",
  "baseUrl": "http://localhost:11434",
  "model": "nemotron-3-nano:4b",
  "role": "critic",
  "validateModel": true,
  "unloadOtherModels": true
}

Options Ollama

OptionDescription
modelModèle Ollama à utiliser
baseUrlURL de l'instance Ollama (défaut : http://localhost:11434)
roleRôle de l'agent
validateModelVérifie que le modèle est installé avant de lancer le débat
autoPullModelTélécharge le modèle s'il est absent (désactivé par défaut)
pullTimeoutMsTimeout pour le téléchargement (défaut : 30 min)
unloadOtherModelsDécharge les autres modèles chargés avant de lancer
keepAliveDurée de maintien du modèle en mémoire après génération

Ollama ne lit jamais le filesystem. Si tu veux lui fournir du contexte projet, utilise --files ou --context.


Rôles disponibles

RôleDescription
implementerPropose une solution concrète
reviewerCherche les risques et les angles morts
criticRemet en question les hypothèses
architectStructure une direction technique
scoutExplore rapidement un sujet
summarizerProduit une synthèse