Ollama
C'est utile pour ajouter un regard local, moins coûteux, ou pour confier à un petit modèle un rôle ciblé : critique, exploration ou synthèse légère.
Ollama peut avoir un temps de réponse plus lent que les autres agents, surtout si le modèle n'est pas déjà chargé. Il est recommandé de vérifier que le modèle est chargé avant de lancer un débat avec Ollama. Ou de patienter.
À installer avant Palabre
Installez Ollama depuis la documentation officielle, puis téléchargez un modèle.
Documentation officielle : https://docs.ollama.com/
Référence CLI : https://docs.ollama.com/cli
Vérifiez ensuite que la commande fonctionne :
ollama list
ou :
ollama ls
Si Ollama a été installé après palabre init, synchronisez la configuration :
palabre config --sync-agents
Si nécessaire, démarrez Ollama :
ollama serve
Installer un modèle
ollama pull gemma4:e4b
Adaptez le modèle à votre machine. Les gros modèles peuvent être trop lourds pour un usage fluide.
En usage local, les limites principales viennent de votre machine : mémoire, CPU/GPU et temps de réponse. Si vous utilisez une offre cloud, payante ou distante d'Ollama, les quotas et limites associées viennent de cette offre, pas de Palabre.
Configuration typique
"ollama-local": {
"type": "ollama",
"baseUrl": "http://localhost:11434",
"model": "gemma4:e4b",
"role": "critic",
"temperature": 0.2,
"validateModel": true,
"unloadOtherModels": true
}
Vérifier si un modèle est chargé dans Ollama
Ollama doit charger un modèle pour répondre rapidement.
ollama ps
Télécharger automatiquement un modèle manquant
Par défaut, Palabre n'installe pas de modèle automatiquement. Pour l'autoriser au lancement :
palabre codex-ollama "Critique ce plan" --pull-models
Vous pouvez aussi activer autoPullModel dans la configuration de l'agent.
Donner du contexte à Ollama
Ollama ne lit pas vos fichiers directement. Utilisez :
palabre codex-ollama "Critique ce module" --files src/module.ts
ou :
palabre codex-ollama "Critique l'architecture" --context src docs
