- Accueil
- Nouvelles DeepSeek
- Une semaine de recherche pour trouver la configuration de modèle OpenClaw la plus économique et performante (Claude+Kimi+DeepSeek)

Une semaine de recherche pour trouver la configuration de modèle OpenClaw la plus économique et performante (Claude+Kimi+DeepSeek)
Analyse approfondie de la stratégie de routage multi-modèles d'OpenClaw. Comment utiliser le contexte long de Kimi, la logique de Claude et le rapport qualité-prix de DeepSeek pour créer le flux de travail d'agent IA le plus puissant.
La semaine dernière, j'ai fait une bêtise.
J'ai défini le modèle par défaut d'OpenClaw sur Claude 4.5, puis je l'ai laissé refactoriser un vieux projet Python.
Le résultat a été que je me suis réveillé le lendemain matin, le projet ne fonctionnait pas, et la facture OpenRouter avait explosé. Voir ce chiffre m'a fait mal au cœur.
Cela m'a fait réaliser un problème : Considérons-nous les agents IA de manière trop 'monolithique' ?
Si vous êtes dans une entreprise avec un budget illimité, bien sûr, vous pouvez vous faire servir par GPT-5.3 Codex ou Claude 4.5 tout du long. Mais pour les développeurs indépendants, ce n'est pas réaliste.
Et ce n'est pas nécessaire.
Après des débogages répétés, j'ai enfin trouvé une configuration "Triangle d'Or". Cette solution a réduit ma consommation de jetons de 90 %, et l'efficacité du travail est même supérieure à celle de l'utilisation de Claude seul.
L'idée reçue : Un modèle pour tout faire
Beaucoup de gens (y compris moi avant) configurent OpenClaw avec une seule ligne :
"model": "anthropic/claude-4-5-sonnet"
C'est comme utiliser une Ferrari pour livrer des repas.
Claude 4.5 est certes intelligent, c'est le SOTA actuel. Mais avez-vous vraiment besoin d'un architecte payé un million par an pour écrire console.log ou corriger un bug stupide comme missing semicolon ?
Non, vous n'en avez pas besoin.
Le travail de l'agent est en fait hiérarchisé. Certaines tâches nécessitent de l'intelligence, d'autres de la mémoire, et la plupart nécessitent simplement de l'endurance.
L'architecture du Triangle d'Or (The Golden Triangle)
J'ai divisé mon OpenClaw en trois rôles :
1. 🧠 L'Architecte (The Architect) : Claude 4.5
- Positionnement : Cher, rare, décideur.
- Responsabilités : Conception de haut niveau, jugement logique complexe, élaboration de SOP.
- Quand l'appeler : Quand vous demandez "Comment cette fonctionnalité doit-elle être conçue ?" ou "Aide-moi à examiner les failles de sécurité de cette logique d'authentification".
- Stratégie de configuration : Définissez-le comme
planneroureviewer.
2. 📚 Le Bibliothécaire (The Librarian) : Kimi 2.5
- Positionnement : Mémoire colossale, n'oublie jamais rien.
- Responsabilités : Lecture de documents massifs, analyse de la structure complète de la base de code, lecture de centaines de pages de manuels d'API.
- Pourquoi Kimi ? : Dans le domaine du Long Context, Kimi est toujours le roi. Donnez-lui des dizaines de fichiers, et il peut vous dire précisément quelle variable a été définie dans quel fichier.
- Quand l'appeler : Lorsque vous démarrez une tâche, laissez-le d'abord scanner le répertoire
src/; ou laissez-le résumer leexecution.logd'hier.
3. 👷 Le Stagiaire (The Intern) : DeepSeek R1
- Positionnement : Pas cher, obéissant, robuste.
- Responsabilités : Écrire des fonctions spécifiques, corriger des bugs simples, générer des données JSON, exécuter des scripts de test.
- Pourquoi DeepSeek ? : Parce qu'il est bon marché. Extrêmement bon marché. Bien que sa capacité de codage ne soit pas aussi étonnante que celle de Claude 4.5, elle est largement suffisante pour écrire une logique métier spécifique. Le plus important est que les agents tombent souvent dans une "boucle d'essais et d'erreurs". Dans ces moments-là, cela ne fait pas mal d'utiliser DeepSeek pour faire dix tours de boucle.
- Quand l'appeler :
fix_error,generate_code,run_script.
Configuration pratique (Show Me The Code)
Dans le config.json d'OpenClaw, j'ai configuré le routeur comme ceci :
{
"router": {
"defaults": {
"model": "deepseek/deepseek-r1"
},
"overrides": [
{
"taskType": ["planning", "reasoning", "security_audit"],
"model": "anthropic/claude-4-5-sonnet"
},
{
"taskType": ["context_reading", "summary", "search"],
"model": "moonshot/kimi-2.5-128k"
},
{
"taskType": ["coding", "debugging", "scripting"],
"model": "deepseek/deepseek-r1"
}
]
}
}(Note : Ce qui précède est du pseudo-code, la configuration spécifique dépend de votre version d'OpenClaw et du support des plugins)
Quel est l'effet ?
Depuis que je suis passé à cette configuration :
- Économies : Les coûts de développement quotidiens sont passés de 10 $ à environ 1 $. DeepSeek a pris en charge 80 % de la consommation de jetons, mais n'a représenté que 10 % du coût.
- Pas de confusion : Avant, le contexte était trop long, et Claude avait aussi le vertige. Maintenant, je confie la tâche de "lecture et compréhension" à Kimi, il résume l'essentiel et le transmet aux autres modèles, le contexte est extrêmement clair.
- Oser l'essai-erreur : Avant, en voyant une erreur, je n'osais pas laisser l'agent la corriger automatiquement, de peur de gaspiller de l'argent. Maintenant, je la lance directement à DeepSeek : "Va la réparer, ne reviens pas si tu ne peux pas", sans aucune charge psychologique.
Résumé
Ne soyez pas superstitieux à propos du "modèle le plus fort". Dans le monde des agents, il n'y a pas de plus fort, seulement le plus adapté.
- Claude est votre CTO.
- Kimi est votre bibliothèque.
- DeepSeek est votre super stagiaire qui travaille sans relâche et dort dans un sac de couchage au bureau.
Combinez-les, et c'est alors seulement que vous aurez une véritable équipe.
P.S. J'ai écrit un script spécialement pour surveiller l'état de l'API de ces trois modèles et la progression de la sortie de DeepSeek V4. Les intéressés peuvent venir voir ici : DeepSeekV4.app
Auteur

Table des matières
Plus d'articles

Lancement de GPT-5.4 : OpenAI sort l'artillerie lourde avec 1M de contexte et des Agents natifs pour contrer DeepSeek V4 !
OpenAI a lancé par surprise son modèle phare GPT-5.4, doté de 1 million de contexte natif et d'un moteur d'agent, visant à établir une domination technologique avant la sortie de DeepSeek V4.


Tout le web attend DeepSeek V4 – Pourquoi l'assiette reste-t-elle vide ? La vérité est peut-être plus « hardcore » que vous ne le pensez !
Pourquoi DeepSeek V4 n'a-t-il pas tenu son rendez-vous du 2 mars ? Découvrons les trois paris stratégiques derrière ce retard : migration vers la puissance de calcul nationale, vaisseau amiral multimodal et fenêtre de lancement stratégique.


La guerre des modèles légers : GPT-5.3 Instant et Gemini 3.1 Flash-Lite arrivent – Comment DeepSeek V4 garde-t-il l'avantage ?
Avec les sorties simultanées de GPT-5.3 Instant et Gemini 3.1 Flash-Lite par OpenAI et Google, le marché des modèles légers s'enflamme. Analyse de leur impact sur les écosystèmes d'Agents comme OpenClaw et des avantages de DeepSeek V4.

Newsletter
Rejoignez la communauté
Abonnez-vous à notre newsletter pour les dernières nouvelles et mises à jour