- Startseite
- DeepSeek Nachrichten
- Eine Woche lang getüftelt, endlich die kostengünstigste und leistungsstärkste OpenClaw-Modellkonfiguration gefunden (Claude+Kimi+DeepSeek)

Eine Woche lang getüftelt, endlich die kostengünstigste und leistungsstärkste OpenClaw-Modellkonfiguration gefunden (Claude+Kimi+DeepSeek)
Detaillierte Analyse der Multi-Modell-Routing-Strategie von OpenClaw. Wie man Kimis langen Kontext, Claudes Logik und DeepSeeks Preis-Leistungs-Verhältnis nutzt, um den besten AI-Agent-Workflow zu erstellen.
Vergangene Woche habe ich etwas Dummes getan.
Ich habe das Standardmodell von OpenClaw auf Claude 4.5 gesetzt und es dann ein altes Python-Projekt refaktorieren lassen.
Das Ergebnis war, dass ich am nächsten Morgen aufwachte, das Projekt nicht lief und die OpenRouter-Rechnung explodiert war. Diese Zahl zu sehen, tat weh.
Das ließ mich ein Problem erkennen: Denken wir bei KI-Agenten zu 'eindimensional'?
Wenn Sie in einem Unternehmen mit unbegrenztem Budget arbeiten, können Sie sich natürlich durchgehend von GPT-5.3 Codex oder Claude 4.5 bedienen lassen. Aber für unabhängige Entwickler ist das unrealistisch.
Und es ist auch nicht notwendig.
Nach wiederholtem Debugging habe ich endlich eine "Goldenes Dreieck"-Konfiguration herausgefunden. Diese Lösung hat meinen Token-Verbrauch um 90% gesenkt, und die Arbeitseffizienz ist sogar höher als bei der alleinigen Verwendung von Claude.
Der Irrtum: Ein Modell für alles
Viele Leute (mich früher eingeschlossen) konfigurieren OpenClaw mit nur einer Zeile:
"model": "anthropic/claude-4-5-sonnet"
Das ist, als würde man mit einem Ferrari Pizza ausliefern.
Claude 4.5 ist zweifellos klug, es ist der aktuelle SOTA. Aber brauchen Sie wirklich einen Architekten mit einem Jahresgehalt von einer Million, um console.log zu schreiben oder einen dummen Bug wie missing semicolon zu beheben?
Nein, das brauchen Sie nicht.
Die Arbeit von Agenten ist eigentlich geschichtet. Manche Aufgaben erfordern Intelligenz, manche erfordern Gedächtnis, und die meisten Aufgaben erfordern einfach nur Ausdauer.
Die Architektur des Goldenen Dreiecks (The Golden Triangle)
Ich habe mein OpenClaw in drei Rollen aufgeteilt:
1. 🧠 Der Architekt (The Architect): Claude 4.5
- Positionierung: Teuer, rar, Entscheidungsträger.
- Verantwortung: Top-Level-Design, komplexe logische Entscheidungen, Erstellung von SOPs.
- Wann aufrufen: Wenn Sie fragen "Wie soll diese Funktion gestaltet werden?" oder "Überprüfe bitte die Sicherheitslücken dieser Authentifizierungslogik".
- Konfigurationsstrategie: Setzen Sie es als
planneroderreviewer.
2. 📚 Der Bibliothekar (The Librarian): Kimi 2.5
- Positionierung: Riesiger Speicher, vergisst nie etwas.
- Verantwortung: Lesen massiver Dokumente, Analyse der gesamten Codebasis-Struktur, Lesen von Hunderten von Seiten API-Handbüchern.
- Warum Kimi?: Im Bereich Long Context ist Kimi immer noch der König. Werfen Sie ihm Dutzende von Dateien zu, und er kann Ihnen genau sagen, welche Variable in welcher Datei definiert wurde.
- Wann aufrufen: Wenn Sie eine Aufgabe starten, lassen Sie es zuerst das
src/-Verzeichnis scannen; oder lassen Sie es das gestrigeexecution.logzusammenfassen.
3. 👷 Der Praktikant (The Intern): DeepSeek R1
- Positionierung: Billig, gehorsam, robust.
- Verantwortung: Schreiben konkreter Funktionen, Beheben einfacher Bugs, Generieren von JSON-Daten, Ausführen von Testskripten.
- Warum DeepSeek?: Weil es billig ist. Extrem billig. Seine Coding-Fähigkeit ist zwar nicht so erstaunlich wie die von Claude 4.5, aber für das Schreiben konkreter Geschäftslogik völlig ausreichend. Das Wichtigste ist, dass Agenten oft in eine "Trial-and-Error-Schleife" geraten. In solchen Momenten tut es nicht weh, DeepSeek zehn Runden laufen zu lassen.
- Wann aufrufen:
fix_error,generate_code,run_script.
Konfiguration (Show Me The Code)
In der config.json von OpenClaw habe ich den Router so konfiguriert:
{
"router": {
"defaults": {
"model": "deepseek/deepseek-r1"
},
"overrides": [
{
"taskType": ["planning", "reasoning", "security_audit"],
"model": "anthropic/claude-4-5-sonnet"
},
{
"taskType": ["context_reading", "summary", "search"],
"model": "moonshot/kimi-2.5-128k"
},
{
"taskType": ["coding", "debugging", "scripting"],
"model": "deepseek/deepseek-r1"
}
]
}
}(Hinweis: Das obige ist Pseudocode, die spezifische Konfiguration hängt von Ihrer OpenClaw-Version und Plugin-Unterstützung ab)
Wie ist der Effekt?
Seit ich auf diese Konfiguration umgestiegen bin:
- Geld sparen: Die täglichen Entwicklungskosten sanken von 10 $ auf etwa 1 $. DeepSeek übernahm 80% des Token-Verbrauchs, machte aber nur 10% der Kosten aus.
- Keine Verwirrung: Früher war der Kontext zu lang, und auch Claude wurde schwindelig. Jetzt übergebe ich die "Leseverständnis"-Aufgabe an Kimi, es fasst das Wesentliche zusammen und füttert damit andere Modelle, der Kontext ist extrem aufgeräumt.
- Mut zum Ausprobieren: Früher traute ich mich bei Fehlermeldungen nicht, den Agenten automatisch reparieren zu lassen, aus Angst vor den Kosten. Jetzt werfe ich es direkt DeepSeek zu: "Geh und reparier es, komm nicht zurück, wenn du es nicht reparieren kannst", ohne jede psychologische Belastung.
Zusammenfassung
Glauben Sie nicht blind an das "stärkste Modell". In der Welt der Agenten gibt es kein stärkstes, nur das passendste.
- Claude ist Ihr CTO.
- Kimi ist Ihr Archiv.
- DeepSeek ist Ihr Super-Praktikant, der unermüdlich arbeitet und im Schlafsack am Arbeitsplatz übernachtet.
Kombinieren Sie sie, erst dann haben Sie ein echtes Team.
P.S. Ich habe ein Skript geschrieben, um den API-Status dieser drei Modelle und den Veröffentlichungsfortschritt von DeepSeek V4 zu überwachen. Interessierte können hier vorbeischauen: DeepSeekV4.app
Autor

Inhaltsverzeichnis
Mehr Beiträge

OpenAI Flaggschiff GPT-5.4 veröffentlicht: 1M Kontext + Native Agents gegen DeepSeek V4!
OpenAI hat überraschend sein stärkstes Flaggschiff-Modell GPT-5.4 mit 1 Million nativem Kontext und einer Agent-Engine vorgestellt, um vor dem Release von DeepSeek V4 eine technologische Festung zu errichten.


Das Netz wartet gespannt auf DeepSeek V4 – Warum bleibt die „Küche“ noch kalt? Die Wahrheit ist knallharter als gedacht!
Warum hat DeepSeek V4 den Termin am 2. März verpasst? Wir enthüllen die drei riskanten Wetten dahinter: Migration auf heimische Rechenleistung, ein multimodales Flaggschiff und das strategische Zeitfenster.


Der Krieg der Leichtgewicht-Modelle: GPT-5.3 Instant und Gemini 3.1 Flash-Lite sind da – Wie behauptet DeepSeek V4 seine Führung?
Mit der gleichzeitigen Veröffentlichung von GPT-5.3 Instant und Gemini 3.1 Flash-Lite durch OpenAI und Google kocht der Markt für Leichtgewicht-Modelle hoch. Dieser Artikel analysiert die Auswirkungen auf Agent-Ökosysteme wie OpenClaw und die zentralen Wettbewerbsvorteile von DeepSeek V4.

Newsletter
Treten Sie der Community bei
Abonnieren Sie unseren Newsletter für die neuesten Nachrichten und Updates