- Início
- Notícias DeepSeek
- Uma semana de pesquisa para encontrar a configuração de modelo OpenClaw mais econômica e poderosa (Claude+Kimi+DeepSeek)

Uma semana de pesquisa para encontrar a configuração de modelo OpenClaw mais econômica e poderosa (Claude+Kimi+DeepSeek)
Análise profunda da estratégia de roteamento multi-modelo do OpenClaw. Como aproveitar o contexto longo do Kimi, a lógica do Claude e o custo-benefício do DeepSeek para criar o fluxo de trabalho de Agente de IA mais poderoso.
Na semana passada, fiz uma besteira.
Configurei o modelo padrão do OpenClaw como Claude 4.5 e o deixei refatorar um projeto Python antigo.
O resultado foi que acordei na manhã seguinte, o projeto não funcionava e a conta do OpenRouter tinha explodido. Ver aquele número doeu no coração.
Isso me fez perceber um problema: Estamos pensando nos Agentes de IA de uma maneira muito 'monolítica'?
Se você está em uma empresa com orçamento ilimitado, claro, pode ser atendido por GPT-5.3 Codex ou Claude 4.5 o tempo todo. Mas para desenvolvedores independentes, isso não é realista.
E não é necessário.
Após depurações repetidas, finalmente descobri uma configuração "Triângulo Dourado". Esse esquema reduziu meu consumo de tokens em 90%, e a eficiência do trabalho é até maior do que usando apenas o Claude.
O equívoco: Um modelo para governar todos
Muitas pessoas (incluindo eu antes) configuram o OpenClaw com apenas uma linha:
"model": "anthropic/claude-4-5-sonnet"
Isso é como usar uma Ferrari para entregar comida.
Claude 4.5 é certamente inteligente, é o estado da arte atual. Mas você realmente precisa de um arquiteto com salário milionário para escrever console.log ou corrigir um bug estúpido como missing semicolon?
Não, você não precisa.
O trabalho do agente é, na verdade, hierarquizado. Alguns trabalhos exigem inteligência, outros exigem memória, e a maioria dos trabalhos só precisa de resistência.
A Arquitetura do Triângulo Dourado (The Golden Triangle)
Dividi meu OpenClaw em três papéis:
1. 🧠 O Arquiteto (The Architect): Claude 4.5
- Posicionamento: Caro, escasso, tomador de decisões.
- Responsabilidades: Design de alto nível, julgamento lógico complexo, formulação de SOP.
- Quando chamar: Quando você pergunta "Como essa funcionalidade deve ser projetada?" ou "Ajude-me a revisar as vulnerabilidades de segurança dessa lógica de autenticação".
- Estratégia de configuração: Defina-o como
planneroureviewer.
2. 📚 O Bibliotecário (The Librarian): Kimi 2.5
- Posicionamento: Memória enorme, nunca esquece.
- Responsabilidades: Ler documentos massivos, analisar toda a estrutura da base de código, ler centenas de páginas de manuais de API.
- Por que Kimi?: No campo de Contexto Longo (Long Context), Kimi ainda é o rei. Jogue dezenas de arquivos para ele, e ele poderá dizer com precisão qual variável foi definida em qual arquivo.
- Quando chamar: Quando iniciar uma tarefa, deixe-o escanear primeiro o diretório
src/; ou deixe-o resumir oexecution.logde ontem.
3. 👷 O Estagiário (The Intern): DeepSeek R1
- Posicionamento: Barato, obediente, resistente.
- Responsabilidades: Escrever funções específicas, corrigir bugs simples, gerar dados JSON, executar scripts de teste.
- Por que DeepSeek?: Porque é barato. Extremamente barato. Embora sua capacidade de codificação não seja tão incrível quanto a do Claude 4.5, é completamente suficiente para escrever lógica de negócios específica. O mais importante é que os Agentes costumam cair em um "loop de tentativa e erro". Nesses momentos, não dói usar o DeepSeek para rodar dez loops.
- Quando chamar:
fix_error,generate_code,run_script.
Configuração prática (Show Me The Code)
No config.json do OpenClaw, configurei o roteador assim:
{
"router": {
"defaults": {
"model": "deepseek/deepseek-r1"
},
"overrides": [
{
"taskType": ["planning", "reasoning", "security_audit"],
"model": "anthropic/claude-4-5-sonnet"
},
{
"taskType": ["context_reading", "summary", "search"],
"model": "moonshot/kimi-2.5-128k"
},
{
"taskType": ["coding", "debugging", "scripting"],
"model": "deepseek/deepseek-r1"
}
]
}
}(Nota: O acima é pseudocódigo, a configuração específica depende da sua versão do OpenClaw e suporte a plugins)
Qual é o efeito?
Desde que mudei para essa configuração:
- Economia de dinheiro: Os custos diários de desenvolvimento caíram de $10 para cerca de $1. O DeepSeek assumiu 80% do consumo de tokens, mas representou apenas 10% do custo.
- Sem confusão: Antes, o contexto era muito longo e o Claude também ficava tonto. Agora passo a tarefa de "compreensão de leitura" para o Kimi, ele resume o essencial e alimenta outros modelos, o contexto fica extremamente limpo.
- Ousadia na tentativa e erro: Antes, ao ver um erro, eu não ousava deixar o Agente corrigir automaticamente, com medo de gastar dinheiro. Agora jogo direto para o DeepSeek: "Vá consertar, não volte se não conseguir consertar", sem nenhum peso na consciência.
Resumo
Não seja supersticioso com o "modelo mais forte". No mundo dos Agentes, não existe o mais forte, apenas o mais adequado.
- Claude é seu CTO.
- Kimi é sua biblioteca.
- DeepSeek é seu super estagiário que trabalha incansavelmente e dorme num saco de dormir no escritório.
Combine-os, e só então você terá uma verdadeira equipe.
P.S. Escrevi um script especificamente para monitorar o status da API desses três modelos e o progresso do lançamento do DeepSeek V4. Interessados podem vir ver: DeepSeekV4.app
Autor

Mais posts

OpenAI lança GPT-5.4: 1M de contexto + Agentes nativos para barrar o DeepSeek V4!
A OpenAI lançou de surpresa o seu modelo topo de gama GPT-5.4, com 1 milhão de contexto nativo e um motor de agentes, visando construir uma barreira tecnológica antes do lançamento do DeepSeek V4.


Toda a rede espera o banquete do DeepSeek V4, por que a panela ainda não abriu? A verdade é mais 'hardcore' do que você pensa!
Por que o DeepSeek V4 faltou ao encontro de 2 de março? Revelamos as três grandes apostas por trás do atraso: migração para a infraestrutura de computação nacional, carro-chefe multimodal e janela estratégica de lançamento.


A guerra dos modelos leves: GPT-5.3 Instant e Gemini 3.1 Flash-Lite chegam – Como o DeepSeek V4 mantém a liderança?
Com o lançamento simultâneo do GPT-5.3 Instant e Gemini 3.1 Flash-Lite pela OpenAI e Google, o mercado de modelos leves está em ebulição. Análise do impacto nos ecossistemas de Agentes como o OpenClaw e as vantagens competitivas do DeepSeek V4.

Newsletter
Junte-se à Comunidade
Assine nossa newsletter para as últimas notícias e atualizações