Gestão de Contexto
~20 min Intermediário Parte 3

Gestão de Contexto

Modelos LLM têm limite de tokens. Sessões longas podem ficar lentas, caras, ou perder contexto relevante.

Comandos de gestão

ComandoDescrição
/statusMostra tokens usados/disponíveis, modelo, custo
/compactComprime contexto mantendo essencial (recomendado)
/clearLimpa tudo — perde contexto mas começa limpo
/costMostra custo acumulado da sessão
# Ver uso atual de tokens, modelo ativo e custo
/status

# Compactar contexto mantendo o essencial
/compact

# Limpar tudo e começar do zero
/clear

# Ver custo acumulado da sessão
/cost

/compact vs /clear — quando usar cada um

ComandoComportamentoQuando usar
/compactMantém resumo comprimido do históricoContinuar trabalho em curso
/clearComeça do zero, sem contexto anteriorNova tarefa não relacionada

Estimando tokens

ReferênciaEstimativa
1 token em inglês≈ 4 caracteres
1 token em código≈ 3 caracteres
Arquivo de 1000 linhas≈ 5.000–15.000 tokens
Sessão longa≈ 50.000–200.000 tokens

Limites por modelo

ModeloContexto máximo
claude-opus-4-6200.000 tokens
claude-sonnet-4-6200.000 tokens
claude-haiku-4-5200.000 tokens

Estratégias de uso eficiente

  • Use /compact regularmente — quando a sessão fica longa
  • Inicie sessões focadas — uma tarefa por sessão
  • Use CLAUDE.md — evita re-explicar contexto em cada sessão
  • Use memória — salve informações que precisam ser repetidas
  • Subagentes — delegue tarefas para agentes com contextos limpos

Padrão de trabalho eficiente

Nova tarefa      → nova sessão limpa
Sessão longa     → /compact antes de continuar
Tarefa complexa  → use subagentes
Info recorrente  → salve em memória ou CLAUDE.md

Exercício

Abra uma sessão do Claude Code e use /status para ver o uso atual de tokens. Em seguida, inicie uma conversa longa, use /compact e verifique a redução no contador de tokens.

Recursos

0%