Por que cancelei o Claude Max depois de 13 meses e o que vou testar com o Codex nos próximos 30 dias
Cancelei o Claude Max depois de 13 meses e US$1,892.38 em assinaturas. Isto não é uma volta por cima. É um teste de 30 dias para ver se consigo manter o mesmo ritmo com STRATUM, DIALOGUE, a plataforma do curso e este site usando o Codex como ferramenta principal.
Ontem eu cancelei o Claude Max.
Eu já tinha escrito sobre usar Codex e Claude Code em paralelo e depois sobre como a conta do plano de $200 começou a deixar de fechar para o meu workflow. Este post é a decisão em si.
Fiquei no Claude Max por 13 meses e paguei US$1,892.38 ao longo desse período. Na prática, boa parte desse valor aparecia via Claude Code: este site, a plataforma do curso, STRATUM, DIALOGUE, o pipeline do blog e o sistema de vídeo. Então cancelar não é só uma decisão de custo. É uma decisão de workflow.
Por que eu cancelei
Três motivos, em ordem de importância:
-
Codex com GPT-5.4 está fechando a distância muito rápido. Eu costumo pedir para uma AI fazer o diagnóstico e o plano, e depois peço para a outra criticar esse plano. Nas últimas semanas, o Claude Code passou a concordar cada vez mais com os achados do Codex, e os planos que saem do Codex normalmente precisam só de ajustes pequenos. Dois meses atrás, isso não era verdade.
-
A diferença de preço está ficando difícil de justificar. Codex custa $20 por mês, com limites de uso bem generosos. Claude Max custa $200. Quando a qualidade de execução começa a convergir, um preço 10x maior precisa provar o seu valor todos os dias.
-
Eu quero ver o que acontece quando tiro da equação a ferramenta em que mais me apoiei. Será que eu consigo manter o meu ritmo atual de shipping? Será que eu consigo continuar empurrando o site, o curso, STRATUM e DIALOGUE sem voltar automaticamente para a ferramenta que virou meu padrão no último ano? Honestamente, eu ainda não sei. E é exatamente por isso que vale a pena testar.
Também preciso admitir que os problemas recentes de confiabilidade na Anthropic não ajudaram. E, na última semana, o Opus 4.6 com janela de contexto de 1M pareceu visivelmente mais lento que o GPT-5.4 em níveis equivalentes de thinking. Pode ser algo temporário. Mas facilitou a decisão.
Se você quiser a versão mais longa — a história da newsletter, o bug de SSE e tudo o mais — o post de ontem entra nesses detalhes.
O teste de 30 dias
Nos próximos 30 dias, vou usar o Codex, no plano de $20 por mês, como ferramenta principal. Quero observar quatro coisas:
- Velocidade de shipping — quanto eu entrego por semana em comparação com a minha média de março
- Qualidade de código e retrabalho — com que frequência eu preciso voltar no dia seguinte para corrigir alguma coisa
- Confiabilidade em sessões longas — quanto tempo a ferramenta aguenta antes de começar a atrapalhar
- Comportamento de evasão — que tipos de tarefa eu começo a adiar ou abordar de outro jeito porque a ferramenta substituta é pior ali
Esse último ponto importa mais do que parece. Uma ferramenta não precisa falhar de forma espetacular para sair cara. Às vezes ela só muda, em silêncio, aquilo que você ainda topa tentar.
O compromisso
Eu não quero que isso vire uma daquelas decisões build in public que soam dramáticas por 24 horas e depois somem.
Então vou deixar registrado:
Em 2 de maio de 2026, eu vou publicar um follow-up contando o que quebrou primeiro, o que ficou mais fácil, o que senti falta no Claude e se eu tomaria a mesma decisão de novo. Isso pode muito bem terminar com uma nova assinatura. De qualquer forma, o follow-up vai ser mais útil do que o cancelamento em si.
Eu sei que este já é o terceiro post sobre esse tema em três semanas. Depois deste, eu calo a boca e volto a shippar por 30 dias.
É isso, pessoal. Se você fez uma troca parecida, ou está testando um workflow semelhante, eu realmente queria saber o que mudou para você depois das primeiras semanas.
Abraços, Chandler





