Skip to content
··7 min de leitura

Google Gemini 2.5 Pro agora é meu parceiro de código favorito

Depois de 5.000 horas testando modelos de IA, o Gemini 2.5 Pro supera Claude e ChatGPT para programação — veja por que ele se tornou minha ferramenta padrão para construir aplicações complexas.

É difícil imaginar que o ChatGPT foi lançado apenas no final de 2022. Muita coisa mudou desde então. Como alguém que provavelmente gastou 5.000 horas trabalhando ao lado de múltiplos modelos de GenAI nos últimos 3 anos, consigo "sentir" a virada com o Google Gemini 2.5 Pro. Ele é agora minha ferramenta favorita para programação, substituindo Claude 3.7 Sonnet (incluindo Claude Code), DeepSeek R1, OpenAI o1 e o3-mini.

Essa preferência não veio de um momento único de "eureka", mas sim da experiência acumulada de trabalhar com diferentes modelos dia após dia. A qualidade do código, a janela de contexto longa, a velocidade e a UI bem pensada somam para fazer o Gemini 2.5 Pro se destacar para as minhas necessidades específicas como desenvolvedor.

Isso é minha "sensação" pessoal — nenhum benchmarking foi realizado para este post.

Contexto

Como este post é sobre minha percepção de diferentes ferramentas, acho importante que você entenda meu background e como uso diferentes ferramentas de GenAI. Sou um profissional de publicidade de meia-idade (sim, já passei dos 40, então independente de qual definição de adulto jovem você usar, não me encaixo T.T) e venho aprendendo a programar nos últimos anos. Completei alguns cursos fundamentais como: IT Automation with Python do Google, Cybersecurity Specialization do Google, Machine learning specialization, etc...

Para aplicar o que aprendi na vida real, construí um agente RAG usando Langgraph, que também consegue responder perguntas sobre o que escrevi neste blog nos últimos ~20 anos e sobre questões financeiras das Magnificent 7 no S&P 500. Minha stack de alto nível para esse agente é:

  • Banco de dados: Weaviate (para banco de dados vetorial e busca híbrida), PostgreSQL no Google Cloud
  • Orquestração de agente: Lang Graph
  • CI/CD: Google Cloud Run no GCP
  • Front-end: React

No que estou trabalhando

Nos últimos meses, trabalhei em uma aplicação um pouco mais complexa. Tentei construí-la usando Lang graph mas a performance não foi o que eu esperava, principalmente em termos de velocidade/responsividade. Por isso, minha arquitetura geral agora é:

Arquitetura Backend

  • Abordagem Híbrida de Banco de Dados: Implementei uma arquitetura híbrida que combina PostgreSQL (para dados de usuário e integridade transacional) com DynamoDB (para gerenciamento de estado escalável)
  • Orquestração de Workflow Serverless: Indo além dos padrões básicos de agente, uso AWS Step Functions para coordenar workflows complexos e multi-etapas com tratamento adequado de erros
  • Implementação de Sistema de Créditos: Adicionei um modelo freemium baseado em créditos com gerenciamento adequado de transações
  • Configuração de VPC: Configurei isolamento de rede adequado com grupos de segurança e endpoints VPC

Melhorias no Frontend

  • Stack React Moderno: Usando Next.js 15 com React 18 e TypeScript para desenvolvimento type-safe
  • Sistema de Autenticação: Integrado AWS Cognito para gerenciamento seguro de usuários
  • Polling e Gerenciamento de Estado: Implementado rastreamento eficiente de status com frequências de polling adaptativas
  • Sistema de Design Responsivo: Criada uma UI minimalista e limpa com padrões de estilo consistentes

Por que decidi usar AWS e não GCP quando tentei me afastar do Langgraph? Simplesmente porque queria aprender coisas novas. Tenho algum conhecimento sobre GCP por hospedar este site nele e usá-lo para o agente atual. Então quis aprender algo completamente novo.

Por que o Gemini 2.5 Pro se destaca para programação

Enquanto outros podem te dar benchmarks, eu posso te dar minha sensação sobre como percebo que o Gemini 2.5 Pro é melhor.

O código em si é melhor

Dado o mesmo prompt e contexto, a resposta de código do Gemini 2.5 Pro é melhor (ou pelo menos igual) ao DeepSeek R1 ou Claude 3.7 Sonnet. Parei de usar OpenAI o1 ou o3 porque a qualidade é simplesmente muito pior.

O que particularmente aprecio no Gemini 2.5 Pro é sua disposição para gerar código completo e pronto para uso. Tanto Claude 3.7 Sonnet quanto DeepSeek R1 podem ser bastante "preguiçosos" às vezes, oferecendo implementações parciais ou pseudocódigo que requer modificações significativas. Para alguém como eu, sem expertise técnica profunda, especialmente no backend, isso cria um desafio adicional. Fico precisando vasculhar meu codebase para encontrar os lugares certos para editar ou expandir as soluções parciais que eles fornecem.

O Gemini 2.5 Pro, por outro lado, tende a fornecer soluções completamente implementadas que muitas vezes posso copiar e colar diretamente no meu projeto com ajustes mínimos. Essa geração de código completo economiza tempo significativo e reduz a carga cognitiva de ter que preencher as lacunas eu mesmo.

O tempo de inferência/velocidade é melhor

O DeepSeek tem um problema de escala. Talvez por causa do excesso de usuários e por não rodar nos chips Nvidia mais recentes para inferência, é muito mais lento e frequentemente mostra mensagem de servidor ocupado. O Gemini 2.5 Pro, por outro lado, é rápido, extremamente rápido. Claude 3.7 Sonnet na versão web é tão rápido quanto o Gemini 2.5 Pro e Claude Code é um pouco mais lento.

Janela de contexto extremamente longa (o que significa mais iterações de chat)

Claude 3.7 Sonnet é bom, mas frequentemente me deparo com limites de profundidade de chat ou tamanho da janela de contexto. Uma forma que tento contornar isso é pedir ao modelo para escrever documentação claramente para passar a próxima tarefa para outro "desenvolvedor backend" ou "desenvolvedor frontend" trabalhar e então CRIAR um novo chat. Isso começa a ficar cansativo rapidamente. Além disso, todos sabemos que precisamos debugar e não dá para confiar 100% no código gerado por GenAI ainda, especialmente na integração entre backend e frontend. Mas se a janela de contexto for muito pequena e você tiver que começar um novo chat toda vez, a máquina pode não ter contexto completo para identificar os bugs.

Em contraste, com a janela de contexto de 1M tokens (tier gratuito) do Gemini 2.5 Pro, posso continuar iterando, copiando e colando códigos, mensagens de erro e pedindo ao modelo recursivamente. Isso melhorou muito minha velocidade e qualidade do código. :D

(Uma observação rápida: percebo uma desaceleração significativa no tempo de inferência e responsividade da UI quando ultrapasso 300k ou 400k tokens por prompt.)

Atualização 4 de abril: A responsividade da UI melhorou muito nas últimas 48 horas. Agora, mesmo com 300k tokens, parece rodar suavemente!

Considerações de custo

Agora mesmo, o Gemini 2.5 Pro é GRATUITO. Lembrar que eu costumava pagar US$ 200/mês para a OpenAI no final de 2024 para usar o modelo Pro deles, e a qualidade não era tão boa quanto o Gemini 2.5, foi uma loucura T.T

Claude Code é bom, mas é muito caro. É muito fácil gastar US$ 5 ou US$ 10 a cada hora ou assim trabalhando ao lado do Claude Code, então ainda não é viável para mim. Os custos se acumulam facilmente.

Vantagens da UI do Gemini 2.5 Pro

Estou usando o Gemini 2.5 Pro via AI Studio do Google. Comparado ao DeepSeek R1 ou Claude 3.7, aprecio o cuidado e atenção aos detalhes que foram colocados na UI. Aqui estão alguns exemplos do que gosto:

Exibição de contagem de tokens A contagem de tokens no prompt até agora. Então eu sei que o máximo é cerca de 1M tokens, mas até onde cheguei em relação ao máximo? Quanto mais posso continuar antes de ter que pedir à máquina para escrever uma documentação resumindo o que fizemos para que eu possa continuar em outro novo chat?

Controle de temperatura Fica logo abaixo da contagem de tokens. Perfeito, fácil de ajustar.

Atalhos de teclado "Command + Enter" para executar o prompt no Mac OS: Ótimo. Agora você fala a minha língua porque muitas vezes eu pressionava "Enter" acidentalmente quando queria criar uma nova linha para colar mais conteúdo no chat. (Você pode dizer que é fácil aprender a usar Command + Enter para nova linha, como no caso do Claude, mas bem, sou um pouco peculiar.)

Controle de comprimento de saída Novamente fantástico porque às vezes quero resposta curta e às vezes quero resposta muito mais longa porque quero o código real em múltiplos arquivos.

Função de copiar

Até a função de copiar é melhor. Tem "Copy markdown" que é o que os desenvolvedores frequentemente querem usar!

Vou parar por aqui, mas acho que você entendeu a ideia. Esta UI é muito adequada para desenvolvedores e eu a aprecio. É muito melhor para mim do que ChatGPT, DeepSeek ou até mesmo Claude. Realmente gosto do Claude, mas acho que a principal desvantagem é não saber o consumo de tokens até o momento em relação ao limite.

Olhando para frente

À medida que continuo construindo aplicações mais complexas, a qualidade do meu parceiro de código de IA se torna cada vez mais importante. Embora todos os modelos inevitavelmente melhorem, a combinação de qualidade de código, janela de contexto longa e UI bem pensada do Gemini 2.5 Pro lhe deu uma vantagem significativa no meu workflow de desenvolvimento.

O teste real será ver como esses modelos lidam com sistemas ainda mais complexos à medida que continuo expandindo meus próprios limites. (Esse teste chegou quando construí um app nativo para iOS sem saber Swift usando Claude Code — a IA cuidou do scaffold, mas a lacuna entre "código funcionando" e "produto finalizado" acabou sendo onde todo o trabalho real mora.)

É isso. É por isso que em um curto período de tempo, o Gemini 2.5 Pro me conquistou e agora é minha ferramenta favorita para programação. :D

Adoraria saber — qual é sua ferramenta de IA para código favorita agora? E ela mudou nos últimos meses? Sinto que o cenário está mudando tão rapidamente que o que funciona melhor hoje pode não ser a mesma resposta no próximo trimestre. Me conta!

Abraços,

Chandler

P.S. Também testei o Github Copilot Agent, mas não gostei tanto porque, até agora, o limite por chat é realmente pequeno e a velocidade de inferência é muito lenta. Frequentemente bato no limite do Claude 3.7 Sonnet e ele ainda não tem o Gemini 2.5 Pro.

Continuar Lendo

Minha Jornada
Conectar
Idioma
Preferências