Google Gemini 2.5 Pro es ahora mi herramienta de programación favorita
Después de 5.000 horas probando modelos de IA, Gemini 2.5 Pro supera a Claude y ChatGPT para programar — aquí te explico por qué se convirtió en mi herramienta predeterminada para construir aplicaciones complejas.
Es difícil imaginar que ChatGPT se lanzó apenas a finales de 2022. Tanto ha cambiado desde entonces. Como alguien que ha pasado (probablemente) 5.000 horas trabajando junto a múltiples modelos de GenAI durante los últimos 3 años, puedo "sentir" el salto cualitativo con Google Gemini 2.5 Pro. Ahora es mi herramienta preferida para programar, por encima de Claude 3.7 Sonnet (incluido Claude Code), DeepSeek R1 u OpenAI o1 o o3-mini.
Esta preferencia no surgió de un único momento "eureka", sino de la experiencia acumulada de trabajar con distintos modelos día tras día. La calidad del código, la ventana de contexto larga, la velocidad y la UI cuidada se suman para hacer que Gemini 2.5 Pro destaque para mis necesidades particulares como desarrollador.
Esto es mi "sensación" personal — no se realizó ningún benchmarking para esta publicación.
Contexto
Como esta publicación trata sobre mi percepción de las distintas herramientas, creo que es importante que entiendas mi contexto y cómo utilizo las diferentes herramientas de Gen AI. Soy un profesional de la publicidad de mediana edad (sí, ya pasé los 40, así que sin importar qué definición de adulto joven uses, no califico T.T). Y llevo los últimos años aprendiendo a programar. Completé algunos cursos fundamentales como: IT Automation with Python de Google, Cybersecurity Specialization de Google, Machine learning specialization, etc.
Para aplicar lo aprendido en la vida real, construí un agente RAG usando Langgraph, que también puede responder preguntas sobre lo que he escrito en este blog durante los últimos ~20 años y también preguntas financieras sobre los Magnificent 7 del S&P 500. Mi stack a alto nivel para este agente es:
- Base de datos: Weaviate (para vector store y búsqueda híbrida), PostgreSQL en Google Cloud
- Orquestación del agente: Lang Graph
- CI/CD: Google Cloud Run en GCP
- Front-end: React
En qué estoy trabajando
Durante los últimos meses, he estado trabajando en una aplicación algo más compleja. Intenté construirla con Lang Graph, pero el rendimiento no está a la altura de lo que espero, principalmente en velocidad y respuesta. Así que ahora mi arquitectura general es:
Arquitectura backend
- Enfoque de base de datos híbrido: He implementado una arquitectura de base de datos híbrida que combina PostgreSQL (para datos de usuario e integridad transaccional) con DynamoDB (para gestión de estado escalable)
- Orquestación de flujos serverless: Más allá de los patrones básicos de agente, uso AWS Step Functions para coordinar flujos de trabajo complejos y de múltiples etapas con manejo adecuado de errores
- Implementación de sistema de créditos: Añadí un modelo freemium basado en créditos con gestión de transacciones adecuada
- Configuración de VPC: Configuré el aislamiento de red adecuado con grupos de seguridad y endpoints de VPC
Mejora del front end
- Stack React moderno: Usando Next.js 15 con React 18 y TypeScript para desarrollo con tipado seguro
- Sistema de autenticación: Integré AWS Cognito para la gestión segura de usuarios
- Polling y gestión de estado: Implementé seguimiento eficiente del estado con frecuencias de polling adaptativas
- Sistema de diseño responsive: Creé una UI minimalista y limpia con patrones de estilo consistentes
¿Por qué decidí usar AWS y no GCP cuando intenté alejarme de Langgraph? Pues, sencillamente, porque quería aprender cosas nuevas. Tengo algo de conocimiento sobre GCP por alojar este sitio web en él y usarlo para el agente actual. Así que quería aprender algo completamente nuevo.
Por qué Gemini 2.5 Pro destaca para programar
Mientras otros pueden darte benchmarks, yo puedo darte mis sensaciones sobre por qué creo que Gemini 2.5 Pro es mejor.
El código real es mejor
Dado el mismo prompt y contexto, la respuesta de código de Gemini 2.5 Pro es mejor (o al menos igual) que la de DeepSeek R1 o Claude 3.7 Sonnet. Dejé de usar OpenAI o1 o o3 porque la calidad es simplemente mucho peor.
Lo que particularmente aprecio de Gemini 2.5 Pro es su disposición a generar código completo y listo para usar. Tanto Claude 3.7 Sonnet como DeepSeek R1 pueden ser bastante "perezosos" a veces, ofreciendo implementaciones parciales o pseudocódigo que requiere modificaciones significativas. Para alguien como yo, sin una profunda experiencia técnica, especialmente en el backend, esto crea un desafío adicional. Entonces tengo que buscar en mi codebase los lugares correctos para editar o ampliar las soluciones parciales que ofrecen.
Gemini 2.5 Pro, en cambio, tiende a proporcionar soluciones completamente implementadas que a menudo puedo copiar y pegar directamente en mi proyecto con ajustes mínimos. Esta generación de código completo me ahorra tiempo significativo y reduce la carga cognitiva de tener que rellenar los huecos yo mismo.
El tiempo de inferencia/velocidad es mejor
DeepSeek tiene un problema de escala. Quizás por la gran cantidad de personas que lo usan y por no correr en los últimos chips Nvidia para inferencia, es mucho más lento y a menudo muestra mensajes de error de servidor ocupado. Gemini 2.5 Pro, en cambio, es rápido, extremadamente rápido. La versión web de Claude 3.7 Sonnet es tan rápida como Gemini 2.5 Pro y Claude Code es un poco más lento.
Ventana de contexto extremadamente larga (lo que significa más iteraciones en el chat)
Claude 3.7 Sonnet es bueno, pero a menudo me encuentro con el límite de profundidad de chat o de longitud de ventana de contexto. Una forma que tengo de manejarlo es pedir al modelo que escriba documentación claramente para pasar la siguiente tarea a otro "desarrollador backend" o "desarrollador frontend" y luego CREAR un nuevo chat. Esto empieza a resultar agotador muy pronto. Además, todos sabemos que necesitamos depurar y no podemos confiar al 100% en el código generado por GenAI todavía, especialmente cuando se trata de la integración entre backend y frontend. Pero si la ventana de contexto es demasiado pequeña y tienes que empezar un nuevo chat cada vez, el modelo puede no tener el contexto completo para identificar los errores.
Por el contrario, con la ventana de contexto de 1M (tier gratuito) de Gemini 2.5 Pro, puedo seguir iterando, copiando y pegando códigos, mensajes de error y pidiéndole al modelo de forma recursiva. Esto ha mejorado enormemente mi velocidad y calidad de código. :D
(Una nota rápida: sí noto una ralentización significativa en el tiempo de inferencia y la capacidad de respuesta de la UI una vez que supero los 300k o 400k tokens por prompt.)
Actualización 4 de abril: La capacidad de respuesta de la UI ha mejorado mucho en las últimas 48 horas. Ahora, incluso con 300k tokens, parece funcionar fluidamente.
Consideraciones de coste
Ahora mismo, Gemini 2.5 Pro es GRATIS. Recordar que antes pagaba $200/mes a OpenAI a finales de 2024 por usar su modelo Pro, con una calidad que no era tan buena como Gemini 2.5, es una locura T.T
Claude Code es bueno pero es muy caro. Es muy fácil gastar $5 o $10 cada hora o algo así trabajando junto a Claude Code, así que todavía no es viable para mí. Los costes se acumulan fácilmente.
Ventajas de la UI de Gemini 2.5 Pro
Estoy usando Gemini 2.5 Pro a través de AI Studio de Google. Comparado con DeepSeek R1 o Claude 3.7, aprecio el cuidado y la atención al detalle que hay detrás de la UI. Aquí hay algunos ejemplos de lo que me gusta:
Contador de tokens El recuento de tokens en el prompt hasta ahora. Sé que el máximo es de aproximadamente 1M tokens, pero ¿a qué distancia estoy del máximo? ¿Cuánto más puedo seguir antes de tener que pedirle al modelo que escriba una documentación que resuma lo que hemos hecho para poder continuar en otro chat nuevo?
Control de temperatura Está justo debajo del contador de tokens. Perfecto, fácil de ajustar.
Atajos de teclado "Command + Enter" para ejecutar el prompt en Mac OS: genial. Ahora hablas mi idioma porque muchas veces presioné "Enter" sin querer cuando en realidad quería crear una nueva línea para pegar más contenido en el chat. (Se puede argumentar que es fácil aprender a usar Command + Enter para nueva línea, como en el caso de Claude, pero bueno, soy un poco peculiar.)
Control de longitud de salida De nuevo, fantástico porque a veces quiero una respuesta corta y a veces quiero una respuesta mucho más larga porque quiero el código real a través de múltiples archivos.
Función de copia
Incluso la función de copiar es mejor. Tiene "Copy markdown", que es lo que los desarrolladores suelen querer usar.
Voy a parar aquí, pero creo que ya entiendes la idea. Esta UI es muy adecuada para desarrolladores y la aprecio. Es mucho mejor para mí que ChatGPT, DeepSeek o incluso Claude. Me gusta mucho Claude, pero creo que el principal inconveniente es no saber el consumo de tokens hasta ahora versus el límite.
Mirando hacia adelante
A medida que sigo construyendo aplicaciones más complejas, la calidad de mi compañero de codificación con IA se vuelve cada vez más importante. Aunque todos los modelos inevitablemente mejorarán, la combinación de calidad de código, ventana de contexto larga y UI cuidada de Gemini 2.5 Pro le ha dado una ventaja significativa en mi flujo de trabajo de desarrollo.
La verdadera prueba será ver cómo estos modelos manejan sistemas aún más complejos a medida que sigo empujando mis propios límites. (Esa prueba llegó cuando construí una app nativa de iOS sin saber Swift usando Claude Code — la IA se encargó del andamiaje, pero la brecha entre "código que funciona" y "producto terminado" resultó ser donde vive todo el trabajo real.)
Así que ya lo tienes. Por eso, en poco tiempo, Gemini 2.5 Pro me conquistó y ahora es mi herramienta preferida para programar. :D
Me encantaría saber — ¿cuál es tu herramienta de codificación con IA favorita ahora mismo? ¿Y ha cambiado en los últimos meses? Siento que el panorama está cambiando tan rápido que lo que mejor funciona hoy puede no ser la misma respuesta el próximo trimestre. ¡Cuéntame!
Un abrazo,
Chandler
P.D. También probé Github Copilot Agent, pero no me gusta tanto porque, por ahora, el límite por chat es realmente pequeño y la velocidad de inferencia es muy lenta. Me encuentro con frecuencia con el límite de Claude 3.7 Sonnet y todavía no tiene Gemini 2.5 Pro.




