Google Gemini 2.5 Pro est désormais mon partenaire de codage de référence
Après 5 000 heures à tester des modèles d'IA, Gemini 2.5 Pro surpasse Claude et ChatGPT pour le codage — voici pourquoi il est devenu mon outil par défaut pour construire des applications complexes.
C'est difficile d'imaginer que ChatGPT n'a été lancé qu'à la fin 2022. Tellement de choses ont changé depuis. En tant que quelqu'un qui a passé (probablement) 5 000 heures à travailler aux côtés de multiples modèles GenAI au cours des 3 dernières années, je « ressens » le changement de cap avec Google Gemini 2.5 Pro. C'est désormais mon outil de référence pour le codage, devant Claude 3.7 Sonnet (y compris Claude Code), DeepSeek R1, OpenAI o1 ou o3-mini.
Cette préférence n'est pas née d'un seul moment « eurêka », mais plutôt de l'expérience cumulée de travailler avec différents modèles jour après jour. La qualité du code, la grande fenêtre de contexte, la vitesse, et l'interface réfléchie s'additionnent pour faire ressortir Gemini 2.5 Pro pour mes besoins particuliers en tant que développeur.
C'est mon « ressenti » personnel — aucun benchmark n'a été conduit pour cet article.
Contexte
Parce que cet article porte sur mon ressenti envers différents outils, je pense qu'il est important que tu comprennes mon parcours et comment j'utilise différents outils Gen AI. Je suis un professionnel de la publicité d'âge mûr (ouais, j'ai passé la quarantaine, donc quelle que soit la définition de jeune adulte que tu utilises, je ne suis pas qualifié T.T) Et j'apprends à coder depuis quelques années. J'ai suivi des cours fondamentaux comme : Google IT Automation with Python, Google Cybersecurity Specialization, Machine learning specialization, etc...
Pour appliquer ce que j'ai appris dans la vraie vie, j'ai construit un agent RAG en utilisant Langgraph, qui peut aussi répondre à des questions sur ce que j'ai écrit sur ce blog au cours des ~20 dernières années, ainsi que des questions financières sur les Magnificent 7 du S&P 500. Mon stack à un niveau élevé pour cet agent est :
- Base de données : Weaviate (pour la base de données vectorielle et la recherche hybride), PostgreSQL sur Google Cloud
- Orchestration d'agents : Lang Graph
- CI/CD : Google Cloud Run sur GCP
- Front-end : React
Sur quoi je travaille
Ces derniers mois, j'ai travaillé sur une application un peu plus complexe. J'ai essayé de la construire avec Lang Graph mais les performances ne correspondent tout simplement pas à mes attentes, principalement en termes de vitesse et de réactivité. Donc en ce moment, mon architecture globale est :
Architecture backend
- Approche hybride de base de données : J'ai implémenté une architecture de base de données hybride qui combine PostgreSQL (pour les données utilisateur et l'intégrité transactionnelle) avec DynamoDB (pour la gestion d'état scalable)
- Orchestration de workflow serverless : En allant au-delà des patterns d'agents basiques, j'utilise AWS Step Functions pour coordonner des workflows complexes à plusieurs étapes avec une gestion appropriée des erreurs
- Implémentation d'un système basé sur des crédits : Ajout d'un modèle freemium basé sur des crédits avec une gestion appropriée des transactions
- Configuration VPC : Mise en place d'une isolation réseau appropriée avec des groupes de sécurité et des endpoints VPC
Amélioration du front end
- Stack React moderne : Utilisation de Next.js 15 avec React 18 et TypeScript pour un développement type-safe
- Système d'authentification : Intégration d'AWS Cognito pour une gestion sécurisée des utilisateurs
- Polling et gestion d'état : Implémentation d'un suivi de statut efficace avec des fréquences de polling adaptatives
- Système de design responsive : Création d'une interface minimaliste et épurée avec des patterns de style cohérents
Pourquoi ai-je décidé d'utiliser AWS et non GCP quand j'ai essayé de m'éloigner de Langgraph ? Eh bien, c'était/c'est simplement parce que je voulais apprendre de nouvelles choses. J'ai quelques connaissances sur GCP grâce à l'hébergement de ce site dessus et à son utilisation pour l'agent actuel. Donc je voulais apprendre quelque chose de complètement nouveau.
Pourquoi Gemini 2.5 Pro se démarque pour le codage
Alors que d'autres peuvent te donner des benchmarks, moi je peux te donner mon ressenti sur pourquoi Gemini 2.5 Pro est meilleur.
Le code en lui-même est meilleur
Avec le même prompt et le même contexte, la réponse en code de Gemini 2.5 Pro est meilleure (ou au moins équivalente) à celle de DeepSeek R1 ou Claude 3.7 Sonnet. J'ai arrêté d'utiliser OpenAI o1 ou o3 parce que la qualité est tout simplement bien inférieure.
Ce que j'apprécie particulièrement avec Gemini 2.5 Pro, c'est sa volonté de générer du code complet, prêt à l'emploi. Claude 3.7 Sonnet et DeepSeek R1 peuvent être assez « paresseux » par moments, proposant des implémentations partielles ou du pseudocode qui nécessite des modifications importantes. Pour quelqu'un comme moi qui n'a pas une expertise technique approfondie, surtout côté backend, ça crée un défi supplémentaire. Je dois ensuite fouiller dans ma codebase pour trouver les bons endroits où modifier ou compléter les solutions partielles qu'ils fournissent.
Gemini 2.5 Pro, en revanche, tend à fournir des solutions entièrement implémentées que je peux souvent copier-coller directement dans mon projet avec des ajustements minimes. Cette génération de code complète me fait gagner un temps considérable et réduit la charge cognitive de devoir combler les lacunes moi-même.
Le temps d'inférence/la vitesse est meilleur
DeepSeek a un problème d'échelle. Peut-être à cause de trop nombreux utilisateurs et du fait qu'il ne tourne pas sur les dernières puces Nvidia pour l'inférence, il est beaucoup plus lent et affiche souvent le message d'erreur « serveur occupé ». Gemini 2.5 Pro, en revanche, est rapide, extrêmement rapide. La version web de Claude 3.7 Sonnet est aussi rapide que Gemini 2.5 Pro et Claude Code est un peu plus lent.
Fenêtre de contexte extrêmement longue (ce qui signifie plus d'itérations en chat)
Claude 3.7 Sonnet est bon mais je me retrouve souvent à atteindre la limite de profondeur de chat ou de longueur de fenêtre de contexte. Une façon dont j'essaie de contourner ça est de demander au modèle d'écrire une documentation clairement pour passer la tâche suivante à un autre « développeur backend » ou « développeur front end » pour qu'il y travaille, puis de CRÉER un nouveau chat. Ça devient vite fatigant. Et on sait tous qu'il faut déboguer et qu'on ne peut pas faire confiance à 100 % au code généré par GenAI, surtout quand il s'agit d'intégration entre backend et front end. Mais si la fenêtre de contexte est trop petite et qu'il faut commencer un nouveau chat à chaque fois, le modèle peut ne pas avoir le contexte complet pour identifier les bugs.
À l'inverse, avec la fenêtre de contexte de 1M (niveau gratuit) de Gemini 2.5 Pro, je peux continuer à itérer, copier-coller du code, des messages d'erreur, et interroger le modèle de façon récursive. Ça a grandement amélioré ma vitesse et la qualité de mon code. :D
(Une petite note cependant : je remarque un ralentissement significatif du temps d'inférence et de la réactivité de l'interface une fois que je dépasse 300k ou 400k tokens par prompt.)
Mise à jour du 4 avril : La réactivité de l'interface s'est beaucoup améliorée au cours des 48 dernières heures. Maintenant, même à 300k tokens, ça semble tourner sans problème !
Considérations de coût
Pour l'instant, Gemini 2.5 Pro est GRATUIT. Me rappeler que je payais 200 $/mois à OpenAI fin 2024 pour utiliser leur modèle Pro alors que la qualité n'était pas aussi bonne que Gemini 2.5, c'est insensé T.T
Claude Code est bien mais c'est très cher. Il est très facile de dépenser 5 ou 10 $ toutes les heures à travailler avec Claude Code, donc ce n'est pas encore viable pour moi. Les coûts s'accumulent facilement.
Les avantages de l'interface de Gemini 2.5 Pro
J'utilise Gemini 2.5 Pro via AI Studio de Google. Par rapport à DeepSeek R1 ou Claude 3.7, j'apprécie la réflexion et l'attention aux détails qui ont été mis derrière l'interface. Voici quelques exemples de ce que j'aime :
Affichage du nombre de tokens Le nombre de tokens dans le prompt jusqu'à présent. Donc je sais que le maximum est d'environ 1M tokens mais à quel point en suis-je par rapport au max ? Jusqu'où puis-je continuer avant de devoir demander à la machine d'écrire une documentation résumant ce que nous avons fait pour que je puisse continuer dans un nouveau chat ?
Contrôle de la température Il est juste en dessous du nombre de tokens. Parfait, facile à ajuster.
Raccourcis clavier « Command + Enter » pour lancer le prompt sur Mac OS : Excellent. Tu parles mon langage parce que tant de fois, j'ai appuyé accidentellement sur « Enter » alors que je voulais créer une nouvelle ligne pour pouvoir coller plus de contenu dans le chat. (On peut dire qu'il est facile d'apprendre à utiliser Command + Enter pour une nouvelle ligne, comme dans le cas de Claude, mais bon, je suis un peu particulier.)
Contrôle de la longueur de sortie Encore fantastique parce que parfois je veux une réponse courte et parfois je veux une réponse beaucoup plus longue parce que je veux le code réel sur plusieurs fichiers.
Fonction de copie
Même la fonction de copie est meilleure. Elle a « Copy markdown » qui est ce que le développeur veut souvent utiliser !
Je m'arrête ici mais je pense que tu as saisi l'essentiel. Cette interface convient très bien aux développeurs et je l'apprécie. Elle est bien meilleure pour moi que ChatGPT, DeepSeek, ou même Claude. J'aime vraiment Claude mais je pense que le principal inconvénient est de ne pas connaître la consommation de tokens jusqu'à présent par rapport à la limite.
Perspectives d'avenir
À mesure que je continue à construire des applications plus complexes, la qualité de mon partenaire de codage IA devient de plus en plus importante. Si tous les modèles vont inévitablement s'améliorer, la combinaison de qualité de code, de grande fenêtre de contexte, et d'interface réfléchie de Gemini 2.5 Pro lui a donné un avantage significatif pour mon workflow de développement.
Le vrai test sera de voir comment ces modèles gèrent des systèmes encore plus complexes à mesure que je continue à repousser mes propres limites. (Ce test est arrivé quand j'ai construit une application iOS native sans connaître Swift en utilisant Claude Code — l'IA a géré le scaffold, mais l'écart entre « code fonctionnel » et « produit fini » s'est avéré être là où se situe tout le vrai travail.)
Voilà. C'est pourquoi en peu de temps, Gemini 2.5 Pro m'a conquis et est désormais mon outil de référence pour le codage. :D
J'adorerais savoir — quel est ton outil de codage IA de référence en ce moment ? Et a-t-il changé au cours des derniers mois ? J'ai l'impression que le paysage évolue si vite que ce qui fonctionne le mieux aujourd'hui pourrait ne pas être la même réponse dans le prochain trimestre. Dis-moi ce que tu en penses !
Cordialement,
Chandler
P.S. J'ai aussi testé Github Copilot Agent mais je ne l'aime pas autant parce qu'en ce moment, la limite par chat est vraiment petite et la vitesse d'inférence est très lente. Je me retrouve souvent à atteindre la limite de Claude 3.7 Sonnet et il n'a pas encore Gemini 2.5 Pro.




