Skip to content
··7 min basahin

Ang Google Gemini 2.5 Pro ang go-to coding partner ko na ngayon

Pagkatapos ng 5,000 oras na pag-test ng AI models, tinalo ng Gemini 2.5 Pro ang Claude at ChatGPT sa coding—ito ang dahilan kung bakit naging default tool ko ito para sa pagbuo ng mga complex na applications.

Mahirap paniwalaan na ang ChatGPT ay na-launch lang noong late 2022. Ang dami nang nagbago simula noon. Bilang isang taong nag-spend na ng (marahil) 5,000 oras na nagtatrabaho kasama ang iba't ibang GenAI models sa nakalipas na 3 taon, nararamdaman ko ang step change sa Google Gemini 2.5 Pro. Ito na ang go-to tool ko sa coding, kumpara sa Claude 3.7 Sonnet (kasama na ang Claude Code) o DeepSeek R1 o OpenAI o1 o o3-mini.

Hindi ito galing sa isang "eureka" moment, kundi mula sa pinagsamang karanasan ng paggamit ng iba't ibang models araw-araw. Ang code quality, ang mahabang context window, ang bilis, at ang thoughtful na UI — lahat ng ito ay nagpapahigit sa Gemini 2.5 Pro para sa mga pangangailangan ko bilang developer.

Ito ang personal na "pakiramdam" ko — walang benchmarking na ginawa para sa post na ito.

Background

Dahil tungkol sa pakiramdam ko ang post na ito sa iba't ibang tools, sa tingin ko importante na maunawaan mo ang background ko at kung paano ko ginagamit ang iba't ibang Gen AI tools. Isa akong middle age na advertising professional (oo, lagpas na ako sa 40 kaya kahit anong definition ng young adult ang gamitin mo, hindi ako qualified T.T) At ilang taon na akong natututo mag-code. Nag-complete ako ng ilang fundamental courses tulad ng: Google IT Automation with Python, Google Cybersecurity Specialization, Machine learning specialization, at iba pa...

Para ma-apply ang natutunan ko sa totoong buhay, gumawa ako ng RAG agent gamit ang Langgraph, na makakapag-sagot din ng mga tanong tungkol sa mga isinulat ko sa blog na ito sa nakalipas na ~20 taon at pati mga financial questions tungkol sa Magnificent 7 sa S&P 500. Ang stack ko sa mataas na level para sa agent na ito ay:

  • Database: Weaviate (para sa vector store database at hybrid search), PostgreSQL sa Google Cloud
  • Agent orchestration: Lang Graph
  • CI/CD: Google Cloud Run sa GCP
  • Front-end: React

Ano ang ginagawa ko

Sa nakalipas na ilang buwan, nagtatrabaho ako sa isang application na medyo mas complex. Sinubukan kong gawin ito gamit ang Lang graph pero hindi abot ng inaasahan ko ang performance, lalo na sa bilis/responsiveness. Kaya ngayon, ang overall architecture ko ay:

Backend architecture

  • Hybrid Database Approach: Nag-implement ako ng hybrid database architecture na nag-combine ng PostgreSQL (para sa user data at transactional integrity) at DynamoDB (para sa scalable state management)
  • Serverless Workflow Orchestration: Lumipat na sa mas advanced kaysa sa basic agent patterns, gumagamit ako ng AWS Step Functions para i-coordinate ang mga complex, multi-stage workflows na may maayos na error handling
  • Credit-Based System Implementation: Nagdagdag ng credit-based freemium model na may maayos na transaction management
  • VPC Configuration: Nag-set up ng tamang network isolation na may security groups at VPC endpoints

Front end improvement

  • Modern React Stack: Gumagamit ng Next.js 15 na may React 18 at TypeScript para sa type-safe development
  • Authentication System: Nag-integrate ng AWS Cognito para sa secure user management
  • Polling & State Management: Nag-implement ng efficient na status tracking na may adaptive polling frequencies
  • Responsive Design System: Gumawa ng minimalist, malinis na UI na may consistent styling patterns

Bakit ako nag-decide gumamit ng AWS at hindi GCP nung sinubukan kong lumipat mula sa Langgraph? Well, simpleng dahilan lang — gusto kong matuto ng bagong bagay. Mayroon akong kaalaman tungkol sa GCP mula sa pagho-host ng website na ito doon at paggamit nito para sa kasalukuyang Agent. Kaya gusto kong matuto ng totally bago.

Bakit namumukod-tangi ang Gemini 2.5 Pro sa coding

Habang ang iba ay makakapagbigay sa iyo ng benchmarks, maibibigay ko sa iyo ang pakiramdam ko kung bakit mas maganda ang Gemini 2.5 Pro.

Mas maganda ang actual na code

Sa parehong prompt at context, mas maganda (o hindi bababa sa katumbas) ang code response mula sa Gemini 2.5 Pro kaysa sa DeepSeek R1 o Claude 3.7 Sonnet. Tumigil na akong gumamit ng OpenAI o1 o o3 kasi mas mababa talaga ang quality.

Ang lalo kong pinapahalagahan sa Gemini 2.5 Pro ay ang pagiging handa nitong mag-generate ng complete, ready-to-use na code. Parehong ang Claude 3.7 Sonnet at DeepSeek R1 ay medyo "tamad" minsan, nagbibigay ng partial implementations o pseudocode na kailangang i-modify nang malaki. Para sa isang tulad kong walang malalim na technical expertise, lalo na sa backend, ito ay karagdagang hamon. Kailangan ko pang maghanap sa buong codebase ko para mahanap ang tamang lugar para i-edit o palawigin ang mga partial solutions nila.

Ang Gemini 2.5 Pro naman ay may tendency na magbigay ng fully-implemented solutions na madalas ko nang ma-copy at paste nang direkta sa project ko na may kaunting adjustments lang. Ang ganitong complete code generation ay nakakapagtipid ng maraming oras at binabawasan ang cognitive load ng kailangan kong punan ang mga gaps.

Mas mabilis ang inference time/speed

May scale problem ang DeepSeek. Marahil dahil sa dami ng gumagamit at hindi ito tumatakbo sa pinakabagong Nvidia chips para sa inference, mas mabagal ito at madalas nagpapakita ng server is busy error message. Ang Gemini 2.5 Pro naman ay mabilis, sobrang bilis. Ang Claude 3.7 Sonnet na web version ay kasing bilis ng Gemini 2.5 Pro at ang Claude Code naman ay medyo mas mabagal.

Napakahaba ng context window length (ibig sabihin mas maraming chat iterations)

Magaling ang Claude 3.7 Sonnet pero madalas akong na-encounter ang chat depth o context window length limit. Isang paraan na sinusubukan kong gawin para dito ay ang hilingin sa model na magsulat ng documentation nang malinaw para ipasa ang susunod na task sa ibang "backend developer" o "front end developer" na magtatrabaho at saka mag-CREATE ng bagong chat. Nakakapagod ito sa lalong madaling panahon. Alam din nating lahat na kailangan nating mag-debug at hindi tayo makakapag-tiwala sa code na gine-generate ng GenAI 100% ng oras, lalo na pagdating sa integration ng backend at front end. Pero kung masyadong maliit ang context window length at kailangan mong mag-start ng bagong chat palagi, maaaring wala sa machine ang buong context para ma-identify ang mga bugs.

Sa kabaligtaran na may 1M context window length (free tier) mula sa Gemini 2.5 Pro, makakapag-iterate ako nang tuloy-tuloy, mag-copy at paste ng codes, error messages at magtanong sa model nang paulit-ulit. Lubos itong nagpabuti sa bilis at code quality ko. :D

(Isang mabilisang note lang na napapansin ko ang malaking pagbagal sa inference time at UI responsiveness kapag lumampas na ako sa 300k o 400k token kada prompt.)

Update Apr 4: Malaki ang improvement ng UI responsiveness sa nakalipas na 48 oras. Ngayon, kahit sa 300k token, mukhang smooth na ang takbo!

Mga konsiderasyon sa gastos

Sa ngayon, LIBRE gamitin ang Gemini 2.5 Pro. Kung aalalahanin na dati akong nagbabayad sa OpenAI ng $200/buwan noong late 2024 para gamitin ang Pro model nila at hindi kasing ganda ng Gemini 2.5 ang quality, sobrang sayang T.T

Magaling ang Claude Code pero napakamahal nito. Napakadaling mag-spend ng $5 o $10 bawat oras habang nagtatrabaho kasama ang Claude code kaya hindi pa feasible para sa akin. Mabilis ang pagtaas ng gastos.

Mga UI advantages ng Gemini 2.5 Pro

Ginagamit ko ang Gemini 2.5 Pro sa pamamagitan ng AI studio mula sa Google. Ikumpara iyon sa DeepSeek R1 o Claude 3.7, pinapahalagahan ko ang pagiisip at atensyon sa detalye na napunta sa likod ng UI. Narito ang ilang halimbawa ng gusto ko:

Token count display Ang token count sa prompt hanggang ngayon. Kaya alam ko na ang max ay mga 1M token pero gaano na ako kalayo sa max? Gaano pa kalayo ang maaari kong ituloy bago ko kailangang sabihin sa machine na magsulat ng documentation para i-sum up ang nagawa namin para makapagpatuloy ako sa ibang New chat?

Temperature control Andyan lang ito sa ibaba ng Token count. Perfect, madali para sa akin na i-adjust.

Keyboard shortcuts "Command + Enter" para i-run ang prompt sa Mac OS: Magaling. Ngayon nagsasalita ka na ng wika ko kasi ang daming beses na aksidenteng pinindot ko ang "Enter" pero ang gusto ko talaga ay gumawa ng bagong line para makapag-paste pa ng maraming content sa chat. (Pwede mong sabihin na madaling matutunan ang Command + Enter para sa new line, tulad sa kaso ng Claude pero well, medyo kakaiba ako.)

Output length control Muli, napakagaling dahil minsan gusto ko ng maikliang sagot at minsan naman gusto ko ng mas mahabang response dahil gusto ko ng actual codes sa iba't ibang files.

Copy function

Kahit ang copy function ay mas magaling. Mayroon itong "Copy markdown" na madalas ginagamit ng developer!

Titigil na ako dito pero alam mo na siguro ang punto. Ang UI na ito ay napakaangkop sa Developer at pinahahalagahan ko ito. Mas maganda ito para sa akin kumpara sa ChatGPT o DeepSeek o kahit Claude. Talagang gusto ko ang Claude pero sa tingin ko ang pangunahing kakulangan ay ang hindi alam ang token consumption hanggang ngayon kumpara sa limit.

Pagtingin sa Hinaharap

Habang nagpapatuloy akong gumawa ng mas complex na applications, lalong nagiging importante ang quality ng AI coding partner ko. Habang siguradong mag-improve ang lahat ng models, ang kombinasyon ng Gemini 2.5 Pro ng code quality, mahabang context window, at thoughtful na UI ay nagbigay dito ng malaking kalamangan para sa development workflow ko.

Ang tunay na pagsubok ay ang makita kung paano hahawakan ng mga models na ito ang mas complex pang mga systems habang patuloy akong nagtutulak sa sarili kong mga hangganan. (Dumating ang pagsubok na iyon nang gumawa ako ng native iOS app nang hindi alam ang Swift gamit ang Claude Code — hinawakan ng AI ang scaffold, pero ang agwat sa pagitan ng "gumaganang code" at "tapos na produkto" ay kung saan talaga naroon ang lahat ng tunay na trabaho.)

Kaya ayan na. Iyan ang dahilan kung bakit sa maikling panahon, nanalo sa akin ang Gemini 2.5 Pro at ngayon ang go-to tool ko na para sa coding. :D

Gusto kong malaman — ano ang go-to AI coding tool mo ngayon? At nagbago ba ito sa nakalipas na ilang buwan? Pakiramdam ko sobrang bilis ng pagbabago ng landscape na ang pinakamagaling ngayon ay maaaring hindi na ang parehong sagot sa susunod na quarter. Ipaalam mo sa akin ang iyong mga saloobin!

Maraming salamat,

Chandler

P.S. Ni-test ko rin ang Github Copilot Agent pero hindi ko gaano gusto dahil sa ngayon, napakaliit ng limit kada chat at napakabagal ng inference speed. Madalas akong ma-encounter ang Claude 3.7 Sonnet limit at wala pa itong Gemini 2.5 Pro.

Ipagpatuloy ang Pagbasa

Ang Journey Ko
Kumonekta
Wika
Mga Preference