Skip to content
··6 menit baca

Google Gemini 2.5 Pro Sekarang Menjadi Partner Coding Andalan Saya

Setelah 5.000 jam menguji model AI, Gemini 2.5 Pro mengalahkan Claude dan ChatGPT untuk coding — ini alasan mengapa ia menjadi tool default saya untuk membangun aplikasi kompleks.

Sulit dibayangkan bahwa ChatGPT baru diluncurkan di akhir 2022. Begitu banyak yang berubah sejak saat itu. Sebagai seseorang yang telah menghabiskan (mungkin) 5.000 jam bekerja bersama berbagai model GenAI selama 3 tahun terakhir, saya bisa "merasakan" perubahan besar dengan Google Gemini 2.5 Pro. Sekarang ini menjadi tool andalan saya untuk coding, dibandingkan Claude 3.7 Sonnet (termasuk Claude Code) atau DeepSeek R1 atau OpenAI o1 atau o3-mini.

Preferensi ini tidak datang dari satu momen "eureka", tapi dari akumulasi pengalaman bekerja dengan model-model berbeda hari demi hari. Kualitas kode, context window yang panjang, kecepatan, dan UI yang thoughtful semuanya menambah dan membuat Gemini 2.5 Pro menonjol untuk kebutuhan saya sebagai developer.

Ini adalah "perasaan" pribadi saya - tidak ada benchmarking yang dilakukan untuk postingan ini.

Latar Belakang

Karena postingan ini tentang perasaan saya terhadap berbagai tool, saya rasa penting bagi kamu untuk memahami latar belakang saya dan bagaimana saya menggunakan berbagai tool Gen AI. Saya adalah profesional periklanan paruh baya (ya saya sudah melewati 40 jadi tidak peduli definisi mana dari young adult yang kamu pakai, saya tidak memenuhi syarat T.T) Dan saya telah belajar coding selama beberapa tahun terakhir. Saya menyelesaikan beberapa kursus dasar seperti: Google IT Automation with Python, Google Cybersecurity Specialization, Machine learning specialization, dll...

Untuk mengaplikasikan apa yang saya pelajari dalam kehidupan nyata, saya membangun RAG agent menggunakan Langgraph, yang juga bisa menjawab pertanyaan tentang apa yang saya tulis di blog ini selama ~20 tahun dan juga pertanyaan keuangan tentang Magnificent 7 di S&P 500. Stack saya secara garis besar untuk agent ini adalah:

  • Database: Weaviate (untuk vector store database dan hybrid search), PostgreSQL di Google Cloud
  • Agent orchestration: Lang Graph
  • CI/CD: Google Cloud Run di GCP
  • Front-end: React

Apa yang Sedang Saya Kerjakan

Selama beberapa bulan terakhir, saya mengerjakan aplikasi yang sedikit lebih kompleks. Saya mencoba membangunnya menggunakan Lang graph tapi performanya tidak sesuai harapan, terutama soal kecepatan/responsivitas. Jadi saat ini, arsitektur keseluruhan saya adalah:

Arsitektur Backend

  • Pendekatan Database Hybrid: Saya mengimplementasikan arsitektur database hybrid yang menggabungkan PostgreSQL (untuk data pengguna dan integritas transaksional) dengan DynamoDB (untuk manajemen state yang skalabel)
  • Orkestrasi Workflow Serverless: Melampaui pola agent dasar, saya menggunakan AWS Step Functions untuk mengkoordinasikan workflow multi-tahap yang kompleks dengan error handling yang proper
  • Implementasi Sistem Berbasis Kredit: Menambahkan model freemium berbasis kredit dengan manajemen transaksi yang proper
  • Konfigurasi VPC: Menyiapkan isolasi jaringan yang proper dengan security group dan VPC endpoint

Peningkatan Front end

  • Stack React Modern: Menggunakan Next.js 15 dengan React 18 dan TypeScript untuk pengembangan yang type-safe
  • Sistem Autentikasi: Mengintegrasikan AWS Cognito untuk manajemen pengguna yang aman
  • Polling & State Management: Mengimplementasikan pelacakan status yang efisien dengan frekuensi polling adaptif
  • Sistem Desain Responsif: Membuat UI minimalis dan bersih dengan pola styling yang konsisten

Mengapa saya memutuskan menggunakan AWS dan bukan GCP ketika saya mencoba beralih dari Langgraph, yah, itu/karena saya ingin belajar hal baru. Saya punya pengetahuan tentang GCP dari hosting situs ini di sana dan menggunakannya untuk Agent saat ini. Jadi saya ingin belajar sesuatu yang benar-benar baru.

Mengapa Gemini 2.5 Pro Menonjol untuk Coding

Sementara orang lain bisa memberikan benchmark, saya bisa memberikan perasaan saya tentang mengapa saya merasa Gemini 2.5 Pro lebih baik.

Kode sebenarnya lebih baik

Dengan prompt dan konteks yang sama, respons kode dari Gemini 2.5 Pro lebih baik (atau setidaknya setara) dibanding DeepSeek R1 atau Claude 3.7 Sonnet. Saya berhenti menggunakan OpenAI o1 atau o3 karena kualitasnya jauh lebih buruk.

Yang sangat saya hargai dari Gemini 2.5 Pro adalah kesediaannya menghasilkan kode lengkap yang siap pakai. Baik Claude 3.7 Sonnet maupun DeepSeek R1 kadang bisa cukup "malas", menawarkan implementasi parsial atau pseudocode yang membutuhkan modifikasi signifikan. Untuk seseorang seperti saya tanpa keahlian teknis mendalam, terutama di backend, ini menciptakan tantangan tambahan. Saya kemudian harus berburu di codebase saya untuk menemukan tempat yang tepat untuk mengedit atau memperluas solusi parsial yang mereka berikan.

Gemini 2.5 Pro, di sisi lain, cenderung memberikan solusi yang sudah terimplementasi penuh yang sering bisa saya copy paste langsung ke proyek dengan penyesuaian minimal. Generasi kode lengkap ini menghemat waktu signifikan dan mengurangi beban kognitif karena tidak perlu mengisi celah-celah sendiri.

Waktu inferensi/kecepatannya lebih baik

DeepSeek punya masalah skala. Mungkin karena terlalu banyak orang menggunakannya dan tidak berjalan di chip Nvidia terbaru untuk inferensi, ia jauh lebih lambat dan sering menampilkan pesan error server sibuk. Gemini 2.5 Pro di sisi lain cepat, sangat cepat. Claude 3.7 Sonnet versi web secepat Gemini 2.5 Pro dan Claude Code sedikit lebih lambat.

Context window yang sangat panjang (yang berarti lebih banyak iterasi chat)

Claude 3.7 Sonnet bagus tapi saya sering mentok batas kedalaman chat atau panjang context window. Salah satu cara yang saya coba untuk mengatasinya adalah meminta model untuk menulis dokumentasi dengan jelas untuk menyerahkan tugas selanjutnya ke "backend developer" atau "front end developer" lain untuk dikerjakan dan kemudian MEMBUAT chat baru. Ini mulai melelahkan sangat cepat. Juga kita semua tahu bahwa kita perlu debug dan tidak bisa mempercayai kode yang dihasilkan GenAI 100% setiap saat, terutama dalam integrasi antara backend dan front end. Tapi kalau panjang context window terlalu kecil dan kamu harus memulai chat baru setiap kali, mesin mungkin tidak punya konteks penuh untuk mengidentifikasi bug.

Sebaliknya dengan context window 1M token (tier gratis) dari Gemini 2.5 Pro, saya bisa terus iterasi, copy paste kode, pesan error dan meminta model secara rekursif. Ini sangat meningkatkan kecepatan dan kualitas kode saya. :D

(Satu catatan singkat bahwa saya memang melihat perlambatan signifikan dalam waktu inferensi dan responsivitas UI begitu melewati 300k atau 400k token per prompt.)

Update 4 Apr: Responsivitas UI sudah sangat membaik selama 48 jam terakhir. Sekarang, bahkan di 300k token, tampaknya berjalan lancar!

Pertimbangan biaya

Saat ini, Gemini 2.5 Pro GRATIS untuk digunakan. Mengingat bahwa saya dulu membayar OpenAI $200/bulan di akhir 2024 untuk menggunakan model Pro mereka dan kualitasnya tidak sebagus Gemini 2.5, itu gila T.T

Claude Code bagus tapi sangat mahal. Sangat mudah menghabiskan $5 atau $10 setiap jam atau lebih bekerja bersama Claude code jadi belum feasible untuk saya. Biayanya bertambah dengan mudah.

Keunggulan UI Gemini 2.5 Pro

Saya menggunakan Gemini 2.5 Pro via AI studio dari Google. Bandingkan dengan DeepSeek R1 atau Claude 3.7, saya menghargai pemikiran dan perhatian terhadap detail yang ada di balik UI-nya. Berikut beberapa contoh yang saya suka:

Tampilan jumlah token Jumlah token di prompt sejauh ini. Jadi saya tahu bahwa maksimumnya sekitar 1M token tapi seberapa jauh saya dari maksimum? Seberapa jauh saya bisa lanjut sebelum saya harus menyuruh mesin menulis dokumentasi untuk merangkum apa yang sudah kami kerjakan sehingga saya bisa melanjutkan di chat baru?

Kontrol temperature Letaknya tepat di bawah jumlah token. Sempurna, mudah bagi saya untuk menyesuaikan.

Keyboard shortcut "Command + Enter" untuk menjalankan prompt di Mac OS: Bagus. Sekarang kamu berbicara bahasa saya karena begitu banyak kali, saya tidak sengaja menekan "Enter" padahal saya ingin membuat baris baru agar bisa paste lebih banyak konten ke chat. (Kamu bisa bilang mudah belajar pakai Command + Enter untuk baris baru, seperti di Claude tapi yah, saya agak unik.)

Kontrol panjang output Lagi-lagi fantastis karena kadang saya ingin jawaban pendek dan kadang saya ingin respons yang jauh lebih panjang karena saya ingin kode yang sebenarnya di berbagai file.

Fungsi copy

Bahkan fungsi copy-nya lebih baik. Ada "Copy markdown" yang sering dibutuhkan developer!

Saya akan berhenti di sini tapi saya rasa kamu paham intinya. UI ini sangat cocok untuk Developer dan saya menghargainya. Ini jauh lebih baik bagi saya dibanding ChatGPT atau DeepSeek atau bahkan Claude. Saya sangat suka Claude tapi saya rasa kekurangan utamanya adalah tidak mengetahui konsumsi token sejauh ini vs batasnya.

Ke Depan

Saat saya terus membangun aplikasi yang lebih kompleks, kualitas partner coding AI saya menjadi semakin penting. Meskipun semua model pasti akan membaik, kombinasi kualitas kode, context window panjang, dan UI yang thoughtful dari Gemini 2.5 Pro telah memberikannya keunggulan signifikan untuk workflow pengembangan saya.

Ujian sebenarnya akan melihat bagaimana model-model ini menangani sistem yang lebih kompleks lagi saat saya terus mendorong batas kemampuan saya. (Ujian itu tiba ketika saya membangun aplikasi iOS native tanpa menguasai Swift menggunakan Claude Code — AI menangani scaffold-nya, tapi celah antara "kode yang berjalan" dan "produk yang selesai" ternyata tempat semua pekerjaan nyata berada.)

Jadi begitulah. Itulah mengapa dalam waktu singkat, Gemini 2.5 Pro memenangkan hati saya dan sekarang menjadi tool andalan saya untuk coding. :D

Saya ingin tahu — apa tool AI coding andalan kamu saat ini? Dan apakah sudah berubah dalam beberapa bulan terakhir? Saya merasa lanskapnya bergeser begitu cepat sehingga apa yang paling baik hari ini mungkin bukan jawaban yang sama kuartal depan. Beri tahu saya pendapatmu!

Salam,

Chandler

P.S. Saya juga menguji Github Copilot Agent tapi saya tidak terlalu suka karena saat ini, batas per chat sangat kecil dan kecepatan inferensinya sangat lambat. Saya sering mentok batas Claude 3.7 Sonnet dan belum ada Gemini 2.5 Pro.

Lanjutkan Membaca

Perjalanan Saya
Terhubung
Bahasa
Preferensi