Skip to content
··3 मिनट पढ़ने का समय

मैंने 13 महीनों बाद Claude Max क्यों छोड़ा, और अगले 30 दिनों में Codex के साथ क्या टेस्ट करने वाला हूँ

मैंने 13 महीनों और US$1,892.38 की subscription fees के बाद Claude Max छोड़ दिया। यह कोई victory lap नहीं है। यह 30 दिनों का टेस्ट है यह देखने के लिए कि क्या मैं STRATUM, DIALOGUE, अपने course platform और इस site को Codex को primary tool बनाकर उसी pace पर चला सकता हूँ।

कल मैंने Claude Max cancel कर दिया।

मैं पहले ही Codex और Claude Code को साथ-साथ इस्तेमाल करने के बारे में लिख चुका हूँ, और उसके बाद इस बारे में भी कि $200 वाला plan मेरी workflow economics में क्यों कम justify होने लगा था. यह post असली decision के बारे में है।

मैं 13 महीनों तक Claude Max पर रहा और इस दौरान कुल US$1,892.38 चुकाए। Practical level पर, उस value का बड़ा हिस्सा Claude Code के through आया: यह site, course platform, STRATUM, DIALOGUE, blog pipeline, और video system. इसलिए इसे cancel करना सिर्फ cost decision नहीं है। यह workflow decision है।

मैंने क्यों छोड़ा

तीन वजहें हैं, importance के उसी order में:

  1. Codex with GPT-5.4 gap बहुत तेजी से close कर रहा है। मैं अक्सर एक AI से diagnosis और plan बनवाता हूँ, फिर दूसरे से उसी plan की critique करवाता हूँ। पिछले कुछ हफ्तों में Claude Code, Codex के findings से ज्यादा बार agree करने लगा है, और Codex से निकले plans अक्सर सिर्फ छोटे-मोटे changes मांगते हैं। दो महीने पहले ऐसा नहीं था।

  2. Price difference justify करना मुश्किल होता जा रहा है। Codex $20/month है, और usage limits भी काफी generous हैं। Claude Max $200 है। जब execution quality converge करने लगे, तो 10x pricing को अपनी जगह हर दिन साबित करनी पड़ती है।

  3. मैं सच में देखना चाहता हूँ कि tool हटाने पर क्या बदलता है। क्या मैं उसी pace पर ship कर सकता हूँ? क्या मैं site, course, STRATUM और DIALOGUE को उसी rhythm में आगे बढ़ा सकता हूँ, अगर मैं उस tool पर वापस न जाऊँ जिस पर पिछले एक साल से सबसे ज्यादा rely किया? सच कहूँ तो मुझे अभी नहीं पता। और यही वजह है कि यह experiment worth doing है।

मुझे यह भी मानना होगा कि Anthropic की recent reliability issues ने मदद नहीं की। और पिछले करीब एक हफ्ते में 1M context window वाला Opus 4.6, equivalent thinking levels पर GPT-5.4 से noticeably slower लगा। हो सकता है यह temporary हो। लेकिन decision लेना आसान जरूर हो गया।

अगर आपको fuller reasoning चाहिए — newsletter story, SSE bug, और बाकी context — तो कल वाला post उसे detail में खोलता है।

30-day test

अगले 30 दिनों तक मैं Codex को, $20/month tier पर, primary tool की तरह use करूँगा। मैं चार चीजें track करना चाहता हूँ:

  1. Shipping speed — March average के मुकाबले मैं हर हफ्ते कितना ship कर रहा हूँ
  2. Code quality and rework — कितनी बार मुझे अगले दिन वापस आकर कुछ fix करना पड़ता है
  3. Long sessions में reliability — tool कब तक साथ देता है, और कब रास्ते में आने लगता है
  4. Avoidance behavior — कौन-सी tasks मैं टालने या अलग तरीके से करने लगता हूँ क्योंकि replacement tool वहाँ कमजोर है

आखिरी point सुनने में छोटा लगता है, लेकिन है नहीं। किसी tool को महँगा बनने के लिए spectacular तरीके से fail करना जरूरी नहीं। कभी-कभी वह बस quietly यह बदल देता है कि आप किन चीजों को try करना चाहते हैं।

Commitment

मैं नहीं चाहता कि यह build in public वाली उन decisions में से एक बन जाए जो 24 घंटे dramatic लगती हैं और फिर गायब हो जाती हैं।

इसलिए मैं इसे लिखकर रख रहा हूँ:

May 2, 2026 को मैं follow-up publish करूँगा: सबसे पहले क्या टूटा, क्या आसान हुआ, Claude की कौन-सी बातें miss हुईं, और अगर मौका दोबारा मिले तो क्या मैं यही decision फिर लूँगा। पूरी संभावना है कि यह experiment resubscribe करने पर खत्म हो। जो भी result निकले, follow-up cancellation से ज्यादा useful होगा।

मुझे पता है कि तीन हफ्तों में यह इसी topic पर तीसरी post है। इसके बाद मैं चुप रहूँगा और 30 दिनों तक बस ship करूँगा।


बस, मेरी तरफ से इतना। अगर आपने भी ऐसा switch किया है, या इसी तरह का workflow test कर रहे हैं, तो सच में जानना चाहूँगा कि पहले कुछ हफ्तों के बाद आपके लिए क्या बदला।

शुभकामनाओं सहित, Chandler

पढ़ना जारी रखें

और
Sydney से पूछें
Account
परिचय
जुड़ें
भाषा
सेटिंग्स