วิธีใช้ Z AI กับ Claude Code แบบแยก settings ไม่ต้องเปลี่ยน default
Table of Contents
หลังจากที่ผมใช้ Claude Max package มานานเกือบครึ่งปี ในที่สุด Anthropic ก็ยอมปล่อย Opus model ให้ คนที่ใช้ package Pro ใช้ได้ซะที รออะไรล่ะครับ ประหยัดเงินได้ตั้งเยอะ รีบลดขั้นตัวเองลงไปจาก Max เหลือแค่ Pro เลยสิ แน่นอนว่าการลดขั้นมันก็มีสิ่งที่ตามมาก็คือ… Token limit
แต่บังเอิญว่าช่วง Black Friday ที่ผ่านมา Z AI ผู้มี GLM 4.6 ที่เก่งเกือบๆจะเท่า Sonnet 4.5 เขาจัดโปร 3 เดือน $35 แถมให้ quota เยอะกว่า Claude ไปอีก 5 เท่า!! เอ้าจากเคยจ่ายเดือนละ $100 แบบนี้เหลือเดือนละ $11 รออะไรล่ะ กดสิครับ!! (แต่ใครอยากกดตัวที่ถูกที่สุดก็จะลงไปเหลือ $3 ต่อเดือนเลยนะ อันนี้ก็ได้ limit สูงกว่า Claude Pro 3x เลย แต่บังเอิญผมโลภอยากได้เยอะๆ)
ตอนนี้ผมเลยมีทั้ง Claude ที่เอาไว้ใช้คุย + research งานบน desktop และมือถือ(อันนี้ติดสะดวก) แล้วก็มี Z-AI ที่เป็นแรงงานที่พร้อมจะทำงานถึกแบบไม่บ่นให้ผมแบบใช้ไปเถอะ โอกาสชน limit น่าจะน้อยมากๆ
แต่ถึงอย่างนั้นก็เถอะ มี Claude Pro อยู่แล้ว จะตัด Claude Code ทิ้งไปเลยก็เสียดายของ แต่ถ้าเอาตามคู่มือของ Z-AI มันก็จะไปทางเปลี่ยน default ของ Claude Code ไปหมดเลย ทำให้เปิดสลับกันไปมาระหว่าง Claude และ GLM ลำบาก ผมเลยพยายามหาท่าที่มันตอบโจทย์ภาพฝันของผม ซึ่งก็คือ:
ผมอยากแบ่งงานเป็น 2 ส่วน งานวางแผนให้พี่ใหญ่ Opus 4.5 ทำ แล้วไม่ต้อง code นะเปลือง เดี๋ยวงานถึกงานแรงงาน ให้มันจบที่ GLM 4.6 แทนดีกว่า และจากการช่วยเหลือของ Claude Desktop ช่วย research มาผมก็ได้วิธีที่ทำให้สลับกันไปมาง่ายๆ หรือใช้งานพร้อมกันไปเลยยังได้
งั้นมาดูว่าทำยังไง แล้วผลลัพธ์เป็นไง
🧠 1. ทำความเข้าใจ flag ต่างๆ ของ Claude Code ก่อน #
ถ้าเอาตามคู่มือของ Z AI เนี่ย เขาจะให้เราไปแก้ env ใน ~/.claude/settings.json เลยใช่ไหมครับ ซึ่งถามว่าได้ไหม มันก็ได้ แต่มันดูเทไปทาง GLM ไม่หวังกลับมาใช้ Claude เลย ผมเลยไปคุ้ย document ของ Claude Code จนเจอ flag ที่จะช่วยให้เราเปิดมันขึ้นมาตาม settings ไฟล์ไหนก็ได้ ไม่จำเป็นต้องยึดติดกับ default ซึ่งนั่นก็คือ
--settings [settings_filepath]
ดังนั้นแล้วเราก็แค่สร้าง settings.glm.json ของเราแยกขึ้นมาแล้วตั้งค่าตามคู่มือก็เรียบร้อย แล้วก็มีอีกอันนึงที่จำเป็น แต่เดี๋ยวจะเล่าว่าทำไมก็คือ
--mcp-config [mcp_server_config_filepath]
อันนี้เอาไว้ load MCP Server ตามที่เรา setup ของเราเองครับ ซึ่งพอดีว่า Tool บางตัวที่เป็นของดั้งเดิมอย่าง WebSearch และ WebFetch นั้นมันใช้ authentication ของ Claude ถ้าไม่ได้ใช้ setting เดิมๆ ก็จะเรียกใช้ไม่ได้ แต่ไม่ต้องห่วง Z-AI ได้ทำ MCP Server สำหรับ Web Search Web Read และ Vision มาให้สมาชิกเอาไปเรียกใช้ใน Claude Code ได้เลยครับ
🤝 2. ทำยังไงให้อยู่ด้วยกันได้ #
ผมอยากใช้คำสั่ง claude บน terminal แล้วได้ของ Claude Code จริงๆ แต่ถ้าใช้คำสั่ง glm แล้วอยากมันเปิด Claude Code แต่ใช้ Z AI แทน อันนี้เราต้องเขียน code กันนิดนึง โดยผมทำตามนี้ครับ
- แก้
~/.zshrcในเครื่องตัวเอง หรือใครใช้~/.bashrcอันนี้ตาม setup ของท่านเลยนะ โดยผมจะสร้าง function ชื่อglm()ขึ้นมาก่อน - แล้วใน function นั้นก็ไม่มีอะไร นอกจากบอกให้รัน
claude —settings ~/.claude/settings.glm.json —mcp-config ~/.claude/mcp.glm.json "$@"อันนี้ก็แล้วแต่ว่าใครวางไฟล์ไว้ที่ไหนเด้อ - หลังจากนั้นก็
source ~/.zshrcสักรอบแล้วลองลั่นglmดู ถ้าถูกต้องข้างๆน้องปู mascot จะเห็นคำว่า “glm-4.6 · API Usage Billing”
เพียงเท่านั้นผมก็สามารถใช้ Claude Code โดยที่แยก settings ออกจากกันได้เลย ไม่ต้องกลัวของเก่าจะมีปัญหา ส่วนของ GLM ก็ทำงานได้เต็มที่ หรือใครอยากไอเดียบรรเจิดเอา Claude ไปสั่ง execute command glm เพื่อเรียกแรงงานถึก ไปทำ task ต่อเองก็ยังได้เลย
จบการ Setup ที่ไม่เหมือนในคู่มือ ทีนี้มาดูการใช้งานบ้างละ ว่าเป็นไงบ้าง
⚙️ Feature พื้นฐาน #
- ✅ Plan mode: ยังทำงานได้ดี มีคำถามเพื่อย้ำความเข้าใจ (ที่เป็น choice ให้เลือก 2-3 คำถาม) แล้วไปสรุปอีกทีก่อนเขียน Plan ให้ยืนยัน
- ✅ Read / Write / Bash: ทำงานได้ปกติดี อันนี้ทำงานไม่ได้ ก็ไม่ต้องใช้แล้ว
- ⛔️ Vision: เปลี่ยนมาทำงานผ่าน MCP tool เพื่ออธิบายรูปแล้วส่งคำอธิบายกลับมาให้ model อ่านอีกที (พอถูไถ แต่ไม่ใช่แบบ Claude ที่ส่งให้ตรงๆ) ถ้าหวังจะโยนรูป design ไปแล้วให้มันเขียน code ออกมาแม่นๆ อันนี้ไม่รอดแน่
- ✅ MCP: เรียกใช้ได้งานปกติทั้งแบบติดตั้งเอง แต่ WebSearch กับ WebFetch ต้องใช้ของ Z-AI เอง
🤓 Feature ที่ Claude Code โดยเฉพาะ #
- ⛔️ Think / Ultrathink: ไม่มีความหมาย อีกต่อไป GLM 4.6 ไม่มี ไม่ตอบสนองต่อ mode คิดใดๆ (แต่ถ้าผลลัพธ์มันโอเคก็ปล่อยๆไป)
- ✅ Slash command: ทำงานได้ปกติ น่าจะเพราะเป็นการยัด prompt เฉยๆ ไม่มีปัญหาอะไร
- ✅ Skills: ผมลองกับ frontend-design ก็ต้องบอกเลยว่า ทำงานได้ปกติดี ทำเว็บออกมาสวยๆได้เหมือนกัน
- ✅ Subagents: แบ่งงานแล้วแยกย้ายไปทำได้ ตามโจทย์
- ✅ Combo ทุกอย่างรวมกัน: ลองเขียน Slash command ที่ไปสร้าง subagents หลายๆตัว ที่ต้องไปเรียก skill พร้อมกับเรียก slash command อื่นอีกที ซึ่งก็บอกเลยว่า “ผ่านจ้า”
🤔 แล้วต้นว่าไง #
จากทั้งหมดที่ทดลองมาผมมองว่า มัน-ดี-มาก ด้วยราคา และความสามารถที่ได้มาในระดับใกล้เคียงกับ Sonnet 4.5 แล้ว คุ้มครับ ผมยอมจ่ายเป็นไตรมาสเลยรวดเดียวยังถูกกว่า Claude Max หลายเท่าแหนะ 🤑
แต่มันก็มีข้อเสียอยู่บ้าง โดยเฉพาะเรื่อง Vision ที่เราไม่สามารถส่งภาพให้ model มันอ่านแล้วเขียน code ออกมาได้เลยตรงๆ แล้วก็เรื่องภาษาไทย ตัว GLM มาจากจีน น้องอาจจะงงๆ พูดไทยไม่คล่อง หรือเข้าใจคำไทยได้ไม่เก่งเท่า Claude ดังนั้นถ้าจะให้ทำเอกสารภาษาไทยก็คิดดีๆ ตรวจดีๆ หรือไม่ก็ไปใช้ตัวอื่นเถอะ
แน่นอนว่าเราอาจจะไม่สามารถ Vibe อะไรได้ทันใจแบบตอนใช้ Opus แต่ในแง่ของการมีแรงงานมาช่วยเขียน ช่วยเซฟข้อมือ ข้อนิ้ว และเวลาของเรา มันก็มากพอแล้วครับ เหลืออะไรที่เราต้องทำงานอยู่บ้างเถอะ ไม่งั้นจะไปขายหมูปิ้งแล้วนะ
สำหรับใครที่อยากเห็นว่าผมเขียน function ยังไง เดี๋ยวผมแปะ link ให้ใน comment นะค้าบ 😁
และสำหรับใครที่ยังไม่ได้สมัคร z.ai แล้วล่ะก็ ผมมีตัวเลือกให้ 2 ทางครับ
1️⃣ กดที่ link นี้ แล้วผมจะได้ credit เพราะชวนเพื่อนมาใช้ https://z.ai/subscribe?ic=YY6EHD6TWA
2️⃣ กดที่ link นี้ แล้วผมจะไม่ได้อะไร และคุณก็ไม่เสียอะไร https://z.ai/subscribe
แต่กดอันแรกผมก็จะยิ้มอย่างมีความสุข เพราะได้ประหยัดต่อไปอีก