Skip to main content

·2 mins

Saturday 13 December 2025 at 23:31

จากโพสต์ก่อนหน้าเมื่อหลายวันก่อนเรื่องที่ผมลองเริ่มย้ายมา subscribe AI เจ้าใหม่ก็คือ Z AI เพื่อลด cost ของตัวเอง แล้วเปลี่ยนจากการใช้ Opus 4.5 และ Sonnet 4.5 มาเป็น GLM 4.6 ก็มีรีวิวคร่าวๆ กันไปแล้วรอบนึงว่าเป็นยังไง ​ วันนี้จะมาบอกข้อเสียอีกข้อสำหรับคนที่ใช้ package Pro แบบผมที่เขาเพิ่ม feature ของการทำ Web Search และ Web Reader มาให้เป็น MCP Tool (ตามคู่มือ) เพื่อมาให้เพื่อชดเชย tool บางตัวที่ทำงานได้กับแค่สำหรับคน subscribe Claude เท่านั้น ​ พอดีช่วงนี้ผมก็กำลังเริ่ม setup Workflow จัดการชีวิตด้วย Claude Code(นี่ก็มาจากบทความก่อนหน้าอีก) แน่นอนว่าใช้ model glm-4.6 เพื่อความประหยัด แต่ปัญหามันเกิดตอนที่ผมพยายามสร้าง command “/daily-brief” เพื่อใช้มันให้ไปไล่อ่านข่าวตามเว็บที่ผมชอบเข้าไปเช็คแต่ละวันอยู่แล้ว จะได้ไม่ต้องเสียเวลานั่งอ่าน นั่งไถ ​ สิ่งที่ model มันทำก็เหมือนจะปกติก็คือ ไปเรียก web-search-prime mcp ขึ้นมาเพื่อใส่ leyword ที่ผมสนใจแล้วหาข่าวในช่วง 7 วัน แล้วค่อยใช้ web-reader เพื่ออ่านข่าวที่มัน search มาได้ ก่อนจะสรุปให้ผมได้เห็นว่าช่วงที่ผมหลับ มันมีข่าว AI อะไรใหม่ๆโผล่มาไหม(ดูเท่ๆ ดูคูล) 😎 ​ แต่ผลลัพธ์มันแปลกๆ ผมเจอข่าวเจอข่าวเก่าๆที่เกี่ยวกับ AI ที่ผ่านมาแล้วหลายเดือน เลยเริ่มไม่ไว้ใจ function นี้ละ ​ [ 👮‍♂️ พิสูจน์หาคนผิด ] ​ วันนี้เลยลองพิสูจน์เทียบเลยด้วย prompt ง่ายๆ ​ “”” fetch content from {URL หน้าแรก Hacker News} then pick 5 recent stories “”” ​ (Mark ไม่ชอบให้แปะ URL ใน post สงสัยกลัวคนอ่านหนีจาก Facebook 🤨) ​ แล้วเปิดเว็บเทียบไปด้วยเลยว่ามันได้ข่าวใหม่จริงๆ ไหม ซึ่งผลลัพธ์ก็คือ ​ ⛔️ - GLM 4.6 กับ web-reader: ได้หน้าแรก Hacker News ใน version ที่เก่าไปประมาณ 2 สัปดาห์ ✅ - Sonnet 4.5 กับ fetch: ได้ content ตรงกับหน้าแรกของ Hacker News เป๊ะเลย ✅ - GLM 4.6 กับ fetch: ได้ content ตรงกับหน้าแรกของ Hacker News เป๊ะเหมือนกัน (แต่เอา config map server ออก เพราะน้องไม่ยอมเรียกตอนแรก) ​ ชัดละ! เราประหยัด cost มาใช้ของเค้า เค้าก็ประหยัด cost ใส่เราด้วยการส่ง cache เก่าๆกลับมาสินะ 🥹 ​ ที่เล่ามาจริงๆ เหมือนจะเป็นข้อเสีย แต่จริงๆมันแก้ได้ครับ ปัญหานี้แก้ได้ด้วยการถามก่อนเลย ​ ผมถามไปว่า “web-reader” mcp tool ตัวนี้มันมี parameter อะไรให้ set ได้บ้าง แล้วก็ได้คำตอบมาว่า ​

  • timeout: 20 seconds
  • no_cache: false « เจอตัว 🤯
  • return_format: markdown
  • retain_images: true
  • no_gfm: false
  • keep_img_data_url: false
  • with_images_summary: false
  • with_links_summary: false ​ ไอ้ no_cache นี่มัน default เป็น false ด้วย เลยไม่เคยงัดของใหม่มาให้เราได้อย่างทันใจ จริงๆ จะเก่าไปสัก 2-3 ชั่วโมง ก็ไม่ว่ากัน แต่พี่ล่อกันเป็นสัปดาห์เลย 😅 ​ [ 🤔 แล้วสรุป พรศ ทำยังไง… ] ​ ดังนั้นแล้วใครจะใช้ Z AI มาหาข้อมูลใหม่ๆ อย่าลืมย้ำไปใน prompt ให้ชัดว่า ใช้ web-reader แล้วต้อง no_cache: true ด้วย ไม่งั้นคุณอาจจะได้ข้อมูลเก่า ตกข่าวกันแบบงงๆ ​ หรือแย่กว่านั้น ก็คือไปเผลออ่าน document version เก่าๆ ที่อาจจะทำให้ code เรามันไม่ work ก็ได้ ​ แต่ใดๆก็ตาม tool ตัวนี้่ไม่สามารถไป อ่านพวก social network อย่าง X หรือ Facebook ได้นะครับ ต้องหาทางอื่นเอาเองเด้อ!!

เพิ่มเติมแบบฉีกอีกทีครับ ผมลองกับ OpenCode ที่เป็น Opensource อีกตัว โดยใช้ Z AI นี่แหละ ลองให้ทำงานกวาด hacker news มาสรุปแบบที่ไม่ลง mcp server ด้วย เอาดิบๆที่ OpenCode มีให้ใช้เลย สรุปผมว่า Z-AI ดูเหมือนจะไปได้ดีกับ OpenCode นะ ลองไปอ่านผลลัพธ์จาก prompt เดียวกันดู .