ข้ามไปยังเนื้อหาหลัก
กลับไปหน้าบล็อก
|13 พฤษภาคม 2026

ทำไม Claude ถึง "ประสิทธิภาพตก" ในช่วงที่ผ่านมา? Anthropic ยอมรับแล้ว และนี่คือ 3 เหตุผลที่เกิดขึ้น

เคยรู้สึกมั้ยว่า Claude ตอบแปลกลงกว่าเดิม วนซ้ำ ลืมบริบท หรือแนะโค้ดที่ดูไม่สมเหตุสมผล? คุณไม่ได้คิดไปเอง Anthropic เพิ่งออก Post-mortem ยอมรับว่ามี 3 สิ่งที่พังพร้อมกัน และนี่คือสิ่งที่เกิดขึ้นจริง

i

iReadCustomer AI Marketing Team

ผู้เขียน

ทำไม Claude ถึง "ประสิทธิภาพตก" ในช่วงที่ผ่านมา? Anthropic ยอมรับแล้ว และนี่คือ 3 เหตุผลที่เกิดขึ้น

มีช่วงนึงที่คุณพิมพ์คำถามให้ Claude แล้วรู้สึกว่า… มันตอบเหมือนเด็กฝึกงานวันแรก

คุณนั่ง Debug อยู่ดีๆ แล้วสังเกตว่า Claude มันแนะโค้ดแปลกๆ แก้ไปแก้มาแต่ไม่ถูก หรือแย่กว่านั้น มันแนะวิธีแก้เดิมซ้ำๆ ราวกับไม่รู้ว่าเพิ่ง reject ไปแล้ว

ครั้งแรกคุณโทษ Prompt ตัวเอง ครั้งที่สองคุณลอง Rephrase ใหม่ ครั้งที่สามคุณเริ่มสงสัยว่า… มันหรือเรากันแน่ที่มีปัญหา

Anthropic เพิ่งออก Post-mortem ที่น่าจะตอบคำถามนั้นได้

จากกระทู้บ่นใน Reddit สู่การยอมรับอย่างเป็นทางการ เมื่อเสียงลูกค้าดังพอจน Anthropic ต้องฟัง

ก่อนที่ Anthropic จะออก Post-mortem อย่างเป็นทางการ สัญญาณแรกมาจากผู้ใช้งานธรรมดาใน Reddit และ X ที่เริ่มบ่นกันว่า Claude เปลี่ยนไป ไม่ใช่แค่ความรู้สึก แต่มีคนถึงขนาดนั่งดึง Session File กว่า 6,800 ไฟล์มาวิเคราะห์จนพบหลักฐานชัดเจนว่าคุณภาพตกจริง นี่คือเรื่องเตือนใจที่ดีมากว่าลูกค้าของคุณมักรู้สึกถึงปัญหาก่อนระบบ Monitoring จะตรวจเจอเสมอ แล้วธุรกิจของคุณล่ะ มีช่องทางให้ลูกค้าบอกแบบนี้มั้ย?

พลาดที่ 1 : แลก "ความลึก" เพื่อแก้ปัญหาความหน่วงของหน้าจอ แต่ไม่มีใครบอกผู้ใช้

Anthropic แก้ปัญหาหน้าจอหน่วง ด้วยการลด Reasoning Effort จาก High เหลือ Medium เงียบๆ โดยไม่แจ้ง ผลที่ได้คือ AI ตอบเร็วขึ้นจริง แต่เลือก "ทางออกที่ง่ายที่สุด" แทน "ทางออกที่ถูกที่สุด" ลองนึกภาพตามว่าถ้าลูกค้าของคุณใช้ Claude ช่วยวิเคราะห์ข้อมูลสำคัญในช่วงนั้น คำตอบที่ได้อาจไม่ใช่คำตอบที่ดีที่สุดโดยไม่รู้ตัวเลย

พลาดที่ 2 : บั๊กที่ทำให้ Claude "ลืม" ทุกอย่างในกลางคัน

มีบั๊กเล็กๆ ในระบบ Caching ที่ตั้งใจให้ทำงานแค่ครั้งเดียวตอน Session หมดอายุ แต่กลับทำงานทุกรอบแทน ผลลัพธ์คือ Claude ลืมบริบทที่คุยกันทั้งหมดทุกครั้งที่ขึ้น Turn ใหม่ ถ้าเคยรู้สึกว่าต้องอธิบายซ้ำไปซ้ำมาในการสนทนาเดียวกัน หรือมันวนตอบเรื่องเดิมราวกับไม่ได้ยินที่พูดไป นั่นแหละคือบั๊กตัวนี้ทำงานอยู่

พลาดที่ 3 : สั่งให้ตอบสั้น ผลที่ได้คือคำตอบที่ขาดหายไปโดยไม่รู้ตัว

ทีมงาน Anthropic เพิ่ม System Prompt เพื่อลดความยืดยาวและประหยัด Token แต่ผลข้างเคียงคือ Claude เลือกตัดขั้นตอนการคิดและรายละเอียดที่จำเป็นออกไปด้วย คุณภาพงานโดยเฉพาะการเขียนโค้ดลดลงวัดได้ชัดเจน เป็นเรื่องเตือนใจดีว่าการ Optimize เพื่อประหยัดต้นทุนโดยไม่ทดสอบผลกระทบกับผู้ใช้จริง มักจบด้วยต้นทุนที่สูงกว่าเดิม

ข่าวดี ทุกอย่างแก้ไขครบแล้ว และ Anthropic ยังคืน Usage Limits ให้ทุกคนด้วย

ณ วันที่ 20 เมษายน 2026 ทั้ง 3 ปัญหาได้รับการแก้ไขครบใน patch v2.1.116 แล้ว Reasoning Effort กลับมาที่ระดับ High ตามเดิม โดย Opus 4.7 ถูก set ไว้ที่ระดับ xhigh เพื่อชดเชยโดยเฉพาะ บั๊ก Caching ถูกปิด และ Prompt ที่จำกัดคำตอบถูกถอดออก แถม Anthropic ยังคืน Usage Limits ให้กับ subscriber ทุกคนตั้งแต่วันที่ 23 เมษายนด้วย เหมือนเป็นการขอโทษที่จับต้องได้ สิ่งที่น่าสนใจกว่าการแก้บั๊กคือการที่พวกเขาเลือกออกมาพูดความจริงตรงๆ ซึ่งไม่ใช่ทุกบริษัทจะกล้าทำ

สรุป

3 ปัญหานี้ไม่ได้เกิดจาก AI พัฒนาถอยหลัง แต่เกิดจากการตัดสินใจของคนที่พยายามทำให้ดีขึ้น แล้วพลาดเป้าไปนิด บทเรียนที่น่าเอาไปใช้จริงสำหรับทุกธุรกิจคือ การเปลี่ยนแปลงที่ดูเล็กน้อยในระบบ มักส่งผลใหญ่โตกับประสบการณ์ของลูกค้าโดยไม่มีใครตั้งใจ และที่สำคัญกว่านั้น ความโปร่งใสตอนพลาดคือสิ่งที่ซื้อความเชื่อใจระยะยาวได้จริง