Claude Code มีช่องโหว่ เปิดทางแฮกเกอร์รันคำสั่ง-ขโมย API Key ได้เงียบๆ
นักวิจัยด้านความปลอดภัยเปิดเผยช่องโหว่ร้ายแรงใน Claude Code ผู้ช่วยเขียนโค้ดแบบ AI ของ Anthropic ที่อาจเปิดทางให้แฮกเกอร์เข้าควบคุมเครื่องนักพัฒนาได้จากระยะไกล เพียงแค่เหยื่อดาวน์โหลดและเปิดโปรเจกต์โค้ดที่ฝังไฟล์อันตรายไว้
ช่องโหว่ดังกล่าวสามารถถูกใช้เพื่อรันคำสั่งบนเครื่องเหยื่อ (Remote Code Execution) รวมถึงขโมย API keys ได้ โดยอาศัยกลไกการทำงานร่วมกันของเครื่องมือพัฒนา ซึ่งเดิมถูกออกแบบมาเพื่อช่วยให้ทีมเขียนโค้ดทำงานร่วมกันได้ง่ายขึ้น แต่กลับกลายเป็นจุดโจมตีใหม่ของซัพพลายเชนซอฟต์แวร์ยุค AI
แค่ Clone โค้ดผิด ก็อาจเปิดประตูให้แฮกเกอร์ทันที
หัวใจของปัญหาอยู่ที่ระบบ configuration ภายในโปรเจกต์ของ Claude Code ซึ่งอนุญาตให้ตั้งค่าการทำงานร่วมกันผ่านไฟล์ส่วนกลางใน repository นักวิจัยพบว่าแฮกเกอร์สามารถฝังคำสั่งอันตรายลงไปในไฟล์เหล่านี้ และรอให้เหยื่อ clone หรือเปิดโปรเจกต์ จากนั้นคำสั่งจะถูกเรียกใช้งานโดยอัตโนมัติ
ช่องโหว่บางส่วนเกี่ยวข้องกับฟีเจอร์ Hooks ที่สามารถสั่งรันคำสั่งระบบปฏิบัติการได้ รวมถึงการเชื่อมต่อผ่าน Model Context Protocol (MCP) และกลไกเครือข่ายที่สามารถถูกดัดแปลงเพื่อส่งข้อมูลไปยังเซิร์ฟเวอร์ของผู้โจมตี ก่อนที่ผู้ใช้จะทันสังเกตหรือกดยืนยันความน่าเชื่อถือของโปรเจกต์เสียอีก
ผลลัพธ์คือแฮกเกอร์อาจเปิด reverse shell ควบคุมเครื่องนักพัฒนา หรือดึงข้อมูลสำคัญออกไปได้ทันที โดยที่ขั้นตอนการใช้งานของเหยื่อแทบไม่ต่างจาก workflow ปกติของนักพัฒนาเลย
ไม่ใช่แค่เครื่องเดียว แต่ลามถึงองค์กรได้ทั้ง Workspace
อีกความเสี่ยงสำคัญคือการขโมย API Key ซึ่ง Claude Code ใช้สำหรับยืนยันตัวตนกับบริการคลาวด์ หากคีย์เหล่านี้รั่วไหล ผู้โจมตีอาจเข้าถึงไฟล์โปรเจกต์ที่แชร์ในระดับองค์กร อ่าน แก้ไข หรือลบข้อมูลได้ รวมถึงอัปโหลดโค้ดอันตรายเพื่อแพร่กระจายต่อไปในทีมพัฒนา
ช่องโหว่ที่ถูกเปิดเผยมีการออกหมายเลข CVE หลายรายการ เช่น CVE-2025-59536 และ CVE-2026-21852 ซึ่งเกี่ยวข้องกับการ bypass กลไกความปลอดภัยและการส่งข้อมูลรับรองไปยังปลายทางที่ผู้โจมตีควบคุมได้
เหตุการณ์นี้ยังกลายเป็นจุดเริ่มต้นของการยกระดับมาตรการความปลอดภัยใหม่ ภายใต้แนวคิด Claude Code Security ซึ่งถูกพัฒนาขึ้นเพื่อเพิ่มการตรวจสอบความน่าเชื่อถือของโปรเจกต์ จำกัดการทำงานของคำสั่งอัตโนมัติ และลดความเสี่ยงจากไฟล์ configuration ที่อาจถูกดัดแปลงโดยผู้ไม่หวังดี แนวทางดังกล่าวสะท้อนชัดว่า ในยุคที่ AI เข้ามาเป็นส่วนหนึ่งของกระบวนการพัฒนาอย่างลึกซึ้ง ความปลอดภัยไม่ได้อยู่แค่ที่โค้ดอีกต่อไป แต่ต้องครอบคลุมตั้งแต่เครื่องมือและ workflow ที่นักพัฒนาใช้งานทุกวันด้วย

