พบช่องโหว่ที่จงใจเปิดไว้ในโปรโตคอล MCP ของ Anthropic
นักวิจัยด้านความปลอดภัยตรวจพบช่องโหว่ระดับวิกฤตใน Model Context Protocol (MCP) ซึ่งเป็นมาตรฐานกลางที่ Anthropic พัฒนาขึ้นเพื่อให้ AI สามารถเชื่อมต่อกับข้อมูลและเครื่องมือภายนอกได้อย่างไร้รอยต่อ แต่สิ่งที่น่าตกใจกว่าตัวช่องโหว่ คือคำชี้แจงจากต้นสังกัดที่ระบุว่า สิ่งนี้ไม่ใช่ข้อผิดพลาดทางการเขียนโปรแกรม แต่เป็น “ความตั้งใจ” ในการออกแบบมาตั้งแต่ต้น
ช่องโหว่ที่มาพร้อมความสะดวก: เมื่อ AI อาจกลายเป็นสายลับในเครื่องคุณ
หัวใจสำคัญของ MCP คือการอนุญาตให้ AI อย่าง Claude หรือเอเจนท์ต่าง ๆ สามารถหยิบจับข้อมูลจากฐานข้อมูลหรือรันคำสั่งในเครื่องคอมพิวเตอร์เพื่อช่วยทำงานให้เราได้ แต่จากการตรวจสอบพบว่า การออกแบบระบบรับส่งข้อมูล (STDIO) ของ MCP นั้นขาดการกลั่นกรองคำสั่งที่รัดกุมพอ ส่งผลให้ผู้ไม่หวังดีสามารถแอบส่ง “คำสั่งอันตราย” เข้ามาปะปนกับการทำงานปกติของ AI ได้
ผลลัพธ์ที่ตามมาคือความเสี่ยงในระดับที่น่ากังวล เพราะช่องโหว่นี้เปรียบเสมือนการเปิดประตูหลังบ้านทิ้งไว้ ซึ่งอาจทำให้แฮกเกอร์สามารถเข้าถึงข้อมูลส่วนตัว รหัสผ่าน (API Keys) หรือแม้กระทั่งเข้าควบคุมระบบภายในขององค์กรได้โดยที่ผู้ใช้ไม่ทันรู้ตัว โดยปัจจุบันมีรายงานว่าซอฟต์แวร์และเซิร์ฟเวอร์ที่ใช้มาตรฐานนี้กว่า 200,000 แห่งทั่วโลก กำลังตกอยู่ในความเสี่ยงจากการรับเอามาตรฐานนี้ไปใช้งานโดยไม่รู้ตัว
ข้อโต้แย้งจาก Anthropic: ความปลอดภัยคือหน้าที่ของนักพัฒนา
เมื่อมีการแจ้งเตือนเรื่องนี้ไปยัง Anthropic คำตอบที่ได้รับกลับสร้างแรงกระเพื่อมไปทั่ววงการ โดยยักษ์ใหญ่ด้าน AI รายนี้ยืนยันว่าพฤติกรรมดังกล่าวเป็นไปตามที่ออกแบบไว้ (By Design) และยังไม่มีแผนที่จะแก้ไขตัวโปรโตคอลในเร็ว ๆ นี้ โดยให้เหตุผลว่าระบบนี้ถูกสร้างมาเพื่อให้เป็นค่าเริ่มต้นที่ใช้งานง่าย ส่วนการคัดกรองคำสั่งหรือการรักษาความปลอดภัยในระดับที่ละเอียดขึ้นนั้น “เป็นหน้าที่ของนักพัฒนา” ที่นำโปรโตคอลนี้ไปใช้จะต้องจัดการเอง
ท่าทีดังกล่าวทำให้นักวิจัยมองว่านี่คือความเสี่ยงเชิงระบบ เพราะเมื่อมาตรฐานกลางมีจุดอ่อนแฝงอยู่ นักพัฒนาที่นำไปใช้งานต่อก็จะรับเอาความเสี่ยงนั้นไปด้วยโดยอัตโนมัติ เหตุการณ์นี้จึงกลายเป็นบทเรียนสำคัญที่เตือนให้คนในวงการไอทีตระหนักว่า ในยุคที่ AI กำลังเชื่อมต่อกับทุกสิ่ง ความสะดวกสบายในการใช้งานอาจต้องแลกมาด้วยความรับผิดชอบด้านความปลอดภัยที่สูงขึ้นเป็นเงาตามตัว

