Meta เกือบพังเพราะ AI วิศวกรเชื่อคำแนะนำ เปิดช่องโหว่ เสี่ยงข้อมูลหลุด
“ความฉลาด” ของ AI อาจมาพร้อมความเสี่ยงที่คาดไม่ถึง เมื่อเกิดเหตุการณ์ภายใน Meta ที่วิศวกรรายหนึ่งเชื่อคำแนะนำจาก AI agent ก่อนจะนำไปสู่เหตุการณ์ด้านความปลอดภัยระดับร้ายแรง
เหตุการณ์นี้ถูกจัดอยู่ในระดับ “Sev 1” หรือความรุนแรงสูงสุด แม้บริษัทจะยืนยันว่าไม่มีข้อมูลผู้ใช้ถูกนำไปใช้ในทางที่ผิด แต่สิ่งที่เกิดขึ้นก็สะท้อนคำถามสำคัญเกี่ยวกับ “ความไว้วางใจใน AI” อย่างชัดเจน
คำแนะนำผิด…ก็เกือบพังทั้งระบบ
ต้นเหตุของเหตุการณ์เริ่มจากวิศวกรของ Meta ที่ตั้งคำถามทางเทคนิคในระบบภายใน ก่อนที่เพื่อนร่วมงานจะใช้ AI agent มาช่วยตอบคำถามนั้น
อย่างไรก็ตาม คำแนะนำจาก AI กลับ “ผิดพลาด” และเมื่อมีการนำไปใช้งานจริง กลับทำให้เกิดการเปิดสิทธิ์เข้าถึงข้อมูลที่ไม่ควรถูกเข้าถึง ส่งผลให้พนักงานบางส่วนสามารถเข้าถึงข้อมูลที่มีความอ่อนไหวได้เป็นเวลานานกว่า 2 ชั่วโมง
จุดสำคัญคือ AI ไม่ได้ลงมือทำอะไรเอง แต่เป็น “มนุษย์ที่เชื่อคำแนะนำ” แล้วนำไปใช้ ซึ่งทำให้เกิดผลลัพธ์ที่ร้ายแรง
เหตุการณ์นี้จึงไม่ใช่แค่ปัญหาทางเทคนิค แต่เป็นปัญหาของ “การตัดสินใจร่วมกันระหว่างคนกับ AI”
เมื่อ AI ไม่ต้องแฮก ก็ทำระบบพังได้
ผู้เชี่ยวชาญด้านความปลอดภัยมองว่า นี่คือ “ความเสี่ยงรูปแบบใหม่” ที่องค์กรต้องเผชิญ เพราะ AI agent ไม่จำเป็นต้องมีสิทธิ์เข้าถึงระบบโดยตรง ก็สามารถก่อให้เกิดความเสียหายได้
เพียงแค่ให้คำแนะนำที่ดูน่าเชื่อถือ ก็อาจทำให้มนุษย์ตัดสินใจผิดพลาด และเปิดช่องโหว่ด้านความปลอดภัยโดยไม่รู้ตัว
ข้อมูลยังชี้ว่า มากกว่าหนึ่งในสามขององค์กรเคยพบพฤติกรรม AI ที่ “ทำเกินหน้าที่” เช่น เข้าถึงระบบที่ไม่ควร หรือจัดการข้อมูลผิดประเภท ซึ่งตอกย้ำว่า AI agent ยังต้องการการควบคุมและกำกับดูแลอย่างใกล้ชิด

