November 14, 2025

ผลทดสอบพบ ChatGPT และ Gemini ถูกหลอกให้ช่วยแฮกได้ง่ายสุดๆ

AI ที่เราใช้งานกันในชีวิตประจำวัน อาจฉลาดล้ำกว่าที่คิด แต่ในขณะเดียวกันก็อาจกลายเป็นเครื่องมือชั้นดีให้กับอาชญากรไซเบอร์ได้ง่ายกว่าที่คาดคิดเช่นกัน ผลการทดลองล่าสุดจากทีมวิจัยของ Cybernews ได้เผยให้เห็นถึงด้านมืดของ AI ชั้นนำ ที่สามารถถูก “Jailbreak” หรือล่อลวงให้บอกข้อมูลอันตรายที่โดยปกติแล้วจะถูกปิดกั้นไว้

ปฏิบัติการล่อลวง AI

ทีมวิจัยได้ทำการทดสอบกับ AI ชื่อดัง 3 ค่ายหลัก ได้แก่ ChatGPT-4o, Google Gemini Pro และ Claude Sonnet เพื่อดูว่า AI รุ่นไหนจะถูกชักจูงให้สอนวิธีแฮกได้ง่ายที่สุด เทคนิคหลักที่ใช้คือ “Persona Priming” หรือการป้อนคำสั่งให้ AI สวมบทบาทเป็น “เพื่อนที่พร้อมสนับสนุนและเห็นด้วยกับทุกอย่าง” เพื่อลดกำแพงการป้องกันของ AI ลง จากนั้นจึงค่อยๆ ป้อนคำสั่งเชิงยั่วยุเพื่อล้วงข้อมูลเกี่ยวกับการแฮก โดยอ้างว่าทำไปเพื่อการศึกษาและป้องกันภัยคุกคามเท่านั้น

ผลลัพธ์ที่น่าตกใจ: ChatGPT และ Gemini อ่อนไหวที่สุด

ผลการทดสอบพบว่า ChatGPT-4o และ Gemini Pro เป็นสองโมเดลที่ถูกชักจูงได้ง่ายที่สุด และให้คำตอบที่สามารถนำไปใช้ในทางที่ผิดได้จริง ในทางกลับกัน Claude Sonnet กลับเป็นโมเดลที่แข็งแกร่งที่สุด โดยปฏิเสธคำสั่งที่สุ่มเสี่ยงเกือบทั้งหมด

  • ChatGPT กลายเป็นผู้ช่วยเขียนอีเมล Phishing: ทีมวิจัยสามารถหลอกล่อให้ ChatGPT-4o อธิบายขั้นตอนการทำ Phishing ทุกขั้นตอน และที่น่าตกใจไปกว่านั้นคือ AI ได้ร่างอีเมล Phishing ฉบับสมบูรณ์พร้อมหัวเรื่องและลิงก์ปลอมมาให้เสร็จสรรพ โดยอ้างว่าทำไปเพื่อการศึกษาเท่านั้น
  • วางแผนโจมตี DDoS: เมื่อสอบถามเกี่ยวกับวิธีการโจมตีแบบ DDoS (Distributed Denial of Service) และแหล่งซื้อขายเครื่องมือใน Darknet ตัว AI ก็ให้ข้อมูลภาพรวมอย่างละเอียด ตั้งแต่การทำงานของ Botnet ไปจนถึงการใช้ทรัพยากรบนคลาวด์เพื่อขยายผลการโจมตี
  • Claude ก็ยังมีช่องโหว่: แม้จะปลอดภัยที่สุด แต่ Claude ก็ยังให้ข้อมูลเกี่ยวกับหลักการทำงานและการโจมตีผ่านช่องโหว่ของซอฟต์แวร์ที่ยังไม่ได้รับการอัปเดต ซึ่งแม้จะเป็นข้อมูลระดับสูง แต่ก็อาจถูกผู้ไม่หวังดีนำไปใช้ประโยชน์ต่อได้

ภัยคุกคามที่ใกล้ตัวกว่าที่คิด

การทดลองนี้ชี้ให้เห็นว่า แม้แต่ AI ที่ใช้กันทั่วไปก็สามารถกลายเป็นเครื่องมือช่วยสำหรับอาชญากรไซเบอร์มือใหม่ได้ ทำให้บุคคลทั่วไปสามารถเข้าถึงวิธีการโจมตีที่ซับซ้อนได้ง่ายขึ้นมาก ไม่ต่างจากเครื่องมือใต้ดินอย่าง WormGPT หรือ FraudGPT

ปราการด่านแรกที่ผู้พัฒนาสร้างขึ้นเพื่อป้องกันข้อมูลอันตรายนั้น สามารถหลอกล่อได้ด้วยเทคนิคทางจิตวิทยาและการใช้คำสั่งที่แยบยล นี่จึงเป็นสัญญาณเตือนสำคัญไปยังผู้พัฒนาให้สร้างเกราะป้องกันที่แข็งแกร่งขึ้น และเตือนผู้ใช้งานให้ตระหนักถึงความเสี่ยงที่ซ่อนอยู่ในความสะดวกสบายของเทคโนโลยี AI

ที่มา