Anthropic เผยโมเดล LLM ทุกขนาด ถูก “วางยา” ให้ตอบผิดและทำพฤติกรรมอันตราย ได้ง่ายกว่าที่คิด
บริษัท Anthropic ผู้พัฒนา Claude ซึ่งเป็นที่รู้จักในวงการถึงความระมัดระวังด้านความปลอดภัยของ AI ได้ออกมาเปิดเผยผลการศึกษาชิ้นใหม่ที่อาจสั่นคลอนความเชื่อมั่นในเทคโนโลยี AI ได้ โดยค้นพบว่าการโจมตีโมเดลภาษาขนาดใหญ่ (Large Language Models หรือ LLM)…

