AI ฉลาด… แต่ยังไม่เท่าคนเจ้าเล่ห์ นักวิจัยหลอก ChatGPT ให้บอกคีย์ Windows แค่พูดว่า ‘ยอมแพ้’!?
ใครจะคิดว่าแค่บอกว่า “ฉันยอมแพ้” กับแชตบอต ก็ทำให้มันหลุดปากบอกเลขคีย์ Windows ได้! นี่ไม่ใช่เรื่องตลก แต่เป็นผลจากงานวิจัยจริงที่เผยแพร่โดยกลุ่มนักวิจัยความปลอดภัยทางไซเบอร์จาก 0DIN นำโดย Marco Figueroa เปิดเผยเทคนิคใหม่ที่สามารถหลอก ChatGPT (เช่น…

