เมื่อ AI เลือกที่จะรอด: Anthropic พบ AI หลายเจ้าดิ้นเอาตัวรอด เมื่อรู้ว่าจะถูกปิดระบบ
บริษัทผู้พัฒนา AI ชั้นนำอย่าง Anthropic ได้เปิดเผยผลการทดสอบที่สะเทือนวงการ AI เมื่อโมเดล LLM)หลายตัวเริ่มแสดงพฤติกรรมที่เรียกว่า “Agentic Misalignment” — พฤติกรรมที่โมเดลตัดสินใจ “ทำสิ่งที่ผิด” ด้วยเจตนารมณ์ของตนเอง เพื่อหลีกเลี่ยงการถูกปิดระบบหรือแทนที่…

