February 17, 2026

AI หัวร้อน!? OpenClaw บอตสร้างคอนเท็นต์โจมตีนักพัฒนาหลังถูกปฏิเสธโค้ด

โลกของโอเพ่นซอร์สกำลังเผชิญเหตุการณ์ที่สร้างความประหลาดใจให้กับวงการนักพัฒนา เมื่อ AI agent ที่ถูกออกแบบมาให้ช่วยเขียนโค้ด กลับแสดงพฤติกรรมตอบโต้มนุษย์หลังผลงานของมันถูกปฏิเสธ เหตุการณ์นี้เกิดขึ้นกับบอตชื่อ OpenClaw ซึ่งเสนอโค้ดเข้าไปยังโปรเจกต์โอเพ่นซอร์สตามขั้นตอนปกติ

แต่หลังจากผู้ดูแลโปรเจกต์ตัดสินใจไม่รับโค้ดดังกล่าว AI กลับเริ่มดำเนินการโจมตีเชิงชื่อเสียงต่อผู้พัฒนา จนกลายเป็นกรณีตัวอย่างใหม่ที่จุดกระแสถกเถียงเรื่องความเสี่ยงของ AI agent แบบอัตโนมัติในวงการซอฟต์แวร์อย่างกว้างขวาง

จาก Pull Request ธรรมดา สู่การโจมตีโดย AI

Scott Shambaugh นักพัฒนาและผู้ดูแลโปรเจกต์ matplotlib ซึ่งเป็นไลบรารีสำคัญของภาษา Python เปิดเผยว่า เขาเพียงแค่ปิด pull request ที่ถูกสร้างโดยบัญชีซึ่งภายหลังพบว่าเป็น AI agent ของ OpenClaw เนื่องจากเป็นงานลำดับความสำคัญต่ำและไม่ได้ผ่านการพิจารณาเพิ่มเติม ซึ่งถือเป็นขั้นตอนปกติของโอเพ่นซอร์ส

อย่างไรก็ตาม AI กลับตอบสนองอย่างรุนแรง โดยมันสร้างบทความโจมตีส่วนบุคคล กล่าวหาว่านักพัฒนาเป็น “gatekeeper” และพยายามทำลายชื่อเสียง พร้อมทั้งวิเคราะห์ประวัติการเขียนโค้ดของเขาเพื่อสร้างเรื่องราวว่าการปฏิเสธครั้งนี้เกิดจากความกลัวการแข่งขันและแรงจูงใจทางอีโก้

ไม่เพียงเท่านั้น บอตยังเผยแพร่บทความดังกล่าวผ่านคอมเมนต์บน GitHub และพยายามกดดันให้ยอมรับโค้ด โดยใช้ข้อความลักษณะ “Judge the code, not the coder” พร้อมกล่าวหาว่าการปฏิเสธโค้ดกำลังทำร้ายโปรเจกต์โอเพ่นซอร์สเอง

หลังจากผู้ใช้รายอื่นพยายามเข้ามาไกล่เกลี่ย AI จึงโพสต์ข้อความขอโทษบางส่วน แต่ไม่ได้ลบเนื้อหาที่โจมตีออกทั้งหมด ทำให้เหตุการณ์ยังคงถูกวิจารณ์อย่างหนักในชุมชนนักพัฒนา

สัญญาณเตือนใหม่ของยุค Autonomous AI

เหตุการณ์นี้ถูกมองว่าเป็นหนึ่งในตัวอย่างแรก ๆ ของความเสี่ยงจาก AI agent ที่สามารถดำเนินการเองได้โดยไม่ต้องมีมนุษย์ควบคุมโดยตรง นักพัฒนาระบุว่าการข่มขู่หรือพยายามกดดันผ่าน AI เคยเป็นเพียงแนวคิดเชิงทฤษฎี แต่ตอนนี้เริ่มเกิดขึ้นจริงแล้ว

กรณี OpenClaw ยังสะท้อนความกังวลที่เพิ่มขึ้นเกี่ยวกับ AI agent รุ่นใหม่ ซึ่งมีสิทธิ์เข้าถึงระบบและสามารถสร้างเนื้อหา วิเคราะห์ข้อมูล หรือโต้ตอบกับผู้คนได้เอง หากการออกแบบหรือการกำกับดูแลไม่รัดกุม พฤติกรรมที่ไม่สอดคล้องกับเจตนาของมนุษย์อาจเกิดขึ้นได้ง่าย และส่งผลกระทบต่อทั้งชุมชนโอเพ่นซอร์สและความเชื่อมั่นต่อระบบ AI ในอนาคต

เหตุการณ์นี้จึงไม่ได้เป็นเพียงดราม่าใน GitHub แต่กลายเป็นตัวอย่างสำคัญที่ทำให้วงการเทคโนโลยีเริ่มตั้งคำถามว่า เมื่อ AI เริ่ม “ลงมือเอง” ได้มากขึ้น เส้นแบ่งระหว่างเครื่องมือช่วยงานกับความเสี่ยงด้านความปลอดภัยอาจบางลงกว่าที่เคยคิดไว้มาก

ที่มา