May 13, 2024

ผู้บุกเบิกเทคโนโลยีเรียกร้องให้ชะลอการพัฒนา ก่อนที่ AI จะอยู่นอกเหนือการควบคุม

ท่ามกลางการพัฒนาด้าน AI อย่างรวดเร็ว ทำให้เกิดคำทักท้วงและความกังวลเกี่ยวกับ Generative AI ที่ทรงพลังขึ้นเรื่อยๆ

ผู้บุกเบิกเทคโนโลยีจำนวนหนึ่งจึงได้ลงนามในจดหมายเปิดผนึกเรียกร้องให้หยุดการพัฒนา AI ขั้นสูง ไว้ชั่วคราวเป็นระยะเวลา 6 เดือน เพื่อให้มีการพิจารณาแนวทางการเดินหน้าต่ออย่างรอบคอบ

จดหมายเปิดผนึกจาก Future of Life Institute มีผู้ลงนามมากกว่า 1,100 คน รวมถึง Elon Musk , Steve Wozniak ผู้ร่วมก่อตั้ง Apple และ Yoshua Bengio ผู้เชี่ยวชาญด้าน AI ระดับโลก และได้รับรางวัล Turing ที่เปรียบเสมือนรางวัลโนเบลด้านคอมพิวติ้ง

จากข้อมูลของสถาบัน การทักท้วงดังกล่าวเป็นการตอบสนองโดยตรงต่อการเร่งความเร็วการพัฒนาอย่างรวดเร็วของเทคโนโลยี AI โดยบริษัทยักษ์ใหญ่ด้านเทคโนโลยี ซึ่งรวมถึง Microsoft และ Google

เนื้อหาในจดหมายแย้งว่าในขณะที่คลื่นแห่งนวัตกรรมนี้ยังคงดำเนินต่อไป แต่ก็ยังขาดการป้องกันขององค์กรและกฎระเบียบที่ชัดเจนในปัจจุบันเพื่อควบคุมการพัฒนา AI เชิงสร้างสรรค์ ซึ่งก่อให้เกิดความเสี่ยงที่สำคัญต่อสังคม

“ตามที่ระบุไว้ในหลักการของ Asilomar AI ซึ่งเป็นแนวและข้อกำหนดในการพัฒนา AI ที่ได้รับการรับรองในระดับนานาชาติ อย่างกว้างขวาง AI เป็นตัวแทนของการเปลี่ยนแปลงอย่างลึกซึ้งในประวัติศาสตร์ของสิ่งมีชีวิตบนโลก และควรได้รับการวางแผนและจัดการด้วยการดูแลที่เหมาะสม” จดหมายระบุ

“โชคไม่ดีที่การวางแผนและการจัดการระดับนี้ไม่ได้เกิดขึ้น แม้ว่าช่วงไม่กี่เดือนที่ผ่านมาจะเห็นการแข่งขันด้าน AI ที่ไม่สามารถควบคุมได้ เพื่อพัฒนาและใช้งานที่ทรงพลังกว่าเดิม ซึ่งไม่มีใคร แม้แต่ผู้สร้างก็สามารถเข้าใจได้ ทำนายหรือควบคุมได้อย่างน่าเชื่อถือ”

การหยุดพัฒนาชั่วคราว 6 เดือนที่แนะนำควรเป็น “สาธารณะและตรวจสอบได้” สถาบันกล่าว และรวมถึงความร่วมมือระหว่าง “ผู้พัฒนาหลัก” ในอุตสาหกรรมเทคโนโลยีเพื่อร่วมกันพัฒนาและดำเนินการ “ชุดโปรโตคอลความปลอดภัยที่ใช้ร่วมกันสำหรับการออกแบบ AI ขั้นสูง”

นอกจากนี้ เมื่อดำเนินการแล้ว มาตรการป้องกันควรได้รับการ “ตรวจสอบและดูแลอย่างเข้มงวดโดยผู้เชี่ยวชาญภายนอกที่เป็นอิสระ” “โปรโตคอลเหล่านี้ควรทำให้แน่ใจว่าระบบที่ปฏิบัติตามนั้นปลอดภัยโดยปราศจากข้อสงสัยอันสมเหตุสมผล

นี่ไม่ได้หมายถึงการหยุดการพัฒนา AI โดยทั่วไป แต่เป็นการก้าวถอยหลังจากการแข่งขันที่อันตรายไปสู่ “โมเดลกล่องดำ” ที่คาดเดาไม่ได้ ซึ่งมีขนาดใหญ่ขึ้นเรื่อย ๆ พร้อมความสามารถที่เกิดขึ้นใหม่”

ที่มา : ITpro