บอร์ดกำกับดูแล Meta แนะคุมเข้มคอนเทนต์ AI และ Deepfake ก่อนข้อมูลเท็จล้นแพลตฟอร์ม
คณะกรรมการกำกับดูแลอิสระของ Meta หรือ Oversight Board ออกคำแนะนำให้บริษัทปรับปรุงนโยบายเกี่ยวกับคอนเทนต์ที่สร้างด้วยปัญญาประดิษฐ์ หลังพบว่ากฎและระบบตรวจจับปัจจุบันยังไม่เพียงพอที่จะรับมือกับการแพร่กระจายของเนื้อหา AI ที่อาจสร้างความเข้าใจผิด โดยเฉพาะวิดีโอและภาพแบบ deepfake ที่กำลังเพิ่มขึ้นบนแพลตฟอร์มอย่าง Facebook, Instagram และ Threads
คำแนะนำดังกล่าวเกิดขึ้นหลังจากคณะกรรมการตรวจสอบกรณีวิดีโอที่สร้างด้วย AI ซึ่งอ้างว่าแสดงความเสียหายในอิสราเอลและถูกเผยแพร่บนแพลตฟอร์มของ Meta โดยเนื้อหาดังกล่าวเป็นตัวอย่างของข้อมูลที่ถูกสร้างขึ้นด้วยเทคโนโลยี AI และมีความเสี่ยงที่จะทำให้ผู้ใช้งานเข้าใจผิดเกี่ยวกับเหตุการณ์จริง
คณะกรรมการจึงมองว่าระบบจัดการเนื้อหาที่ Meta ใช้อยู่ในปัจจุบันยังไม่ “ครอบคลุมและแข็งแรงเพียงพอ” ต่อการรับมือกับความเร็วและขนาดของการแพร่กระจายข้อมูลในยุค AI
ชี้ระบบตรวจจับและการติดป้าย AI ของ Meta ยังไม่เพียงพอ
Oversight Board ระบุว่าปัจจุบันการระบุว่าเนื้อหาใดถูกสร้างด้วย AI ยังพึ่งพา การเปิดเผยข้อมูลจากผู้โพสต์เอง เป็นหลัก ซึ่งถือเป็นข้อจำกัดสำคัญ เพราะผู้สร้างเนื้อหาที่ต้องการเผยแพร่ข้อมูลบิดเบือนมักไม่เปิดเผยว่าใช้ AI ในการสร้างคอนเทนต์
คณะกรรมการจึงเสนอให้ Meta พัฒนาระบบตรวจจับเนื้อหา AI ให้มีประสิทธิภาพมากขึ้น พร้อมปรับปรุงกฎเกี่ยวกับข้อมูลเท็จให้ครอบคลุมคอนเทนต์ประเภท deepfake และสื่อสังเคราะห์ที่อาจสร้างความเข้าใจผิดได้
นอกจากนี้ยังแนะนำให้ Meta เพิ่มความชัดเจนเกี่ยวกับการบังคับใช้กฎ เช่น การกำหนดบทลงโทษสำหรับผู้ที่ละเมิดนโยบายเกี่ยวกับเนื้อหา AI และการแสดงป้ายกำกับให้ผู้ใช้สามารถเห็นได้อย่างชัดเจนว่าเนื้อหานั้นถูกสร้างหรือแก้ไขด้วย AI
อย่างไรก็ตาม คณะกรรมการยังแสดงความกังวลว่าปัจจุบัน Meta ใช้มาตรฐานนี้อย่างไม่สม่ำเสมอ และแม้แต่เนื้อหาที่สร้างด้วยเครื่องมือ AI ของบริษัทเองก็ยังมีเพียงบางส่วนเท่านั้นที่ถูกติดป้ายกำกับอย่างถูกต้อง
แม้คำแนะนำของ Oversight Board จะไม่ได้มีผลบังคับให้ Meta ต้องดำเนินการทันที แต่รายงานครั้งนี้สะท้อนแรงกดดันที่เพิ่มขึ้นต่อแพลตฟอร์มโซเชียลมีเดียให้ต้องพัฒนากฎและเทคโนโลยีใหม่เพื่อรับมือกับยุคของคอนเทนต์ที่สร้างโดย AI ซึ่งกำลังเติบโตอย่างรวดเร็วบนโลกออนไลน์

