OpenAI แจง ChatGPT ไม่หยุดให้คำปรึกษาแพทย์-กฎหมาย-การเงิน เป็น “ผู้ช่วยหาข้อมูล” ไม่ใช่ “ผู้เชี่ยวชาญตัดสินใจ”
ท่ามกลางกระแสข่าวที่สร้างความสับสนว่า ChatGPT จะ “หยุด” ให้คำแนะนำด้านการแพทย์, กฎหมาย และการเงิน ล่าสุดผู้บริหารของ OpenAI ได้ออกมาชี้แจงอย่างเป็นทางการแล้วว่าข่าวดังกล่าว “ไม่เป็นความจริง” โดยยืนยันว่าพฤติกรรมของโมเดลยังคงเหมือนเดิม แต่เป็นการปรับปรุงและรวมนโยบายการใช้งานให้ชัดเจนขึ้น เพื่อขีดเส้นใต้บทบาทของ ChatGPT ในฐานะ “เครื่องมือเพื่อการศึกษา” ไม่ใช่ “ผู้เชี่ยวชาญที่ให้คำปรึกษา”
เกิดอะไรขึ้น? จากข่าวลือสู่การชี้แจง
ความสับสนเริ่มต้นขึ้นเมื่อมีการอัปเดตนโยบายการใช้งาน (Usage Policies) ของ OpenAI ในวันที่ 29 ตุลาคม 2025 ซึ่งเป็นการรวมนโยบาย 3 ฉบับที่เคยแยกกัน (สำหรับ Universal, ChatGPT และ API) ให้กลายเป็นฉบับเดียวที่ครอบคลุมทุกผลิตภัณฑ์ การเปลี่ยนแปลงนี้ถูกตีความอย่างคลาดเคลื่อนโดยสื่อบางแห่งและแพร่กระจายไปในโซเชียลมีเดีย ว่าเป็นการ “แบน” หรือ “ห้าม” ChatGPT ให้คำปรึกษาใน 3 หัวข้อสำคัญ
Karan Singhal หัวหน้าฝ่าย Health AI ของ OpenAI ได้ทวีตข้อความเพื่อยุติข่าวลือดังกล่าว โดยระบุว่า “นี่ไม่ใช่การเปลี่ยนแปลงใหม่ในข้อกำหนดของเรา พฤติกรรมของโมเดลยังคงไม่เปลี่ยนแปลง ChatGPT ไม่เคยเป็นสิ่งทดแทนสำหรับคำแนะนำจากผู้เชี่ยวชาญ แต่จะยังคงเป็นแหล่งข้อมูลที่ยอดเยี่ยมเพื่อช่วยให้ผู้คนเข้าใจข้อมูลด้านกฎหมายและสุขภาพต่อไป”
เส้นแบ่งที่ชัดเจน: อะไรที่ทำได้ และอะไรที่ทำไม่ได้
หัวใจของนโยบายที่ถูกปรับปรุงให้ชัดเจนขึ้น คือการแยกความแตกต่างระหว่าง “ข้อมูล (Information)” และ “คำแนะนำที่ปรับให้เหมาะกับแต่ละบุคคล (Personalized Advice)” อย่างเด็ดขาด
สิ่งที่ ChatGPT จะไม่ทำอีกต่อไป (หรือทำด้วยความระมัดระวังสูงสุด):
- ให้คำแนะนำเฉพาะบุคคล: จะไม่มีการแนะนำชื่อยาหรือขนาดยาที่เฉพาะเจาะจง, ร่างเอกสารฟ้องร้องหรือวางกลยุทธ์ทางกฎหมายให้, หรือแนะนำให้ซื้อ/ขายหุ้นตัวใดตัวหนึ่ง
- ตัดสินใจแทนมนุษย์ในเรื่องสำคัญ: นโยบายห้ามการใช้ AI เพื่อทำการตัดสินใจอัตโนมัติในเรื่องที่มีความเสี่ยงสูง เช่น การจ้างงาน, ที่อยู่อาศัย หรือการให้สินเชื่อ โดยปราศจากการตรวจสอบโดยมนุษย์
สิ่งที่ ChatGPT ยังคงทำได้:
- อธิบายหลักการทั่วไป: สามารถอธิบายแนวคิดที่ซับซ้อน เช่น “พินัยกรรมคืออะไร?”, “ขั้นบันไดภาษีทำงานอย่างไร?” หรือ “แนวทางการรักษาโดยทั่วไปสำหรับภาวะนี้มีอะไรบ้าง?” ได้
- ให้ข้อมูลเพื่อการศึกษา: ทำหน้าที่เป็นแหล่งข้อมูลเบื้องต้นเพื่อสร้างความเข้าใจในหัวข้อต่างๆ
- แนะนำให้ปรึกษาผู้เชี่ยวชาญ: จะจบการสนทนาในหัวข้อที่มีความเสี่ยงด้วยการกระตุ้นและเน้นย้ำให้ผู้ใช้นำเรื่องไปปรึกษาผู้เชี่ยวชาญตัวจริงที่มีใบอนุญาตเสมอ
ทำไมต้องขีดเส้นใต้เรื่องนี้?
การชี้แจงนโยบายให้ชัดเจนครั้งนี้มีเป้าหมายหลักเพื่อ ปกป้องผู้ใช้งานและลดความรับผิดชอบทางกฎหมาย (Liability) ของ OpenAI เอง กรณีศึกษาที่เคยเกิดขึ้นจริง เช่น ผู้ใช้ที่ต้องเข้าโรงพยาบาลหลังกินสารเคมีตามคำแนะนำของ AI เป็นเครื่องตอกย้ำถึงอันตรายของการพึ่งพาข้อมูลจากแชตบอตในเรื่องที่เกี่ยวกับชีวิตและสุขภาพ

