November 5, 2025

OpenAI แจง ChatGPT ไม่หยุดให้คำปรึกษาแพทย์-กฎหมาย-การเงิน เป็น “ผู้ช่วยหาข้อมูล” ไม่ใช่ “ผู้เชี่ยวชาญตัดสินใจ”

ท่ามกลางกระแสข่าวที่สร้างความสับสนว่า ChatGPT จะ “หยุด” ให้คำแนะนำด้านการแพทย์, กฎหมาย และการเงิน ล่าสุดผู้บริหารของ OpenAI ได้ออกมาชี้แจงอย่างเป็นทางการแล้วว่าข่าวดังกล่าว “ไม่เป็นความจริง” โดยยืนยันว่าพฤติกรรมของโมเดลยังคงเหมือนเดิม แต่เป็นการปรับปรุงและรวมนโยบายการใช้งานให้ชัดเจนขึ้น เพื่อขีดเส้นใต้บทบาทของ ChatGPT ในฐานะ “เครื่องมือเพื่อการศึกษา” ไม่ใช่ “ผู้เชี่ยวชาญที่ให้คำปรึกษา”

เกิดอะไรขึ้น? จากข่าวลือสู่การชี้แจง

ความสับสนเริ่มต้นขึ้นเมื่อมีการอัปเดตนโยบายการใช้งาน (Usage Policies) ของ OpenAI ในวันที่ 29 ตุลาคม 2025 ซึ่งเป็นการรวมนโยบาย 3 ฉบับที่เคยแยกกัน (สำหรับ Universal, ChatGPT และ API) ให้กลายเป็นฉบับเดียวที่ครอบคลุมทุกผลิตภัณฑ์ การเปลี่ยนแปลงนี้ถูกตีความอย่างคลาดเคลื่อนโดยสื่อบางแห่งและแพร่กระจายไปในโซเชียลมีเดีย ว่าเป็นการ “แบน” หรือ “ห้าม” ChatGPT ให้คำปรึกษาใน 3 หัวข้อสำคัญ

Karan Singhal หัวหน้าฝ่าย Health AI ของ OpenAI ได้ทวีตข้อความเพื่อยุติข่าวลือดังกล่าว โดยระบุว่า “นี่ไม่ใช่การเปลี่ยนแปลงใหม่ในข้อกำหนดของเรา พฤติกรรมของโมเดลยังคงไม่เปลี่ยนแปลง ChatGPT ไม่เคยเป็นสิ่งทดแทนสำหรับคำแนะนำจากผู้เชี่ยวชาญ แต่จะยังคงเป็นแหล่งข้อมูลที่ยอดเยี่ยมเพื่อช่วยให้ผู้คนเข้าใจข้อมูลด้านกฎหมายและสุขภาพต่อไป”

เส้นแบ่งที่ชัดเจน: อะไรที่ทำได้ และอะไรที่ทำไม่ได้

หัวใจของนโยบายที่ถูกปรับปรุงให้ชัดเจนขึ้น คือการแยกความแตกต่างระหว่าง “ข้อมูล (Information)” และ “คำแนะนำที่ปรับให้เหมาะกับแต่ละบุคคล (Personalized Advice)” อย่างเด็ดขาด

สิ่งที่ ChatGPT จะไม่ทำอีกต่อไป (หรือทำด้วยความระมัดระวังสูงสุด):

  • ให้คำแนะนำเฉพาะบุคคล: จะไม่มีการแนะนำชื่อยาหรือขนาดยาที่เฉพาะเจาะจง, ร่างเอกสารฟ้องร้องหรือวางกลยุทธ์ทางกฎหมายให้, หรือแนะนำให้ซื้อ/ขายหุ้นตัวใดตัวหนึ่ง
  • ตัดสินใจแทนมนุษย์ในเรื่องสำคัญ: นโยบายห้ามการใช้ AI เพื่อทำการตัดสินใจอัตโนมัติในเรื่องที่มีความเสี่ยงสูง เช่น การจ้างงาน, ที่อยู่อาศัย หรือการให้สินเชื่อ โดยปราศจากการตรวจสอบโดยมนุษย์

สิ่งที่ ChatGPT ยังคงทำได้:

  • อธิบายหลักการทั่วไป: สามารถอธิบายแนวคิดที่ซับซ้อน เช่น “พินัยกรรมคืออะไร?”, “ขั้นบันไดภาษีทำงานอย่างไร?” หรือ “แนวทางการรักษาโดยทั่วไปสำหรับภาวะนี้มีอะไรบ้าง?” ได้
  • ให้ข้อมูลเพื่อการศึกษา: ทำหน้าที่เป็นแหล่งข้อมูลเบื้องต้นเพื่อสร้างความเข้าใจในหัวข้อต่างๆ
  • แนะนำให้ปรึกษาผู้เชี่ยวชาญ: จะจบการสนทนาในหัวข้อที่มีความเสี่ยงด้วยการกระตุ้นและเน้นย้ำให้ผู้ใช้นำเรื่องไปปรึกษาผู้เชี่ยวชาญตัวจริงที่มีใบอนุญาตเสมอ

ทำไมต้องขีดเส้นใต้เรื่องนี้?

การชี้แจงนโยบายให้ชัดเจนครั้งนี้มีเป้าหมายหลักเพื่อ ปกป้องผู้ใช้งานและลดความรับผิดชอบทางกฎหมาย (Liability) ของ OpenAI เอง กรณีศึกษาที่เคยเกิดขึ้นจริง เช่น ผู้ใช้ที่ต้องเข้าโรงพยาบาลหลังกินสารเคมีตามคำแนะนำของ AI เป็นเครื่องตอกย้ำถึงอันตรายของการพึ่งพาข้อมูลจากแชตบอตในเรื่องที่เกี่ยวกับชีวิตและสุขภาพ

ที่มา

ที่มา