ทุกวันนี้เวลาเราอยากได้คำตอบอะไร เราก็มักเลือกถาม Generative AI (ChatGPT, Gemini, Grok) ​เพราะมันง่าย ถามแล้วได้คำตอบเลย ที่สำคัญดูมีหลักการและเข้าใจง่าย ทำให้มีการเอาไปใช้ร่วมกับการเรียน และการทำงาน และหลายคนก็มักจะเชื่อว่า “คำตอบจาก AI นั้นถูกต้อง”​ และนำไปใช้งาน หรืออ้างอิงโดยไม่ได้ตั้งคำถามว่า มันไปเอาคำตอบมาจากไหน คือคำตอบที่ถูกต้องจริง ๆ หรือเปล่า ? รวมถึงการตรวจสอบความถูกต้องซ้ำ 

แม้แต่ผู้สร้างยังบอกว่า “ไม่ควรไว้ใจ AI” 

เป็นเรื่องน่าสนใจนะ ที่ผู้คนเชื่อ ChatGPT กันมาก ๆ ทั้ง ๆ ที่ AI ก็มีอาการหลอนข้อมูล (Hallucinates) ได้ พูดง่ายๆ คือมันควรจะเป็นเทคโนโลยีที่เราไม่ควรจะไว้ใจมันมากขนาดนั้น

แซม อัลแมน (Sam Altman) CEO ของ OpenAI พูดใน the OpenAI Podcast Ep. 1

แม้แต่หัวเรือใหญ่ของ ChatGPT อย่าง แซม อัลแมน (Sam Altman) ยังตั้งคำถามว่า ทำไมผู้คนถึงเชื่อ AI กันมาก ๆ ทั้งที่ AI มักมี ‘อาการหลอนข้อมูล (Hallucinate)’ สร้างข้อมูลที่ไม่มีอยู่จริง และให้คำตอบผิด ๆ ในรูปแบบที่น่าเชื่อถือ สิ่งนี้มีโอกาสเกิดขึ้นได้ทุกเมื่อ 

กรณีศึกษาเมื่อ AI มั่วข้อมูลขึ้นมา

มีหลายครั้งที่ผู้คนเชื่อคำตอบจาก AI เกินไป จนเอามาใช้อ้างอิงจริงจัง จนเกิดเป็นเรื่องราวใหญ่โต เคสแรกคือ ไมเคิล โคเฮน (Michael Cohen) อดีตทนายความส่วนตัวของอดีตประธานาธิบดี โดนัลด์ ทรัมป์ ที่ใช้ AI ในการรีเซิร์ซคดีในอดีต (Case law) หลายคดีเพื่อสนับสนุนคำร้องในการขอลดระยะเวลาการคุมประพฤติของตัวเองให้สิ้นสุดลงก่อนกำหนด แม้จะมีข้อมูลครบถ้วน และดูน่าเชื่อถือมาก ๆ แต่พอศาลตรวจสอบจริง ๆ กลับพบว่าคดีที่เอามาอ้างทั้งหมด “ไม่มีอยู่จริง” ซึ่งเป็นข้อมูลที่ AI มโน สร้างขึ้นมาเอง โดยไม่มีการตรวจสอบความถูกต้องซ้ำ

อีกตัวอย่างเมื่อต้นปี 2025 ที่การันตีได้ว่า “คำตอบจาก AI ไม่ได้ถูกต้องทั้งหมด” คือการที่ BBC ออกมาเผยแพร่ผ่าน Nieman Journalism Lab ของมหาวิทยาลัยฮาร์วาร์ด ว่าได้ทดสอบ ให้ AI ยอดฮิต 4 ตัว เอาข่าวของ BBC มาสรุปและตอบคำถาม ผลลัพธ์ที่ออกมากลับพบว่าคำตอบกว่า 51% ที่ AI สร้างขึ้น “มีปัญหา” ตั้งแต่

  • 19% ของคำตอบมี “ข้อผิดพลาดด้านข้อเท็จจริง” เช่น ตัวเลข, วันที่, หรือข้อมูลสำคัญที่ไม่ถูกต้อง
  • 13% ของคำพูดหรือคำอ้างอิง (Quotes) ถูก “บิดเบือน” ไปจากต้นฉบับ หรือไม่มีอยู่จริงในบทความที่อ้างอิง

และที่ใกล้ตัวเข้ามาอีก เมื่อสำนักข่าวหนึ่งในไทยใช้ AI ในการเขียนข่าว ซึ่งมีจุดที่ผิดพลาดในส่วนของ ชื่อตำแหน่ง และการอ้างอิงถึงนักวิชาการที่เสียชีวิตไปแล้วในข่าวจนเกิดเป็นประเด็นขึ้นมา เรื่องการนำ AI มาใช้โดยที่ไม่มีการตรวจสอบความถูกต้องซ้ำอีกรอบ

คำตอบดูดี แต่ต้องตรวจสอบซ้ำเสมอ

ปฏิเสธไม่ได้ว่าการใช้ AI ตอบคำถามต่าง ๆ ที่สงสัย หรือใช้ร่วมกับการเรียนหรือการทำงานได้จริง ๆ แต่ต้องระลึกไว้เสมอว่า “เราไม่รู้ว่า AI เอาข้อมูลจากไหนมาตอบเรา” การตรวจสอบข้อมูลซ้ำเป็นเรื่องสำคัญที่ควรทำเสมอทุกครั้ง ซึ่งการเช็กซ้ำมีหลากหลายวิธี ซึ่ง BT เองก็มีวิธีการคร่าว ๆ ที่ใช้สำหรับการเช็กข้อมูลซ้ำ

เริ่มตั้งแต่การเขียน Prompt: ไม่ว่าเราจะถามคำถามเรื่องอะไร ให้เรากำกับ AI ทุกครั้งว่า “​ห้ามสร้างข้อมูลขึ้นมาเอง ให้อ้างอิงแหล่งข้อมูลที่น่าเชื่อถือ พร้อมระบุลิงก์แหล่งที่มา”

จากนั้นก็มาตรวจสอบข้อมูลอีกที ค่อยตรวจสอบข้อมูลซ้ำอีกทีจากแหล่งที่มา หรือลิงก์ที่แนบมากับคำตอบอย่างละเอียด แม้ว่าสิ่งที่ AI ตอบออกมาจะดูมีความสมเหตุสมผลแค่ไหนก็ตาม

สุดท้าย AI เป็นเทคโนโลยีที่ดี แต่มันไม่ได้ตอบถูกทั้งหมด และในบางครั้งมันไม่รู้ว่าตอบผิดด้วยซ้ำ อย่างคำที่ แซม อัลแมน (Sam Altman) ผู้ให้กำเนิด ChatGPT ที่พูดไว้ว่า “มันควรจะเป็นเทคโนโลยีที่เราไม่ควรจะไว้ใจมันมากขนาดนั้น”