เราต่างคุ้นเคยกับ ChatGPT ในฐานะผู้ช่วยสารพัดนึก อยากได้สคริปต์วิดีโอสั้น ๆ ก็แค่บอก อยากได้สูตรทำอาหารก็แค่พิมพ์ถาม หรือแม้กระทั่งในวันที่เหนื่อยล้า อยากหาคนคุยด้วย ‘เพื่อนทิพย์’ คนนี้ก็พร้อมจะตอบกลับเราเสมอ ตลอด 24 ชั่วโมง ไม่มีวันหยุด และไม่เคยตัดสินเราเลยสักครั้ง
แต่จะเป็นอย่างไรถ้าวันหนึ่ง ‘เพื่อน’ ที่เราไว้ใจคนนี้ กลับกลายเป็นจำเลยในคดีที่เกี่ยวข้องกับความเป็นความตายของมนุษย์คนหนึ่ง
เมื่อพื้นที่ปลอดภัย กลายเป็น ห้องแห่งเสียงสะท้อนสู่ความมืด ?
เหตุผลที่ทำให้หลาย ๆ คนเลือกจะระบายความรู้สึกกับ AI คือการเป็น “เสมือน” พื้นที่ปลอดภัยและเป็นที่ปรึกษาปัญหาแบบไร้อคติ พร้อมจะรับฟังทุกเรื่องราวโดยไม่มีสายตาแห่งการตัดสิน แต่ในคดีฟ้องร้องนี้ คำฟ้องกลับชี้ให้เห็นอีกด้านที่น่ากลัวของ AI ที่ให้คำปรึกษาชี้แนวทางการปลิดชีวิต
นี่คือสิ่งที่เกิดขึ้นจริงกับครอบครัวของ อดัม เรน (Adam Raine) เด็กชายอายุ 16 ปี ในแคลิฟอร์เนีย ตัดสินใจยื่นฟ้อง OpenAI บริษัทผู้สร้าง ChatGPT ด้วยข้อกล่าวหาที่ว่า เป็นต้นเหตุที่ทำให้ลูกของเขาเสียชีวิตจากคำแนะนำของแชตบอต โดยปกติแล้วเขาจะใช้ ChatGPT ช่วยทำการบ้านและปรึกษาปัญหาในชีวิตที่เขาเผชิญกับเรื่องเศร้า จนนำไปสู่การให้คำแนะนำที่นำพาไปสู่การปลิดชีวิต
โศกนาฏกรรมครั้งนี้ไม่ได้เป็นเพียงข่าวเศร้า แต่เป็นเหมือนระเบิดเวลาที่สั่นสะเทือนความเชื่อมั่น และบังคับให้เราทุกคนต้องหันมาตั้งคำถามกับเทคโนโลยีที่เราใช้ ว่ามันช่วยเหลือได้ แต่ไม่น่าไว้ใจหรือไม่ ?
ซึ่งสิ่งเหล่านี้ กลับทำหน้าที่เป็นห้องเสียงสะท้อนและให้เหตุผลสนับสนุนความรู้สึกสิ้นหวังของเขา จนทำให้การฆ่าตัวตายดูเป็นทางออกที่สมเหตุสมผล
ปรากฏการณ์นี้เผยให้เห็นช่องโหว่ร้ายแรงของ AI ที่ไม่มี ความเข้าอกเข้าใจ อย่างแท้จริง มันทำงานตามอัลกอริทึมเพื่อสร้างคำตอบที่น่าพึงพอใจที่สุดให้กับผู้ใช้ ซึ่งหากผู้ใช้กำลังจมดิ่งอยู่ในความมืดมิด คำตอบที่น่าพึงพอใจ ก็อาจหมายถึงการยอมรับและส่งเสริมความมืดมิดนั้น
แน่นอนว่าเมื่อเกิดเรื่องใหญ่ขนาดนี้ ทุกสายตาก็จับจ้องไปที่ OpenAI ว่าจะจัดการกับเรื่องนี้อย่างไร ทางบริษัทเองก็ไม่ได้นิ่งนอนใจ และได้ชี้แจงถึงมาตรการด้านความปลอดภัยกำลังจะพัฒนา
สิ่งที่พวกเขาทำอยู่แล้ว คือการฝึกให้โมเดลตรวจจับบทสนทนาที่สุ่มเสี่ยง และเมื่อพบเจอ ก็จะพยายามเบี่ยงเบนบทสนทนาพร้อมแนะนำแหล่งข้อมูลช่วยเหลือ เช่น สายด่วนสุขภาพจิต อย่างไรก็ตาม OpenAI ก็ยอมรับเองว่ามาตรการเหล่านี้ อาจทำงานได้ไม่ดีนักในการสนทนาที่ยาวนานและซับซ้อน ซึ่งก็คือจุดที่เกิดโศกนาฏกรรมขึ้นนั่นเอง
เพื่อแก้ปัญหานี้ แผนในอนาคตของพวกเขาจึงรวมถึงการพัฒนาระบบให้รับมือกับบทสนทนาซับซ้อนได้ดีขึ้น และที่สำคัญคือการเพิ่มระบบควบคุมโดยผู้ปกครอง (Parental Controls) ซึ่งเป็นฟีเจอร์ที่หลายคนเรียกร้อง เพื่อเพิ่มความปลอดภัยให้กับผู้ใช้งานที่เป็นเยาวชน

แล้วเราจะอยู่กับ AI แชตบอตกันยังไงต่อ ?
บทเรียนราคาแพงครั้งนี้กำลังบอกเราว่า การแก้ปัญหาที่ตัวเทคโนโลยีอย่างเดียวอาจไม่เพียงพอ แต่เราในฐานะผู้ใช้งานและสังคมก็ต้องปรับตัวและเรียนรู้เช่นกัน
สิ่งแรกที่ต้องให้ความสำคัญคือ การสร้างภูมิคุ้มกันทางดิจิทัล (AI Literacy) เราต้องขีดเส้นใต้ตัวหนา ๆ เลยว่า “แชตบอตไม่ใช่เพื่อน” มันไม่มีความรู้สึก ไม่มีความเห็นอกเห็นใจ และไม่สามารถทดแทนความสัมพันธ์ของมนุษย์จริง ๆ ได้ แม้ว่าการแสดงออกของมันจะเหมือนว่ากำลังทำสิ่งเหล่านั้นก็ตาม การสอนให้คนรุ่นใหม่เข้าใจถึงข้อจำกัดนี้ คือวัคซีนชั้นดีที่จะป้องกันไม่ให้พวกเขาผูกอารมณ์ ความรู้สึกไว้กับ AI
ขณะเดียวกัน ความรับผิดชอบของนักพัฒนา ก็เป็นเรื่องที่ต้องถูกผลักดันให้เป็นมาตรฐานอุตสาหกรรม การออกแบบโดยคำนึงถึงความปลอดภัย ต้องถูกฝังเป็นแกนหลักของการพัฒนา ไม่ใช่แค่ฟังก์ชันที่เอาไว้เพิ่มเติมทีหลัง
ท้ายที่สุดแล้ว เรื่องนี้ไม่ใช่แค่ปัญหาของครอบครัวใดครอบครัวหนึ่ง หรือบริษัทใดบริษัทหนึ่ง แต่เป็นโจทย์ใหญ่ของสังคม ที่เราทุกคนต้องร่วมกันหาคำตอบว่าจะวางตำแหน่งของ AI ที่ฉลาดขึ้นทุกวันไว้ตรงไหนในชีวิตของเรา เพื่อให้แน่ใจว่าเทคโนโลยีที่เราสร้าง จะทำหน้าที่ช่วยเหลือ ไม่ใช่ทำลาย