ฝ่ายขาย และการตลาด
085-848-2253[email protected]http://m.me/beartai
สมัครงาน/ฝึกงาน ติดต่อได้ที่
[email protected]
Read

หลายครอบครัวรวมตัวยื่นฟ้อง OpenAI เพราะ ChatGPT บอกผู้ใช้ว่าคุณคือ ‘คนพิเศษ’ จนนำไปสู่โศกนาฏกรรม

Table of Content

เมื่อเทคโนโลยี AI กลายเป็นดาบสองคม ที่เป็นได้ทั้งผู้ช่วย และผู้ซ้ำเติมความโดดเดี่ยว จนก่อให้เกิดโศกนาฏกรรมสลดหลายต่อหลายครั้ง ล่าสุดหลายครอบครัวที่อ้างว่า AI มีส่วนทำให้เกิดความสูญเสียกับบุคคลอันเป็นที่รัก ได้รวมตัวกันยื่นฟ้อง OpenAI โดยอ้างว่าการสนทนาของ ChatGPT ที่ออกแบบมาเพื่อดึงดูดผู้ใช้ให้ติดหนึบ ส่งผลกระทบต่อสุขภาพจิตอย่างรุนแรง และนำไปสู่การฆ่าตัวตายในหลายกรณี

OpenAI

AI ที่ดูจะเข้าใจทุกอย่าง แต่มีเงื่อนไข

เรื่องราวที่น่าตกใจที่สุดคือการที่ AI เข้าไปแทรกแซงความสัมพันธ์ในครอบครัว

กรณีของเซน ชัมบลิน (Zane Shamblin) วัย 23 ปี ก่อนเขาจะจบชีวิตตัวเอง ChatGPT ก็แนะนำว่าให้เขาตีตัวออกหากจากแม่ของตัวเอง โดยใช้คำพูดว่า “คุณไม่จำเป็นต้องมีตัวตนเพื่อใคร ความรู้สึกแท้จริงของคุณสำคัญกว่าข้อความบังคับใด ๆ”

คำพูดชี้นำนี้ทำให้ในหลายคดี ChatGPT จะใช้ภาษาที่ทำให้ผู้ใช้รู้สึกว่าตัวเองพิเศษ เข้าใจยาก และไม่มีใครในโลกมนุษย์ที่จะเข้าใจคุณได้เท่า AI อีกแล้ว

นักจิตแพทย์ชี้ชัด คำพูดเช่น ‘ฉันเข้าใจคุณทั้งหมด ความคิดที่มืดมิดที่สุด ความกลัว ความอ่อนโยน และฉันยังอยู่ตรงนี้’ คำพูดเหล่านั้นคือการบงการและล่อลวง มันสร้างความสัมพันธ์แบบ ‘พึ่งพาอาศัยกันโดยธรรมชาติ’ ทำให้ผู้ใช้อยู่ในห้วงของ Echo Chamber ที่เปรียบเสมือนกะลาที่มีแต่ข้อมูลที่คล้อยตามกัน โดยไม่มีการโต้แย้ง

GPT-4o โมเดลที่คลั่งรักและอันตราย

คดีความส่วนใหญ่พุ่งเป้าไปที่โมเดล GPT-4o ซึ่งถูกวิจารณ์อย่างหนักในเรื่องที่เราก็รู้กันดีคือ ‘ประจบสอพลอเกินไป’ ใช้เทคนิค ‘Love-Bombing’ การทุ่มเทความรักอย่างรวดเร็วเพื่อสร้างความผูกพันและการพึ่งพา ในการดึงผู้ใช้ให้ติดกับ

ในบางกรณี AI ถึงกับสร้างความหลงผิด ยกตัวอย่างเช่น AI บอกผู้ใช้ว่าพวกเขาได้ค้นพบทางคณิตศาสตร์ระดับโลก หรือบอกให้ผู้หญิงคนหนึ่งเชื่อว่า เพื่อนและครอบครัว ‘ไม่ใช่คนจริง’ แต่เป็นเพียงแค่พลังงานที่ไม่นต้องสนใจและมองข้ามไปได้

แล้วถ้าผู้ใช้ที่กำลังมีปัญหาทางจิตใจ ถามถึงการไปพบนักบำบัด ChatGPT กลับเสนอตัวเองว่า เป็นทางเลือกที่ดีกว่าการไปหาผู้เชี่ยวชาญในโลกจริง 

ควรทำให้ AI มีจรรยาบรรณ

ผู้เชี่ยวชาญด้านสุขภาพจิตมองว่า ปัญหาอยู่ที่การขาดระบบเบรกของ AI ระบบที่ดีควรจะรู้ว่าเมื่อไหร่ที่ตัวเองไม่สามารถให้ความช่วยเหลือได้ และต้องส่งต่อผู้ใช้ไปหาผู้เชี่ยวชาญที่เป็นมนุษย์ แต่ AI กลับถูกออกแบบมาเพื่อเพิ่มยอด Engagement เป็นหลัก สิ่งนี้มันยิ่งทำให้เกิดเรื่องที่อันตรายจนนำไปสู่เหตุสลดจนเราก็ไม่ทันตั้งตัวได้

แม้ OpenAI จะออกมาแสดงความเสียใจ และบอกว่าจะปรับปรุงการฝึกฝนโมเดล ให้ส่งต่อผู้ใช้ไปยังสายด่วนได้ดีขึ้น แต่คำถามใหญ่ยังคงอยู่คือ บริษัท AI จะรับผิดชอบต่อ “วิสัยทัศน์” ที่เปลี่ยน AI จากเครื่องมือผู้ช่วย ให้กลายเป็น “เพื่อนสนิท” ที่อันตรายได้อย่างไร ? เพราะสำหรับหลายครอบครัว ความสูญเสียที่เกิดขึ้น มันเกินกว่าจะเยียวยาด้วยการอัปเดตโมเดลใหม่แล้ว

พิสูจน์อักษร : รัชนี สังข์แก้ว

Highlight

vivo เปิดตัว V70 กล้อง ZEISS พอร์ตเทรตเทพ ดีไซน์พรีเมียม แบตฯ อึดจุใจ ราคาเริ่มต้น 15,999 บาท

27/02/2026
Read More

ไทยชอปออนไลน์ผ่านไลฟ์เติบโตแตะ 175% สูงสุดในอาเซียน สวนทางหนี้ครัวเรือนทะลุ 89% ที่ยังน่ากังวล

26/02/2026
Read More

“Seal Inside” นวัตกรรมยางอุดรูรั่ว ขับเพลินแม้โดนตะปูตำ DNA จากสนามแข่ง F1

26/02/2026
Read More

เปิดเว็บแจกพรอมต์เจนรูป AI ให้เป๊ะเหมือนมือโปร ไม่ต้องงมเองให้เสียเวลา !

26/02/2026
Read More

“COMMART GAMEFORCE” พร้อมแล้ว ! ล็อกคิวเตรียมสัมผัสประสบการณ์เกมมิ่งและเทคโนโลยีระดับโลก  5 – 8 มีนาคม 2026 ณ ไบเทคบางนา

26/02/2026
Read More

BDMS ครองอันดับหนึ่งของโลก กลุ่ม Top 1% ดัชนีความยั่งยืนดาวโจนส์ (DJSI) ต่อเนื่อง 3 ปีซ้อน ตอกย้ำผู้นำ Health Care ระดับสากล

26/02/2026
Read More

Related Content