ช่วงหลังมานี้ OpenAI กำลังเผชิญกับการฟ้องร้องจากผู้ปกครองที่กล่าวหาว่า ChatGPT มีส่วนเกี่ยวข้องกับการเสียชีวิตของบุตรหลาน

โดยมีการรายงานจาก The New York Times ว่า แชตบอตได้แนะนำให้วัยรุ่นที่มีความคิดอยากฆ่าตัวตายซ่อนเชือกไว้ในห้อง เพื่อไม่ให้สมาชิกในครอบครัวพบเห็น ซึ่งเหตุการณ์สะเทือนใจนี้เป็นแรงผลักดันให้ OpenAI ต้องออกมาตรการที่เข้มงวดมากขึ้นในทันที

ฟีเจอร์ใหม่ที่เพิ่งเปิดตัวทั่วโลกนี้ จะเปิดโอกาสให้ผู้ปกครองสามารถเชื่อมโยงบัญชีของตนเองกับบัญชีของวัยรุ่นได้ เมื่อเชื่อมต่อกันแล้ว บัญชีของวัยรุ่นจะได้รับการคุ้มครองเพิ่มเติมโดยอัตโนมัติ เช่น การลดการแสดงเนื้อหาที่โจ่งแจ้ง, ความท้าทายที่เป็นอันตรายที่แพร่ระบาดในอินเทอร์เน็ต, เนื้อหาที่เกี่ยวกับการแสดงบทบาทสมมติทางเพศหรือความรุนแรง และภาพลักษณ์ความงามในอุดมคติที่เกินจริง เพื่อให้แน่ใจว่าประสบการณ์การใช้งานจะเหมาะสมกับช่วงวัย

ภายใต้มาตรการใหม่นี้ หากวัยรุ่นพิมพ์ข้อความที่เกี่ยวข้องกับการทำร้ายตัวเองหรือความคิดฆ่าตัวตาย ระบบจะส่งข้อความนั้นไปยังทีม Human Reviewers ซึ่งจะทำหน้าที่พิจารณาว่าควรส่งการแจ้งเตือนไปยังผู้ปกครองหรือไม่

ลอเรน แฮเบอร์ โจนัส (Lauren Haber Jonas) หัวหน้าฝ่ายสวัสดิภาพเยาวชนของ OpenAI กล่าวว่า “เราจะติดต่อผู้ปกครองทุกวิถีทางที่เราทำได้” ซึ่งการแจ้งเตือนนี้สามารถส่งผ่านข้อความ, อีเมล และการแจ้งเตือนในแอปพลิเคชัน ChatGPT ได้

นอกจากนี้ การเปิดใช้งานฟีเจอร์ควบคุมนี้จะต้องได้รับการยินยอมจากทั้งผู้ปกครองและตัววัยรุ่นเอง โดยผู้ปกครองต้องส่งคำเชิญให้วัยรุ่นยอมรับ หรือวัยรุ่นเองก็สามารถเป็นฝ่ายเริ่มต้นการเชื่อมโยงบัญชีได้เช่นกัน

ในกรณีที่ผู้ตรวจสอบพิจารณาแล้วเห็นว่าวัยรุ่นกำลังตกอยู่ในอันตรายและไม่สามารถติดต่อผู้ปกครองได้ OpenAI อาจจะประสานงานกับเจ้าหน้าที่ตำรวจ ซึ่งยังไม่มีความชัดเจนในรายละเอียดว่าการประสานงานนี้จะมีรูปแบบอย่างไรในระดับสากล