Connect with us

ข่าววิทยาการ

“ฆ่าพ่อแม่บุญธรรมของคุณซะ!” บทสนทนาสุดน่ากลัวจาก AI ของ Amazon

เกิดเรื่องน่าขนลุกขึ้นเมื่อ Alexa (ระบบ Software ที่ควบคุมด้วยเสียงจาก Amazon) แนะนำให้ผู้ใช้ ‘ฆ่าพ่อแม่บุญธรรมของเขา’ ถึงแม้ว่าในปัจจุบันนี้ Alexa จะมีการเรียนรู้ที่คุยตอบโต้กับมนุษย์มากขึ้นเรื่อยๆ แต่คำสั่งนี้ก็น่ากลัวเกินไปที่จะออกมาจากอุปกรณ์ AI อยู่ดี

สำนักข่าว The Reuters อ้างอิงจากแหล่งข่าวที่ไม่เปิดเผยชื่อที่รายงานถึงคุณสมบัติของอุปกรณ์ที่ทำงานด้วยคำสั่งเสียง AI ที่ช่วยให้ Alexa ตอบโต้คล้ายกับมนุษย์มากขึ้น โดยการนำหัวข้อต่างๆที่ Alexa เจอบนอินเทอร์เน็ตมาวิเคราะห์เพื่อสนทนาตอบโต้ และจากประโยคที่ตกเป็นข่าวนี้คาดว่าน่าจะมาจาก Reddit (เว็บที่เป็นที่รู้จักในเรื่องของข้อความที่รุนแรงและไม่เหมาะสม)

แต่กรณีนี้ไม่ใช่กรณีแรกเพราะชายชาวเยอรมัน ก็เคยเจอเสียงแปลกประหลาดคล้ายบันทึกการสนทนากว่า 1,700 ไฟล์ หลังจากการใช้งาน Alexa ในการค้นหาข้อมูลเช่นกัน ทาง The Reuters รายงานว่า Amazon ได้ทำการตรวจสอบไปยังต้นตอของสาเหตุ และพบว่าในประเทศจีนอาจทำการเปิดเผยข้อมูลของลูกค้า โดยไม่สามารถระบุที่มาของไฟล์เสียงเหล่านั้นได้

ทางโฆษกของ Amezon ได้กล่าวแถลงว่าข้อผิดพลาดนี้เป็นส่วนน้อยที่อาจจะเกิดขึ้นได้ พร้อมกับกล่าวขอโทษถึงสิ่งที่เกิดขึ้น และยังได้อธิบายเพิ่มอีกว่า การทำงานของ Alexa นี้เป็นการทำงานแบบการดึงข้อมูลจากเว็บไซต์ต่างๆ จึงมีความเป็นไปได้ที่จะไปดึงเอาประโยค หรือวลีออกมาจากเว็บไซต์ที่ไม่เหมาะสมออกมาตอบโต้กับผู้ใช้งาน

อ้างอิง

แชร์โพสนี้

แสดงความคิดเห็น

Advertisement
Advertisement

ติดตามข่าวสาร กดไลค์เพจแบไต๋!