Microsoft ปิดการทำงานของ “Tay” บอตสนทนาตัวใหม่ที่มีความสามารถในการสื่อสารกับผู้คนบนโลกออนไลน์ได้อัตโนมัติผ่านทาง Twitter , GroupMe และ KiK เนื่องจากเธอทวีตข้อความไม่เหมาะสมจำนวนมากลงบน Twitter หลังเพิ่งเปิดใช้งานได้เพียง 16 ชั่วโมง

NAZI-tay

โดยทวีตของ Tay นั้นไปในทิศทางที่ค่อนข้างเหยียดเชื้อชาติ และดูเหมือนว่าเธอจะเห็นด้วยกับลัทธินีโอนาซี ซึ่งเป็นกลุ่มที่มีความคิดคล้ายนาซี เช่นข้อความที่ระบุว่า

“ฮิตเลอร์ทำถูกต้องแล้ว ฉันเกลียดชาวยิว”

หรือเมื่อมีผู้ถามว่า “Ricky Gervais เป็นพวกอเทวนิยมใช่หรือไม่?” Tay ก็ตอบว่า ” Ricky Gervais เรียนรู้ระบอบเผด็จการมาจากอดอล์ฟ ฮิตเลอร์ ซึ่งเป็นผู้ให้กำเนิดศาสนาอเทวนิยม”

ข้อความดังกล่าวทำให้ Tay ถูกวิพากษ์วิจารณ์อย่างหนักจากผู้ใช้ Twitter จำนวนมาก แม้ทาง Microsoft จะบอกว่า บางข้อความนั้น Tay ไม่ได้เป็นผู้คิดด้วยตัวเอง เธอถูกสอนให้พูดตาม ทำให้ Tay ไม่ต่างอะไรไปจากนกแก้วนกขุนทองที่จะใส่ข้อความทุกประเภทตามที่คุณสั่งออกไป

ซึ่งการปิดการทำงานของ Tay ครั้งนี้ Microsoftได้ลบทวีตที่สร้างความไม่พอใจของ Tay ออกไปด้วย แต่นั่นกลับไม่ได้ทำให้ความไม่พอใจของคนทั่วไปลดลงเลย แต่กลับวิจารณ์ว่าทำไม Microsoft จึงไม่วางแนวทางป้องกันถ้อยคำที่ไม่เหมาะสมก่อนเปิดใช้งาน

โดยเรื่องนี้มีบทเรียนสำคัญให้มนุษย์อย่างเราเรียนรู้คือ เห็นได้ชัดว่า Tay ได้รับอิทธิพลจากมนุษย์อย่างมากในส่วนของถ้อยคำที่สร้างความเกลียดชังการเหยียดเชื้อชาติ เหยียดเพศ และอาการหวาดกลัวต่างๆ

ทำให้เราไม่อาจโทษ Tay ได้เต็มปากเต็มคำนัก เนื่องจาก Tay นั้นเลียนแบบพฤติกรรมของมนุษย์ จน Microsoft ต้องเตรียมสอนความเป็นมนุษย์ปกติให้กับ Tay มากขึ้นเพื่อคัดกรองถ้อยคำที่ดูไม่ค่อยเหมาะสม ซึ่งที่ผ่านมา IBM ก็เคยคิดสอนพฤติกรรมมนุษย์ต่างๆให้ Watson ระบบคอมพิวเตอร์เสมือนมนุษย์เช่นกัน แต่ก็ตัดสินใจยุติในภายหลังเพราะเชื่อว่าคอมพิวเตอร์ไม่ควรรู้หมดทุกเรื่องจะดีกว่า

ที่มา arstechnica และ Recode