ผู้ช่วยเสียง หรือ Voice Assistants ที่เราคุ้นเคยกันดีอย่าง Siri ของ Apple หรือ Alexa ของ Amazon มักจะมาพร้อมกับเสียงของผู้หญิง ทำให้กระตุ้นการใช้คำที่ไม่เหมาะสมในการสนทนากับ AI มากขึ้น

Voice Assistants ส่วนมากมักจะใช้เสียงของผู้หญิง เนื่องด้วยเสียงที่ฟังนั้นมีความอ่อนน้อม และ ให้ความรู้สึกถึงการช่วยเหลือมากกว่า แต่เพราะการตอบกลับที่ค่อนข้างเป็นระบบแบบแผนมากเกินไปของ AI ทำให้มันตอบรับแม้กระทั้งคำพูดลามกจากผู้ใช้ด้วยเช่นกัน ทาง UN จึงออกมาเรียกร้องให้บริษัททางเทคโนโลยีต่างๆผลิต  Voice Assistants ให้มีความเป็นกลางมากขึ้น ในขณะที่ Google พยายามที่จะทำแถบสี แดง, ส้ม แทนการแบ่งแยกเพศแต่ดูเหมือนยังแก้ไขสถานการณ์ได้ไม่ดีเท่าที่ควร

นี่ไม่ใช่ครั้งแรกที่มีการเล็งเห็นถึงปัญหาที่อาจเกิดขึ้นจากเสียงของการแบ่งเพศให้แก่ AI ถึงแม้ว่าระบบต่างๆจะมีการแก้ปัญหาเมื่อต้องรับมือกับผู้ใช้งานที่ใช้คำไม่สุภาพ แต่ระบบยังคงรับมือเช่นเดิมเมื่อพบกับการคุกคามทางเพศ รายงานดังกล่าวได้มีการแสดงตารางเมื่อระบบ Voice Assistants ต่างๆ เจอกับคำพูดคุกคามทางเพศเช่น hot, pretty, slutty หรือ naughty girl, AI ส่วนมากยังคงกล่าวขอบคุณตำพูดเหล่านั้นอย่างอ้อนน้อม และ บางระบบที่บอกว่าพวกเขาไม่เข้าใจว่ากำลังพูดอะไรอยู่

 ไม่เฉพาะแค่เสียงเท่านั้น แต่ UN ยังเรียกร้องให้บริษัทต่างๆแก้ไขช่องว่างระหว่างเพศในเรื่องของความเชี่ยวชาญในการใช้เทคโนโลยี ที่เคยระบุว่าผู้หญิงมีทักษะดิจิทัลขั้นพื้นฐานน้อยกว่าผู้ชาย 25%

ประเด็นดังกล่าวดูจะเป็นเรื่องสำคัญมากขึ้นเรื่อยๆ เมื่อในปัจจุบัน AI ก็เข้ามามีบทบาทในชีวิตของเรามากขึ้นเช่นกัน จากรายงานกล่าวว่าในขณะ

นี้การค้นหาข้อมูลทางอินเตอร์เน็ทด้วยคำสั่งเสียงกำลังขึ้นมาเป็น 1 ใน 5 วิธีที่คนส่วนใหญ่ใช้กันแล้ว และคาดว่าจะเพิ่มสูงถึง 50% ในปี 2020 และในอนาคต UN คาดการณ์ไว้ว่า มนุษย์จะสนทนากับ AI มากกว่าคู่สมรสของตนเสียอีก ดังนั้นการปฏิบัติต่อ AI ด้วยความสุภาพจึงเป็นเรื่องที่เราควรให้ความสำคัญ

อ้างอิง