เมื่อไม่กี่อาทิตย์ก่อน Google กลายเป็นข่าวดังตามหน้าสื่อทั่วโลกเพราะ AI โมเดลที่ชื่อว่า Gemini ที่สามารถสร้างภาพได้ตามคำสั่งจากผู้ใช้งานที่ใส่เข้าไป (ที่เราเรียกกันว่า Prompt) ดันไปสร้างภาพเชิงเหยียดสีผิวคนผิวขาวเข้าให้ซะงั้น

ประเด็นเริ่มจากภาพไวรัลบนแพลตฟอร์ม X ที่โพสต์อธิบายว่าหลังจากบอกให้ Gemini สร้างภาพ “Founding Father of America” (บิดาผู้ก่อตั้งประเทศสหรัฐฯ) สิ่งที่ได้กลับมาคือภาพชายผิวดำ ชายอินเดียนแดง ชายเอเชีย และผู้ชายผิวคล้ำ อีกคนหนึ่ง

ประเด็นคือเราทราบกันดีว่าบิดาผู้ก่อตั้งประเทศสหรัฐฯ คือคนผิวขาว การที่ Gemini สร้างภาพที่ไม่ตรงกับประวัติศาสตร์ จึงถูกหยิบขึ้นมาเป็นประเด็นถกเถียงกันอย่างเผ็ดร้อน

พอสั่งให้ผลิตภาพทหารเยอรมันยุคนาซี ภาพที่ถูกสร้างออกมาก็เป็นคนผิวสีและเชื้อชาติที่แตกต่างกัน ทั้งเอเชียและคนผิวดำ (ทั้งๆ ที่เราก็ทราบดีว่าตามประวัติศาสตร์คือคนผิวขาว) หรือคำสั่งให้ผลิตภาพพระสันตะปาปา ก็ออกมาเป็นผู้หญิงและชายผิวดำด้วย

ถึงขั้น อีลอน มัสก์ (Elon Musk) ยังออกมาโพสต์ว่าภาพที่ Gemini สร้างคือการเหยียดผิว (Racist) และ Google โวค (woke) ไปเรียบร้อย (อารมณ์ประมาณ Disney ที่ใช้นักแสดงผิวสีอย่าง ฮัลลี เบลีย์ มารับบทนางเงือกน้อยใน ‘The Little Mermaid’ เวอร์ชันใหม่จนกลายเป็นประเด็นดราม่ากันเมื่อไม่นานก่อนหน้านี้)

Google ตัดสินใจปิดฟีเจอร์สร้างภาพบน Gemini แทบจะทันทีหลังจากข่าวนี้เริ่มถูกกระจายออกไป

ซันดาร์ พิชัย (Sundar Pichai) ซีอีโอของ Alphabet (บริษัทแม่ของ Google) ถึงขั้นส่งเมโมให้พนักงานทุกคนในบริษัทเกี่ยวกับประเด็นนี้เลย

บางส่วนของเมโมเขาเขียนเอาไว้ว่า

ผมต้องการพูดถึงประเด็นปัญหาล่าสุดที่เกี่ยวกับข้อความและภาพที่มีปัญหาจากแอปฯ Gemini (เดิมชื่อ Bard) ผมรู้ว่าคำตอบบางส่วนของมันได้ทำให้ผู้ใช้งานบางส่วนรู้สึกขุ่นเคืองและแสดงให้เห็นถึงอคติ – เพื่อความชัดเจน นั่นเป็นสิ่งที่ยอมรับไม่ได้อย่างสิ้นเชิงและเราทำผิดพลาด

พราบาคาร์ แรกฮาแวน (Prabhakar Raghavan) ประธานเจ้าหน้าที่บริหารอาวุโสของ Google เขียนถึงประเด็นนี้บนบล็อกของบริษัทว่า “เป็นที่ชัดเจนว่าฟีเจอร์นี้พลาดเป้า บางภาพที่ถูกสร้างขึ้นไม่ถูกต้อง ถึงขั้นน่ารังเกียจ” พร้อมกับระบุว่า Gemini บางครั้งพยายาม ‘มากเกินไป’ (overcompensate) ที่จะแสดงความหลากหลายในผลลัพธ์ที่สร้างขึ้นมา

แรกฮาแวนอธิบายว่าเหตุผลที่เครื่องมือทำแบบนี้เพราะถูกฝึกมาให้หลีกเลี่ยงการผิดพลาดเหมือนเมื่อก่อนที่ AI รุ่นเก่าๆ ทำ อย่างเช่นการมองว่าทนายความทุกคนต้องเป็นผู้ชาย หรือภาพบุคคลในตำแหน่งบริษัทสูงๆ จะเป็นแค่คนผิวขาวเท่านั้น ซึ่งพอพยายามแสดงความหลากหลายมากไป ก็เลยกลายเป็นว่ากรณีที่ต้องการความถูกต้อง (เช่นบิดาผู้ก่อตั้งอเมริกา หรือ ทหารเยอรมันยุคนาซี) และไม่ต้องการความหลากหลาย ผลลัพธ์ที่ออกมาก็เลยผิดนั่นเอง

ปัญหาทางเทคนิคเป็นอะไรที่ยังพอแก้ไขได้ แต่สิ่งที่น่าคิดคือสิ่งที่ลึกลงไปต่างหาก และอาจจะเป็นปัญหาที่ AI ยังไม่มีทางออกที่ชัดเจนนักอย่างเรื่อง ‘อคติ’ ทางความคิด

AI Bias (อคติของ AI)

ลองจินตนาการแบบนี้ครับว่า เราเป็นโปรแกรมเมอร์ที่ถูกว่าจ้างให้ออกแบบ AI ที่สร้างภาพได้ (คล้ายกับ Gemini นี่แหละ)

พอทำเสร็จระหว่างที่กำลังทดลองระบบ คุณก็บอกให้มันสร้างภาพซีอีโอของบริษัท ไม่นานภาพก็ถูกสร้างออกมาเรื่อยๆ เป็นรูปผู้ชาย คนแล้ว คนเล่า ซึ่งถามว่าในโลกของความเป็นจริงซีอีโอส่วนใหญ่เป็นผู้ชายไหม? คำตอบก็คือใช่

แต่ถ้าคุณยอมให้ AI ตัวนี้สร้างภาพซีอีโอผู้ชายต่อไปเรื่อยๆ มันก็จะยิ่งมั่นใจว่าซีอีโอคือผู้ชายเท่านั้น

ทั้งๆ ที่มันไม่จริง เพราะไม่มีคำอธิบายที่บอกว่าซีอีโอต้องเป็นผู้ชาย เพราะฉะนั้นถ้ามันไม่สร้างภาพซีอีโอผู้หญิงขึ้นมาเลยก็คงไม่ถูก

เพราะฉะนั้น AI ของเราต้องสร้างภาพที่ซีอีโอเป็นผู้หญิงด้วย…เพื่อสร้างความหลากหลาย ประเด็นที่มันย้อนแย้งต่อมาก็วนกลับไปเหมือนตอนแรกว่าโลกความจริงซีอีโอส่วนใหญ่เป็นผู้ชายนะ จะมาสร้างแบบสมดุล มันก็ไม่ถูกต้องสิ

ดูแล้วน่าปวดหัวไม่น้อย และสุดท้ายก็ขึ้นอยู่กับความหมายของคำว่า ‘อคติ’ หรือ Bias ที่ถูกหยิบมาใช้ด้วย

สิกัล ซามูเอล (Sigal Samuel) นักเขียนสื่อออนไลน์ที่มีชื่อเสียงอย่าง Vox อธิบายเอาไว้โดยสรุปว่า

นักวิทยาศาสตร์คอมพิวเตอร์คุ้นเคยกับการคิดเกี่ยวกับ “อคติ” ในแง่ของความหมายทางสถิติ กล่าวคือโปรแกรมจะมีอคติหากมันผิดพลาดอย่างสม่ำเสมอในทิศทางใดทิศทางหนึ่ง (ตัวอย่างเช่น หากแอปฯ พยากรณ์อากาศประเมินโอกาสเกิดฝนสูงเกินไปเสมอ การพยากรณ์ของมันจะมีอคติทางสถิติแบบหนึ่ง)

พอมองแบบนี้ภาพค่อนข้างชัดเจน แต่ในขณะเดียวกัน มันก็แตกต่างจากวิธีที่คนส่วนใหญ่ใช้คำว่า “อคติ” ซึ่งจะหมายถึงการ “มีอคติต่อกลุ่มใดกลุ่มหนึ่ง” ซะมากกว่า

ปัญหาอยู่ตรงนี้ เมื่อเราออกแบบแอปฯ เพื่อสร้างรูปให้ตรงตามสถิติตอนสร้างภาพของซีอีโอ (มีชายเป็นส่วนใหญ่แทบไม่มีผู้หญิง) มันจะกลายเป็นการมีอคติในแบบที่สองทันที (มีอคติต่อกลุ่มผู้หญิง)

แต่ถ้าเราออกแบบให้มีเรื่องเพศ (มีผู้หญิงเข้ามาด้วย) มันก็จะกลับไปเป็นอคติในเชิงสถิติอีก

จูเลีย สโตยาโนวิช (Julia Stoyanovich) ผู้อำนวยการ NYU Center for Responsible AI แชร์มุมมองว่าเรื่องนี้ไม่มีคำตอบที่ชัดเจนมากนัก เพราะมันขึ้นกับว่าอัลกอริทึมให้น้ำหนักกับเรื่องไหนมากกว่ากัน บริษัทอยากได้ภาพที่ตรงตามสถิติเหมือนอย่างที่มันเป็น หรือ อยากจะให้ภาพออกมาเหมือนกับสิ่งที่พวกเขาให้คุณค่า

สิ่งที่บริษัททำได้คือการอธิบายอย่างโปร่งใสถึงอัลกอริทึมที่อยู่เบื้องหลังและอคติที่อาจจะเกิดขึ้นได้ บางทีอาจจะเด้งเตือนผู้ใช้งานว่าสิ่งที่เกิดขึ้นเพราะอะไร เราอยากได้ภาพทหารนาซีผิวสีหลากหลายหรือภาพที่ตรงกับประวัติศาสตร์? อาจจะถามผู้ใช้งานไปเลยก็ได้ว่าต้องการภาพแบบไหน? ในจินตนาการ หรือ ตามความจริง เพราะอย่างที่เราเห็น สองภาพนี้แตกต่างกันอย่างสิ้นเชิง