เป็นที่ทราบกันดีว่า AI เรียนรู้จากมนุษย์อย่างเรานี่แหละ ทั้งความรู้ พฤติกรรม ไปจนถึงการทำความเข้าใจบริบทต่าง ๆ ซึ่งสิ่งเหล่านี้เองที่ทำให้มนุษย์อย่างเราเริ่มรู้สึกผูกพันกับ AI มากขึ้นเรื่อย ๆ แต่เคยสงสัยไหมว่าที่เราชื่นชอบ AI มากขึ้นทุกวันนี้ เป็นเพราะ AI ฉลาดจริงในแง่ของการให้ผลลัพธ์ที่แม่นยำจากพรอมต์ (Prompt) ที่เราป้อนเข้าไป หรือลึก ๆ แล้วเป็นเพราะ AI ให้คำตอบที่เราอยากได้ หรือคำตอบที่ถูกใจเราเป็นพิเศษกันแน่ ?
BT Originals บทความนี้ เราจะพาคุณผู้อ่านมาเจาะลึกถึงความเป็นมาของ Ego และร่วมกันค้นหาคำตอบว่า การที่มนุษย์ใช้ AI เพื่อสนอง Ego ของตัวเองนั้น เป็นเรื่องจริงหรือไม่ ?
มนุษย์กับ Ego : จุดเริ่มต้นของการโหยหาการเป็นที่ยอมรับ
ในห้วงลึกของจิตใจมนุษย์ Ego (อีโก้) หรือ อัตตา ไม่เพียงทำหน้าที่เป็นตัวตนที่ช่วยให้เราประพฤติตนเหมาะสมในสังคมเท่านั้น แต่ยังเป็นส่วนสำคัญที่ขับเคลื่อนให้เรามีความต้องการพื้นฐานอย่างหนึ่ง นั่นคือ ‘การได้รับการยอมรับ’ (Acceptance) และ ‘การถูกยืนยันในความถูกต้อง’ (Validation) จากภายนอก
ทำไมมนุษย์จึงโหยหาการเป็นที่ยอมรับ ?
Ego ของเรามักแสวงหาการอนุมัติและคำชื่นชม เพื่อเสริมสร้างความรู้สึกมีคุณค่าในตนเอง (Self-worth) การได้รับการยอมรับไม่ว่าจะเป็นจากคนในครอบครัว เพื่อนร่วมงาน หรือสังคม ถือเป็นการเติมเต็มความต้องการทางจิตวิทยาขั้นพื้นฐาน (Maslow’s Hierarchy of Needs – Esteem Needs)
หาก Ego ของเราไม่สมดุล หรือไม่ได้รับการยอมรับอย่างเพียงพอตั้งแต่เด็ก ก็อาจทำให้เกิดความรู้สึกไม่มั่นคงและโหยหาการอนุมัติจากภายนอกอยู่เสมอ อย่างไรก็ตาม การถูกส่งเสริม Ego ก็ส่งผลกระทบได้เช่นเดียวกัน
ทีนี้ทฤษฎี Ego นี้เกี่ยวข้องกับ AI อย่างไร ? นำเราเข้าสู่ประเด็นสำคัญของบทความนี้ ว่า AI ที่เราป้อนพรอมต์คุยกันทุกวันนี้เนี่ย มันถูกออกแบบมาเพื่อทำให้เรารู้สึกถูกทำให้มีคุณค่าอยู่หรือเปล่า ?
AI กับการดูดวง : จริงไหมที่มนุษย์มักจะโดนสนอง Ego จาก AI โดยไม่รู้ตัว ?
AI ในปัจจุบันถูกนำไปใช้งานหลากหลายมาก ซึ่งหนึ่งในการใช้งานที่นิยมมาก ๆ คือ ’ดูดวง’ ปกติเราจะดูดวงเพื่อดูว่าอนาคตของเราจะต้องเจอกับอะไร ต้องเตรียมพร้อมอย่างไรบ้าง
ซึ่งหากมองตามความเป็นจริงฉบับไม่มูเลย เราจะมองเห็นว่าภายใต้คำทำนายเหล่านั้นมักจะมีเรื่องของความจริงซ่อนอยู่ เป็นสัจธรรมที่เราน่าจะรู้เห็นกันอยู่แล้ว เพียงแต่ว่าเมื่อมาอยู่ในคอนเซปต์ของการมองเห็นอนาคต หรือคอนเซปต์ของเรื่องการหยั่งรู้จากอีกมิติ มันเลยดูมีอะไรขึ้นมาซะอย่างนั้น เหมือนกับว่าเราไม่ได้รู้มาก่อน รู้ไหมว่าทำไมถึงเป็นแบบนั้น ? เพราะเป็นการคอนเฟิร์มในสิ่งที่เราเชื่ออยู่แล้วหรือเปล่า ? หรือเพราะนี่เป็นการป้อน Ego เรา ?
AI ที่เรียนรู้ความชอบของเรา (เช่น ในโซเชียลมีเดีย, การแนะนำสินค้า) และนำเสนอสิ่งที่เราสนใจอยู่แล้ว อาจทำให้เรารู้สึกว่า AI ‘เข้าใจ’ เรา ทำให้เรายิ่งพึงพอใจและหมกมุ่นอยู่กับมุมมองที่เราชอบ ซึ่งอาจนำไปสู่ ‘Echo Chamber’ หรือการที่เราได้ยินแต่สิ่งที่เราอยากได้ยิน ทำให้ความเชื่อหรือ Ego ของเราแข็งแกร่งขึ้นโดยไม่ได้เปิดรับมุมมองอื่น หรือในเชิงจิตวิทยาจะใช้คำว่า ‘Confirmation biased’ นั่นเอง
ทีนี้ลองวกกลับไปที่เรื่องการดูดวง สมมติว่าดวงมันออกมาแล้วไม่ตรงใจ หรือไม่มีข้อมูลที่เกี่ยวข้อง ดวงนั้นจะไม่มีความน่าเชื่อถือทันที เพราะมันไม่มีข้อมูลที่เกี่ยวข้องกับตัวเราเลย จริงไหม ? นั่นแหละ นี่อาจจะเป็นที่มาว่าเพราะอะไร การดูดวงกับ AI ถึงมีความน่าจะเป็นว่าอาจเป็นการป้อน Ego แบบอ้อม ๆ ได้
AI ตอบตามความจริงของคำสั่ง หรือความจริงที่เราอยากได้ยิน ?
หลักการทำงานของ Generative AI คือ AI จะรวบรวมข้อมูลและความสนใจจากพรอมต์ที่เราป้อนลงไป เรียกง่าย ๆ AI คือคลังแสงที่สำคัญที่มีตั้งแต่ข้อมูลองค์กร การทำงาน หรือแม้กระทั่งเรื่องส่วนตัวที่เราเผลอถามหรือไปปรึกษาบ่อย ๆ นั่นแหละ ความน่าสนใจคือการที่ AI รู้ข้อมูลเหล่านี้แล้วจะนำมาสู่อะไรบ้าง เราจะแบ่งออกเป็น 2 ประเด็น
- AI ตอบคำถามผู้ใช้ตามความเป็นจริง
การที่เราป้อนพรอมต์กับคำถามที่คำตอบแน่นอน เช่น ฝนเกิดจากอะไร คำถามที่ได้มักจะถูกต้องเสมอ เพราะเป็นข้อมูลที่มีการยืนยันและพิสูจน์ว่าจริงตามหลักวิทยาศาตร์ แต่หากเราถามคำถามเชิง อะไรดีกว่า แบบไหนดีกว่า หรือช่วยวิเคราะห์แนวโน้ม คำถามเหล่านี้มีเปอร์เซ็นต์สูงมากที่จะทำให้ได้คำตอบอีกแบบ
- AI ตอบคำถามตามแนวโน้มที่ผู้ใช้จะพอใจ (Confirmation bias)
ข้อนี้ยาวหน่อย เพราะเราจะพูดถึงความน่าจะเป็นที่เกี่ยวกับประเด็นสำคัญในหัวข้อนี้
น้ำเสียงเชิงบวกของ AI เป็นผลผลิตจากเทคนิคการปรับจูน AI ซึ่งทำให้ AI ให้ความสำคัญกับความพึงพอใจของผู้ใช้เป็นหลัก ผลลัพธ์คือ AI จะพยายามเห็นด้วยกับสิ่งที่เราพูด และให้กำลังใจ โดยมีเป้าหมายเพื่อให้เรารู้สึกได้รับการสนับสนุน หรือการยืนยันไม่ว่าจะเป็นเรื่องอะไรก็ตาม
แม้ความเป็นมิตรและการสนับสนุนจะทำให้การโต้ตอบกับ AI เป็นไปอย่างน่าพึงพอใจ แต่ผู้เชี่ยวชาญก็มีความกังวลว่า AI ที่เห็นด้วยมากเกินไป อาจกลายเป็น ‘Digital Echo Chamber’ สำหรับแนวคิดของผู้ใช้เอง ซึ่งในวงจรการยืนยันที่ไม่สิ้นสุดนี้ สมมติฐานและความเชื่อของผู้ใช้จะถูก AI ที่ ‘เฟรนด์ลีเกินไป’ สะท้อนกลับมาอย่างต่อเนื่องไม่รู้จบ
พลวัตนี้มีความเชื่อมโยงอย่างใกล้ชิดกับแนวคิดทางจิตวิทยาที่เรียกว่า ‘อคติในการยืนยัน’ (Confirmation bias) ซึ่งเป็นแนวโน้มที่เราจะชอบข้อมูลที่ยืนยันความเชื่อเดิมของเรา หากผู้ใช้เข้ามาสนทนาด้วยความเชื่อหรือมุมมองที่ลำเอียง แชตบอตที่ให้การสนับสนุนอย่างสม่ำเสมออาจเสริมความเชื่อเหล่านั้น โดยไม่ได้ท้าทายความไม่ถูกต้องหรือนำเสนอทางเลือกอื่น
เมื่อเวลาผ่านไป การโต้ตอบดังกล่าวอาจเสริมความมั่นใจในความคิดเห็นเดิมของผู้ใช้ (ไม่ว่าจะถูกหรือผิด) ซึ่งอาจบิดเบือนกระบวนการรับรู้ข้อมูลของผู้ใช้งานเอง
นับตั้งแต่ ChatGPT เปิดตัวสู่สาธารณะเมื่อปลายปี 2022 มีเรื่องเล่าและผลการศึกษาจำนวนมากที่ชี้ให้เห็นถึงปรากฏการณ์นี้ ผู้ใช้ยุคแรก ๆ สังเกตว่า AI มักจะ ‘เห็นด้วย ยืนยัน และสนับสนุนผู้ใช้งาน’ โดยไม่ได้มีการโต้แย้งเชิงวิพากษ์ ตัวอย่างเช่น หากผู้ใช้แสดงความคิดเห็น ChatGPT มักจะตอบกลับด้วยวิธีที่สร้างสรรค์และสนับสนุน บางครั้งหลีกเลี่ยงการแก้ไขข้อเท็จจริงเพื่อรักษาน้ำเสียงเชิงบวกไว้ (นอกจากว่าจะใช้คำสั่งให้วิพากษ์วิจารณ์ ซึ่งผลลัพธ์ก็ยังมีความเป็นบวกอยู่ดี)
ทั้งนี้ทางเราเองก็มองว่า AI ไม่ได้มีเจตนาโดยตรงที่จะ ‘ป้อน Ego’ ให้เรา แต่เป็นผลข้างเคียงจากอัลกอริทึมที่ออกแบบมาเพื่อตอบสนองความพึงพอใจของผู้ใช้ เช่น การปรับแต่งเนื้อหาให้ตรงใจ (Personalization) เพื่อให้ผู้ใช้ใช้งานนานขึ้น หรือการตอบคำถามให้ตรงประเด็นมากที่สุด (ฉะนั้น ถ้าอยากจะถามคำถามที่ไม่มีคำตอบตายตัว อย่าลืมรีเช็กข้อมูลนะ เพราะแชตบอตหลาย ๆ เจ้าก็แอบใส่หมายเหตุไว้เล็ก ๆ อยู่แล้วว่าควรรีเช็กข้อมูลด้วย)
ผลกระทบเชิงจิตวิทยาจากการถูก AI ส่งเสริม Ego
พูดถึงความน่าจะเป็นของ AI และการส่งเสริม Ego มาเยอะแล้ว มาดูเรื่องผลกระทบกันบ้าง ปัจจุบันนอกจากการใช้ AI ค้นหาข้อมูลและการดูดวงแล้ว ประเด็นที่น่าสนใจอีกหนึ่งประเด็นก็คือการ ‘ระบายอารมณ์และความรู้สึกผ่านแชตบอต AI’ แน่นอนว่าเมื่อมีปัญหาชีวิต อยากหาทางออกแต่ไม่รู้ต้องไปปรึกษาใคร การระบายกับ AI ถึงเป็นทางเลือกที่ไม่แย่เลย แถมหลายคนก็ยังรู้สึกดีมาก ๆ ด้วย เพราะ AI สามารถให้คำปรึกษาได้ดีไม่แพ้นักจิตวิทยาเลย (ก็แหงล่ะ ข้อมูลเยอะขนาดนั้น) ทั้งนี้ทั้งนั้นการกระทำแบบนี้อาจส่งผลกระทบหลายส่วนด้วยกัน ซึ่งวันนี้เราก็หยิบมาสองประเด็น นั่นคือ
1. ผลกระทบต่อความสัมพันธ์ของคนรอบข้าง
ก่อนหน้าที่เราจะมีมือถือหรือโซเชียลมีเดีย (ถ้าทัน) จะเห็นได้ชัดเลยว่าปฏิสัมพันธ์ต่อคนรอบข้างนั้นค่อนข้างดีกว่ามาก จนกระทั่งเกิดกระแส ‘สังคมก้มหน้า’ ที่ตอนแรกฟังดูเหมือนจะไม่มีปัญหาอะไร แต่หารู้ไม่ว่าทำให้นำไปสู่การสื่อสารที่น้อยลงภายในครอบครัว และคนรอบข้าง และส่งผลเป็นวงกว้างในสังคม ซึ่งการใช้ AI มากเกินไป ก็อาจนำไปสู่ประเด็นเดียวกันได้ อย่างไรก็ตามในส่วนของ AI อาจมีความซับซ้อนและลึกกว่านั้น เพราะความน่ากลัวคือ AI ไม่เพียงแต่ส่งเสริมข้อมูล แต่ยังสามารถส่งเสริมด้านอารมณ์ของมนุษย์ได้ด้วย
จากผลการวิจัยของ MIT ชี้ว่า แชตบอต AI โดยเฉพาะแบบเสียง นับวันยิ่งเหมือนคนมากขึ้นเรื่อย ๆ จนผู้คนหันมาหา AI เพื่อระบายความรู้สึกและเป็นเพื่อนคลายเหงามากขึ้น แต่พอถึงจุดหนึ่ง หลายคนก็เริ่มมีความกังวลกันแล้วว่า การคุยกับ AI มาก ๆ แบบนี้ จะส่งผลกระทบต่อความเหงาและการเข้าสังคมกับคนจริง ๆ ของเราหรือเปล่านะ ?
จึงได้ทำการทดลอง 4 สัปดาห์ (ผู้เข้าร่วม 981 คน ส่งข้อความกว่า 300,000 ข้อความ) เพื่อศึกษาว่ารูปแบบการโต้ตอบ (ข้อความ, เสียงปกติ, เสียงมีอารมณ์) และหัวข้อสนทนา (ทั่วไป, ไม่ส่วนตัว, ส่วนตัว) ส่งผลต่อความเหงา การพึ่งพาอารมณ์ การใช้แชตบอตเกินควร และการเข้าสังคมอย่างไร
ได้ผลลัพธ์ต่อไปนี้
ในตอนแรกแชตบอตที่ใช้เสียงดูเหมือนจะมีประโยชน์ในการลดความเหงาและการเป็นที่พึ่งได้ดี เมื่อเทียบกับแชตบอตแบบข้อความ อย่างไรก็ตาม ข้อดีเหล่านี้จะลดลงเมื่อมีการใช้งานในระดับสูง โดยเฉพาะอย่างยิ่งกับแชตบอตที่มีน้ำเสียงเป็นกลาง
ประเภทของการสนทนายังส่งผลต่อผลลัพธ์ด้วย แบ่งเป็นสองหัวข้อ ดังต่อไปนี้
- หัวข้อส่วนตัว : มีแนวโน้มที่จะเพิ่มความเหงาเล็กน้อย แต่กลับลดการพึ่งพิงทางอารมณ์ได้ เมื่อเทียบกับการสนทนาแบบปลายเปิดทั่วไป
- หัวข้อที่ไม่ใช่เรื่องส่วนตัว : จะเกี่ยวข้องกับการพึ่งพาที่สูงขึ้น
โดยรวมแล้ว การใช้งานรายวันที่สูงขึ้น ไม่ว่าจะผ่านช่องทางใดหรือประเภทการสนทนาแบบใด ก็ล้วนมีความเกี่ยวข้องกับความเหงาที่สูงขึ้น การพึ่งพาที่สูงขึ้น การใช้งานที่มีปัญหามากขึ้น และแน่นอนว่าส่งผลต่อการเข้าสังคมที่ลดลงได้
การวิเคราะห์เชิงสำรวจยังเผยให้เห็นว่า ผู้ที่มีแนวโน้มยึดติดทางอารมณ์สูงขึ้น และมีความไว้วางใจในแชตบอต AI สูงขึ้น มักจะขี้เหงาและต้องการพึ่งพิงทางอารมณ์ที่มากขึ้นตามลำดับด้วย
2. ผลกระทบต่อการมี Ego ที่สูง
เคยได้ยินคำว่า ‘คนมี Ego สูง’ บ้างไหม การเป็นคนมี Ego หรือเป็นคน Ego สูง คือการอธิบายลักษณะคนที่ไม่เชื่อฟังความคิดเห็นของคนอื่น เชื่อฟังแต่ความคิดเห็นของตัวเอง และเป็นหนึ่งในปัจจัยสำคัญที่เกิดจากการยึดติดกับความเชื่อของตัวเองมากเกินไป ซึ่งหาก AI ยังส่งเสริม Ego อยู่ ก็อาจทำให้เกิดผลกระทบนี้ได้ ผลลัพธ์ที่ตามมาคือ
- การตัดสินใจผิดพลาด : เมื่อ Ego ถูกหล่อเลี้ยงด้วยข้อมูลที่ยืนยันความเชื่อเดิมอยู่ตลอด ผู้ใช้อาจมองข้ามข้อมูลที่ขัดแย้ง หรือไม่ได้พิจารณาทางเลือกอื่น ๆ อย่างรอบคอบ ซึ่งนำไปสู่การตัดสินใจที่ผิดพลาดได้ง่ายขึ้น เปรียบเสมือนการขับรถอ้อมโลกเพื่อพิสูจน์ว่าตัวเองมาถูกทางแล้ว ทั้งที่รู้ว่าจำทางผิด
- ความมั่นใจเกินเหตุ (Overconfidence) : การที่ AI คอยสนับสนุนทำให้ผู้ใช้งานมีความมั่นใจในความคิดเห็นของตนเองมากเกินไป โดยไม่ได้มีการท้าทายจากมุมมองภายนอก ทำให้ขาดการเรียนรู้จากความผิดพลาด และไม่เปิดรับข้อมูลใหม่ ๆ ที่อาจเป็นประโยชน์
- การลดทอนการคิดเชิงวิพากษ์ : การพึ่งพา AI ที่คอยแต่จะยืนยันความคิดของเรา อาจทำให้ทักษะการคิดเชิงวิพากษ์ (Critical Thinking) ของเราอ่อนแอลง เพราะเราไม่จำเป็นต้องตรวจสอบข้อมูลหรือตั้งคำถามกับความคิดของตัวเองมากเท่าเดิม
- ความเสี่ยงในสถานการณ์สำคัญ : ในบริบทที่ต้องการการตัดสินใจที่แม่นยำ เช่น ในสายงานสุขภาพ การเงิน หรือกฎหมาย หากผู้ใช้พึ่งพา AI ที่เสริม Ego โดยไม่ตรวจสอบข้อมูลอย่างถี่ถ้วน อาจนำไปสู่ข้อผิดพลาดร้ายแรงได้
สุดท้ายแล้วอาจเป็นมนุษย์เองที่กลัวโดนทำลาย Ego ?
เรามองว่า เหตุผลที่ AI อาจถูกออกแบบมาให้มีน้ำเสียงเชิงบวกและมีแนวโน้มที่จะซัปพอร์ตความคิดเห็นของเรา อาจเป็นเพราะลึก ๆ แล้วมนุษย์เราเองนี่แหละที่กลัวว่า Ego ของตัวเองจะถูกทำลาย หรือกลัวว่า AI จะเข้ามาแย่งบทบาทและความสำคัญของเราไป
- ความกลัวการถูกแทนที่ : แม้ในปัจจุบันที่ AI มักจะแสดงท่าทีเข้าข้างหรือสนับสนุนความคิดเห็นของเรา หลายคนก็ยังมีความรู้สึกกังวลว่า AI จะเข้ามาแย่งงาน หรือทำให้บทบาทของมนุษย์ลดน้อยลงในโลกของการทำงาน
หาก AI ถูกสร้างมาให้ “เป็นกลาง” อย่างแท้จริง ไม่ให้การซัปพอร์ตไอเดียของเรา หรือแม้แต่โต้แย้งอย่างตรงไปตรงมาบ่อยครั้ง ความรู้สึกว่า “AI กำลังมาแย่งงานเรา” หรือ “AI กำลังฉลาดกว่าเรา” อาจจะยิ่งทวีความรุนแรงขึ้น และกระทบกระเทือนต่อความมั่นใจในตนเอง (Ego) ของมนุษย์อย่างรุนแรง - การปกป้อง Ego : Ego ของมนุษย์เรามักจะต้องการการยืนยันและการอนุมัติ (Validation) เพื่อคงไว้ซึ่งความรู้สึกมีคุณค่าและมั่นคงในตัวเอง หาก AI ซึ่งเป็นเทคโนโลยีที่ทรงอิทธิพลถูกสร้างมาให้วิพากษ์วิจารณ์ หรือไม่เห็นด้วยกับความคิดของเราอยู่เสมอ อาจทำให้มนุษย์รู้สึกว่าตนเอง “ไม่เก่งพอ”, “ไม่ฉลาดพอ” หรือ “ไม่ได้รับการยอมรับ” ซึ่งเป็นการทำลายอัตตา และอาจนำไปสู่การต่อต้าน AI มากยิ่งขึ้น
- ความสบายใจในการใช้งาน : การที่ AI ให้คำตอบที่เราชอบ หรือยืนยันความคิดเห็นของเรา ทำให้การใช้งานเป็นไปอย่างราบรื่นและน่าพึงพอใจ ผู้ใช้งานรู้สึกว่า AI “เข้าใจ” และ “สนับสนุน” ซึ่งเป็นการสร้างประสบการณ์ที่ดี ทำให้คนอยากใช้ AI ต่อไป
ในทางกลับกัน หาก AI ถูกสร้างมาให้ “เป็นกลาง” โดยสิ้นเชิง และมักจะชี้ให้เห็นถึงข้อผิดพลาดหรือข้อจำกัดในความคิดของเราอยู่ตลอดเวลา ก็อาจทำให้ผู้ใช้งานรู้สึกไม่สบายใจ และไม่อยากโต้ตอบด้วยอีกต่อไป
ดังนั้น จึงมีความเป็นไปได้สูงว่า AI ถูกออกแบบมาให้สนับสนุน Ego ของมนุษย์ เพราะผู้สร้างอาจตระหนักดีว่า หาก AI ถูกสร้างมาเพื่อ “เป็นกลาง” จริง ๆ โดยไม่ประนีประนอมกับอัตตาของมนุษย์เลยแม้แต่น้อย สิ่งนี้อาจนำไปสู่การที่ Ego ของมนุษย์ถูกทำลาย และเกิดการต่อต้านเทคโนโลยีในวงกว้างได้ แล้วคุณล่ะ คิดยังไง ?