เคยสังเกตกันมั้ย ? บนโซเชียลมีเดียเหมือนมีลิสต์คำลับที่เราพูดตรง ๆ ไม่ได้ โดยอาจใช้คำอื่นเพื่อแทนความหมายของคำที่เราต้องการจะสื่อ ยิ่งในช่วงหลัง ๆ เราอาจได้ยินคำว่า ‘เลี่ยงบาลี’ กันมากขึ้น เราจึงเห็นคำแปลก ๆ บนโซเชียลฯ เช่น แทนที่จะพูดว่า “ฆ่า” ก็พูดว่า “อูนอไลฟ์” (Unalived) หรือแทนที่จะพูดถึงปืน ก็เรียกมันว่า “ปิ้ว ๆ” (Pew Pews) ชาวเน็ตเองก็ยอมรับว่าพูดแบบนี้แล้วดูตลก และออกจะไร้สาระไปหน่อย แต่หลายคนก็บอกว่า ทำไงได้ ไม่มีทางเลือก
ภาษาและคำเหล่านี้เรียกว่า “Algospeak” มันคือภาษาลับที่เราสร้างขึ้นมา เพราะเราเชื่อสุดใจว่า “อัลกอริทึม” (ระบบ AI ที่คุมฟีดเราอยู่) มันจะกดโพสต์ของเราไว้ไม่ให้ใครเห็น หรือลดการมองเห็นลง (เรียกง่าย ๆ ว่า “โดนปิดกั้น” หรือ “โดนแบน”) ถ้าเราดันใช้คำต้องห้าม หรือพูดในสิ่งที่พวกบริษัทโซเชียลฯ ไม่อยากให้พูด ไม่ว่าจะด้วยเหตุผลด้านความปลอดภัยบนแพลตฟอร์ม การคัดกรองเนื้ออ่อนไหว หรืออาจมาจากความต้องการดันวาระของตัวแพลตฟอร์ม หรือแค่จะล้างฟีดให้ดูสะอาดตาเข้าไว้ เพื่อให้กลายเป็นพื้นที่โฆษณาก็ตาม
แต่พวกพี่ ๆ บริษัทบิ๊กเทคฯ อย่าง YouTube, Meta (Facebook/IG) หรือ TikTok ก็สาบานว่า “เรื่องเหล่านี้ไม่เป็นจริง ไม่มีลิสต์คำต้องห้าม” โฆษกของ YouTube บอกชัดเจนเลยว่า “นโยบายของเรามันซับซ้อน เพราะประเมินจากบริบทและความหมายของเนื้อหาด้วย” พวกเขายืนยันว่าถ้าทำจริง ป่านนี้แพลตฟอร์มคงไม่หลากหลายขนาดนี้หรอก สรุปคือพวกเขาบอกว่า “มันเป็นแค่เรื่องเล่าในตำนาน”
แต่ความจริงมันก็…ซับซ้อน
ในอดีตที่ผ่านมา เราเห็นตัวอย่างเยอะแยะไปหมด ว่าบริษัทผู้ให้บริการโซเชียลมีเดียมักเล่นตุกติกกับผู้ใช้งานอยู่เสมอด้วยเหตุผลบางอย่าง และเข้ามามีส่วนจัดการว่าคอนเทนต์ไหนจะปัง คอนเทนต์ไหนจะแป้ก ซึ่งมีทั้งที่ออกประกาศอย่างเป็นทางการ และส่วนที่ผู้ใช้งานโซเชียลมีเดียสังเกตและเก็บข้อมูลมาได้ นั่นทำให้ขัดกับที่ตัวแพลตฟอร์มพูดเรื่องความโปร่งใสและเป็นกลาง ผู้เชี่ยวชาญก็คอนเฟิร์มนะว่า ถึงมันจะไม่ใช่แค่คำเดียวเป๊ะ ๆ แต่พวกพี่บิ๊กเทคฯ ก็มีการ “แทรกแซงแบบเนียน ๆ” เพื่อลดเนื้อหาบางอย่างจริง
ปัญหาที่โคตรจะปวดหัวคือ เราไม่มีทางรู้เลยว่าทำไมโพสต์เราถึงพัง เพราะดันไปใช้คำที่อัลกอริทึมไม่ปลื้มหรือเปล่า หรือเพราะวิดีโอที่เราทำมันห่วยแตกเอง ? ความคลุมเครือเนี่ยแหละที่ทำให้เกิดปรากฏการณ์ที่เรียกว่า “เซนเซอร์ตัวเอง” (Self-Censorship) ในวงกว้างมาก ๆ ผลก็คือคนต้องมานั่งพูดเรื่องโคตรจะจริงจังด้วยภาษาที่โคตรจะติงต๊อง แต่ในมุมที่หนักข้อสุด ๆ คือเหล่าครีเอเตอร์ที่อยากจะ “ไวรัล” (Viral) ก็ต้องเลือกที่จะไม่แตะประเด็นเสี่ยง ๆ ไปเลย ในเมื่อโซเชียลฯ กลายเป็นแหล่งข่าวหลักของคนรุ่นใหม่ การเซนเซอร์ตัวเองแบบนี้อาจแปลว่า มีบางเรื่อง บางความคิด ที่อาจไม่ถูกสื่อสารออกไปอย่างตรงไปตรงมา
Algospeak เลี่ยงบาลี หนีทัวร์ลง
สำหรับชาวไทยเราเนี่ย ปรากฏการณ์นี้มันยิ่งทวีความแซ่บ เพราะการเลี่ยงคำของเราไม่ได้แค่หนี “อัลกอริทึมต่างชาติ” อย่างเดียว แต่ยังต้องหนี “ทัวร์ลง” และ “กฎหมายจริง” ในชีวิตจริงด้วย คำศัพท์ใหม่ ๆ ในไทย เรามีคำรหัสที่เราเข้าใจกันดีอยู่แล้ว เช่น พูดถึงประเด็นละเอียดอ่อนด้วยการใช้ฉายา (แบบที่ต้องตีความกันเอง) หรือการเรียกชื่อสถานที่แทนตัวบุคคลสำคัญ การพูดแบบนี้ทำให้รอดจากการโดนแบนหรือโดนรายงานโดยระบบได้ง่ายกว่าการพูดตรง ๆ แบบวัฒนธรรม “แซะ” ซึ่งคนไทยเราเก่งเรื่องการประชดประชัน การพูดจิกกัด การใช้ Algospeak เลยเข้าทางเลย เหมือนเป็นการ “แซะแบบมีศิลปะ” ที่คนในรู้กัน แต่ระบบไม่รู้ (และบางทีคนนอกก็ไม่รู้ด้วย)
ลองดูเคสของ อเล็กซ์ เพิร์ลแมน (Alex Pearlman) (ไอ้หนุ่มคอนเทนต์) ที่ตามกัดเจฟฟรีย์ เอปสตีน (Jeffrey Epstein) (นักการเงินสายเสื่อม) เขาเล่าว่า จู่ ๆ วิดีโอเกี่ยวกับเอปสตีนก็โดน TikTok ลบเรียบในวันเดียว ในขณะที่ IG กับ YouTube ไม่เป็นไรเลย เขาเลยต้องเปลี่ยนกลยุทธ์ โดยสลับไปใช้คำว่า “The Island Man” หรือ “ไอ้หนุ่มเกาะ” แทน (เพราะเอปสตีนมีเกาะส่วนตัวสุดฉาว) นี่แหละคือปัญหา ระบบไม่บอกว่าผิดตรงไหน ทำให้เราต้องเดาเอาเองว่า “Black Box” มันต้องการอะไร และถึงแม้เพิร์ลแมนจะเลี่ยงไปใช้ภาษาลับแล้ว แต่เขาก็ยอมรับว่า “ปัญหาคือคนดูจำนวนมากจะไม่รู้ว่ามึงกำลังพูดถึงใครอยู่ไง” ก็เท่ากับว่าสาระมันลดลงไปอีก
หลักฐานมัดตัว : เคยมีเอกสารหลุดเมื่อปี 2019 ที่แฉว่า TikTok สั่งให้ทีมงานลดความสำคัญของคอนเทนต์จากผู้ใช้ที่ ไม่สวย/หล่อ, จน, พิการ หรือ LGBTQ+ โดยให้เหตุผลว่าพวกนี้ทำให้แพลตฟอร์มดู “ไม่หรูหรา” (Less fancy and appealing) แม้ TikTok จะบอกว่าเลิกทำไปแล้ว แต่…ก็น่าคิดนะ ?
ปุ่ม “ฮีตเตอร์” และ “คูลเลอร์” : ปี 2023 TikTok ยอมรับว่ามีปุ่มลับที่เรียกว่า “Heating button” ที่ใช้สำหรับดันวิดีโอที่เลือกสรรแล้วให้แมสขึ้นมาทันที เพิร์ลแมนเลยสรุปแบบง่าย ๆ เลยว่า “อ้าว ถ้าพวกมันมีปุ่ม ‘ดัน’ ก็แปลว่ามันต้องมีปุ่ม ‘กดให้แป้ก’ (Cooler button) ด้วยเหมือนกันสิ”
ปรากฏการณ์ที่พีกที่สุดคือการสร้าง “เรื่องโกหก” ขึ้นมาทั้งยวงเพื่อเลี่ยงอัลกอริทึม เมื่อปี 2025 ผู้คนบนโซเชียลฯ พากันโพสต์ถึง
- “เทศกาลดนตรีใหม่” ใน LA พูดถึงวงนั้นวงนี้สุดมัน แต่ความจริงคือไม่มีเฟสติวัลนี้เลย
- “เทศกาลดนตรี” เป็นรหัสลับที่โผล่มาแบบปุบปับ เพื่อสื่อถึงการประท้วงครั้งใหญ่ ต่อต้านตำรวจตรวจคนเข้าเมืองของสหรัฐฯ ชาวเน็ตเชื่อว่าบริษัทเทคฯ กำลังซ่อนข่าวการประท้วงนี้ พวกเขาเลยต้องใช้รหัสลับ
- “เรากำลังอยู่ในลอสแอนเจลิส แคลิฟอร์เนีย ที่กำลังเกิด ‘เทศกาลดนตรี’ ขึ้น” จอห์นนี พาลมาเดสซา (Johnny Palmadessa) (ครีเอเตอร์) พูดในวิดีโอ พร้อมเน้นคำนั้นเป็นพิเศษ “ใช่แล้ว เราต้องเรียกมันว่า ‘เทศกาลดนตรี’ เพื่อให้มั่นใจว่าอัลกอริทึมมันจะโชว์ ‘คอนเสิร์ตสวย ๆ’ นี้ให้พวกคุณดู ไม่งั้นวิดีโอก็จะโดนลบ”
ส่วนที่ตลกที่สุด คือ อดัม อเล็กซิก (Adam Aleksic) นักภาษาศาสตร์บอกว่า…จริง ๆ แล้วมันไม่มีหลักฐานเลยว่าบริษัทโซเชียลฯ ไปแบนข่าวการประท้วงนี้ จริง ๆ คือ TikTok อาจจะมีการจัดระเบียบไม่ให้คอนเทนต์การเมืองมันกองรวมกันเยอะเกินไป แต่ปกติมันก็ยอมให้ข่าวประท้วงผ่านอยู่แล้ว “‘เทศกาลดนตรี’ เนี่ย ส่วนใหญ่แล้วมันเกิดขึ้นจากที่คนเรา ‘ระวังตัวมากเกินไป’ เพราะไม่แน่ใจว่าอัลกอริทึมจะเซนเซอร์อะไรหรือไม่เซนเซอร์อะไร” อเล็กซิกว่าไว้
ที่ฮาคือ การใช้คำว่า ‘เทศกาลดนตรี’ ดันทำให้คนแห่เข้ามาดูวิดีโอเยอะมาก เพราะอยากจะรู้สึกเป็นส่วนหนึ่งของ “วงใน” ที่รู้รหัสลับไง มันเลยยิ่งไวรัลกว่าวิดีโอประท้วงปกติ และนี่แหละที่ทำให้คนยิ่งเชื่อว่า “การเซนเซอร์มันมีอยู่จริง” นักวิจัยเรียกมันว่า “จินตนาการทางอัลกอริทึม” (The Algorithmic Imaginary) คือคนเราเปลี่ยนพฤติกรรม เพราะเชื่อว่าอัลกอริทึมทำงานแบบนี้ และพฤติกรรมนั้นแหละดันไปปั้นให้อัลกอริทึมมันทำงานแบบที่เราเชื่อจริง ๆ มันวนลูปไปหมดเลย
สรุปง่าย ๆ
ซาราห์ ที. โรเบิตส์ (Sarah T. Roberts) อาจารย์จาก UCLA บอกว่า มันไม่ใช่เรื่องการเมืองหรอก แต่มันคือเรื่อง “เงิน” ล้วน ๆ บริษัทโซเชียลฯ ได้เงินจากโฆษณา ดังนั้นเป้าหมายของพวกเขาคือทำแอปฯ ให้คนติดหนึบ ใช้เยอะ ๆ เอาคอนเทนต์ที่ทำให้ลูกค้าโฆษณา (แบรนด์ดัง) สบายใจ ยัดใส่เข้าไป ทำทุกอย่างเพื่อไม่ให้รัฐบาลเข้ามาจุ้นจ้านเรื่องกฎหมาย การเปลี่ยนอัลกอริทึม หรือการตัดสินใจจะแบนใคร ไม่แบนใคร มันก็มาจากแรงจูงใจที่อยากจะทำกำไรนี่แหละ พวกเขาบอกว่าการกลั่นกรองเนื้อหาคือการสร้างสภาพแวดล้อมที่ปลอดภัย ซึ่งส่วนใหญ่ก็เป็นจริงนะ แต่ถ้าเมื่อไหร่ที่ผลประโยชน์ของผู้ใช้กับผลประโยชน์ของบริษัทมันสวนทางกัน…พวกเขาก็จะเลือกผลประโยชน์ของตัวเองนั่นแหละ
สุดท้ายนี้ อาจารย์โรเบิตส์ทิ้งคำถามไว้ให้เราคิดว่า “ถ้าคนเราไม่พอใจกับอะไรบางอย่างในสังคม การแสดงออกด้วยการ ‘มุดหัว’ อยู่ในแพลตฟอร์มที่กำลังได้กำไรจากความไม่พอใจและความเซ็งของเราเนี่ย…มันเป็นวิธีที่ดีที่สุดแล้วเหรอ ?” พวกเราในฐานะชาวเน็ต ควรเริ่มคิดได้แล้วว่า การสื่อสารกันด้วยรหัสลับไปเรื่อย ๆ เนี่ย มันใช่ทางที่เราอยากให้วาทกรรมในสังคมเราเป็นแบบนี้จริง ๆ หรือเปล่า?








