หากติดตามข่าวสารด้าน AI ในช่วงหลังมานี้ เชื่อว่าหลายคนน่าจะได้เห็นความก้าวหน้าของเทคโนโลยีที่พัฒนาไปอย่างก้าวกระโดด โดยเฉพาะความสามารถในการสร้าง (Generate) ภาพของ AI โมเดลต่าง ๆ ที่ทำได้เหมือนจริงจนแทบแยกไม่ออก โดยเฉพาะ ‘Nano Banana Pro’ ที่ปัจจุบันสามารถสร้างภาพออกมาได้สมจริงอย่างไร้ที่ติ เรียลจนล่าสุดมีคนนำไปสร้างเป็นภาพบัตรประชาชนออกมาได้แล้ว !

นอกจากนี้ ไม่เพียงแค่บัตรประชาชนเท่านั้น แต่ยังรวมถึงพาสปอร์ต เอกสารธนาคาร หรือเอกสารสำคัญประเภทอื่น ๆ ก็สามารถสร้างออกมาได้เนียนตา แม้ในรายละเอียดอาจจะไม่เหมือนของจริง 100% แต่ถ้าไม่สังเกตดี ๆ ก็อาจจะเผลอเชื่อว่าเป็นของจริงได้ง่าย ๆ เลย
AI สร้างเอกสารยืนยันตัวตนได้ ส่งผลกระทบต่อธุรกิจอย่างไร ?
ธุรกิจที่ขับเคลื่อนด้วยระบบดิจิทัล โดยเฉพาะ E-commerce, ธนาคาร และ Fintech ที่พึ่งพาระบบการยืนยันตัวตนผ่านรูปภาพ กำลังเผชิญกับความท้าทายครั้งใหญ่ เมื่อเทคโนโลยีการสร้างภาพและวิดีโอสังเคราะห์มีความสมจริงจนน่าตกใจ
กรณีศึกษาที่น่ากังวลคือ กลุ่มมิจฉาชีพเริ่มนำภาพนิ่งของบุคคลมาประมวลผลผ่าน AI เพื่อสร้างเป็นคลิปวิดีโอสั้น ๆ ที่มีการขยับดวงตาหรือขยับปาก เพื่อหวังตบตาระบบ KYC (Know Your Customer) ของสถาบันการเงิน แม้ปัจจุบันระบบตรวจจับอาจยังพอป้องกันได้ แต่ด้วยวิวัฒนาการของ Generative AI ที่รวดเร็ว ความเสี่ยงที่ระบบจะถูกเจาะผ่านได้ในอนาคตจึงมีความเป็นไปได้สูงมาก

โมเดล AI รุ่นใหม่ ๆ อย่าง Nano Banana Pro เอง ที่สามารถสร้างภาพบุคคลและเอกสารราชการได้ค่อนข้างแนบเนียน ทั้งเรื่องแสง เงา และองค์ประกอบภาพ จนมองด้วยตาเปล่าแทบแยกไม่ออก ส่งผลให้ธุรกิจที่ต้องตรวจสอบเอกสารผ่านการอัปโหลดรูปภาพ มีความเสี่ยงที่จะตกเป็นเหยื่อของการฉ้อโกง (Fraud) ได้ง่ายขึ้นกว่าเดิม
แต่ไม่ใช่แค่หน่วยงานหรือองค์กรขนาดใหญ่เท่านั้นที่เสี่ยง เพราะการซื้อขายออนไลน์ทั่วไป มักมีการส่งภาพบัตรประชาชนเพื่อยืนยันตัวตนก่อนโอนเงินหรือส่งสินค้า ความสามารถในการสร้างวิดีโอปลอม หรือรูปปลอมที่เนียนเหมือนคนถือบัตรประชาชนจริง ๆ เพื่อใช้ในการหลอกลวง จึงเป็นความเสี่ยงที่อาจพบได้มากขึ้น
หากเราลองนึกถึงกลุ่มที่เปราะบางต่อมิจฉาชีพที่สุด อย่างผู้สูงอายุที่ไม่รู้เท่าทันเทคโนโลยี อาจเกิดกรณีมิจฉาชีพแอบอ้างเป็นเจ้าหน้าที่ ด้วยการใช้ AI สร้างบัตรเจ้าหน้าที่ปลอม หรือสร้างวิดีโอปลอม (Deepfake) เพื่อหลอกลวงประชาชนให้หลงเชื่อได้ง่ายขึ้น
ควรมีกฎออกมาควบคุมประเด็นนี้โดยเฉพาะไหม ?
การพัฒนาของ AI แม้จะมีประโยชน์มหาศาล แต่ขณะเดียวกันก็อาจเป็นภัยต่อมนุษย์หากไม่มีการควบคุมที่เหมาะสม จริงไหม ?
แม้จะผ่านมาหลายปี แต่ AI ยังถือเป็นสิ่งใหม่สำหรับผู้คนและโลกใบนี้ ซ้ำยังพัฒนาขึ้นเรื่อย ๆ อย่างรวดเร็ว หากไม่เร่งสร้างกฎหมายหรือข้อกำหนดให้ครอบคลุมการใช้ความสามารถของ AI ตั้งแต่ตอนนี้ การจะกลับไปตีกรอบและควบคุมย้อนหลังอาจทำได้ยาก และขอบเขตจะยิ่งกว้างขึ้นเรื่อย ๆ
รวมถึงข้อกำหนดในการควบคุมการสร้างหรือพัฒนาความสามารถ AI ที่จะเกิดขึ้นในอนาคต เพราะปัจจุบันการสร้าง AI นั้นยังไม่มีกฎหมายกำกับดูแลโครงสร้างและการใช้งานโดยตรง แม้จะเริ่มมีการพูดถึงในบางประเทศ แต่ส่วนใหญ่ยังคงเป็นเรื่องที่เกี่ยวข้องกับลิขสิทธิ์เป็นหลัก
ซึ่งเอาจริง ๆ แล้ว เพื่อจำกัดความเสียหายที่อาจเกิดขึ้นจากการใช้ AI ผิดวิธี เราอาจจำเป็นต้องมีกฎหมายควบคุมที่เข้มงวดคล้ายกับ ‘อาวุธปืน’ ที่มีการระบุรายละเอียดการครอบครองและการใช้งานที่ชัดเจน
หากผลกระทบในระดับทั่วไปอาจยังไม่เห็นภาพชัดพอ เราขอเล่าหนึ่งในเคสที่สั่นสะเทือนวงการธุรกิจที่สุด กรณีพนักงานบัญชีของบริษัทข้ามชาติแห่งหนึ่งในฮ่องกง ถูกมิจฉาชีพหลอกให้โอนเงินกว่า 25 ล้านเหรียญสหรัฐฯ (ประมาณ 900 ล้านบาท)
เหตุการณ์นี้เกิดขึ้นหลังจากพนักงานถูกเชิญเข้าร่วม Video Conference ที่มีทั้งใบหน้าและเสียงของ CFO (ประธานเจ้าหน้าที่ฝ่ายการเงิน) รวมถึงเพื่อนร่วมงานคนอื่น ๆ อยู่ในสาย ซึ่งทุกคนคือ Deepfake ที่ถูก AI สร้างขึ้นมาแบบเรียลไทม์ มีเพียงพนักงานผู้เสียหายคนเดียวที่เป็นมนุษย์จริงในห้องประชุมนั้น ความสมจริงทำให้เขาเชื่อสนิทใจและโอนเงินออกไป
จากเหตุการณ์นี้สะท้อนให้เห็นว่า เราไม่อาจผลักภาระให้ผู้ใช้งานระมัดระวังตัวเพียงฝ่ายเดียวได้อีกต่อไป ภาครัฐและหน่วยงานกำกับดูแลจำเป็นต้องมีบทบาทในการออกกฎหมายควบคุมการใช้ AI ในทางที่ผิด รวมถึงกำหนดมาตรฐานเทคโนโลยีที่สามารถแยกแยะ ‘มนุษย์จริง’ ออกจาก ‘มนุษย์สังเคราะห์’ ให้ได้อย่างเด็ดขาด ก่อนที่ความเสียหายจะขยายวงกว้างไปมากกว่านี้
เราพร้อมรับมือแค่ไหนในยุค Digital Trust แบบใหม่ ?
จากภัยคุกคามของ AI ที่ปลอมแปลงได้ตั้งแต่เอกสารไปจนถึงตัวตนในการประชุมระดับองค์กร นำเรามาสู่คำถามที่สำคัญที่สุดในนาทีนี้ ‘เราพร้อมแค่ไหนในการรับมือกับนิยามใหม่ของ Digital Trust ?’
Digital Trust ในยุคก่อนอาจหมายถึงระบบที่เสถียร หรือเว็บไซต์ที่ปลอดภัย แต่ในยุค AI นิยามนี้เปลี่ยนไปอย่างสิ้นเชิง มันคือเรื่องของการค้นหาความจริง (Authenticity) ของสิ่งที่เรากำลังเห็นอยู่ ว่ารูปบัตรนี้จริงไหม ? รูปเอกสารชิ้นนี้ออกจากหน่วยงานที่เกี่ยวข้องจริงรึเปล่า ?
เรากำลังเข้าสู่ยุคที่ต้องตั้งคำถามกับทุกคอนเทนต์ว่า ‘นี่คือของจริงไหม ?’ เป็นมนุษย์จริง หรือเป็นสิ่งที่ AI สังเคราะห์ขึ้น เมื่อความไว้ใจแบบเดิมใช้ไม่ได้ผล ธุรกิจและภาคประชาชนต้องปรับ Mindset เข้าสู่โหมด Zero Trust คือไม่ไว้ใจสิ่งใดเลยจนกว่าจะได้รับการพิสูจน์
ภาคธุรกิจอาจต้องยกเครื่องระบบ KYC จากเดิมที่ใช้เพียงภาพและวิดีโอในการยืนยันตัวตน มาเป็นการตรวจจับที่ซับซ้อนมากขึ้น ส่วนภาคประชาชนอาจต้องมีรูปแบบการยืนยันตัวตนที่ละเอียดและรัดกุมขึ้น จน AI ไม่สามารถปลอมแปลงได้
ความพร้อมในวันนี้อาจไม่ใช่แค่เรื่องของเทคโนโลยี แต่คือ ‘ความรู้เท่าทัน’ หากกฎหมายยังตามไม่ทัน และเครื่องมือตรวจสอบยังเข้าไม่ถึงคนทั่วไป สังคมจะอยู่ในจุดที่เปราะบางที่สุด ดังนั้น การนิยาม Digital Trust ใหม่ จึงไม่ใช่แค่หน้าที่ของโปรแกรมเมอร์ หรือผู้พัฒนาซอฟต์แวร์คนใดคนหนึ่ง แต่เป็นวาระเร่งด่วนที่ทุกคนต้องตระหนัก ก่อนที่เส้นแบ่งระหว่างความจริงกับความลวงจะเลือนหายไปจนแยกไม่ออก