ผู้บริหาร Microsoft เตือนภัยจาก Deepfakes ในอนาคตที่อาจสมจริงถึงขั้นที่ไม่มีทางจับได้

งานวิจัยชิ้นล่าสุดของ เอริก ฮอร์วิตซ์ (Eric Horvitz) ประธานเจ้าหน้าที่ฝ่ายวิทยาศาสตร์ของ Microsoft ในชื่อ ‘On the horizon: Interactive and compositional deepfakes’ คาดการณ์ไว้ว่าเทคโนโลยี Deekfakes ในอนาคตอาจพัฒนาไปไกลถึงขั้นที่ถูกนำมาใช้แบบเรียลไทม์ได้

Deepfakes คือการดัดแปลงคลิปวีดิโอโดยใช้ปัญญาประดิษฐ์ และ Machine Learning เพื่อสร้างคลิปวีดิโอที่ทำให้ดูเหมือนว่าคน ๆ หนึ่งพูดในสิ่งที่เขาไม่เคยพูดจริง ๆ ได้

ฮอร์วิตซ์เชื่อว่า Deepfakes ในอนาคตอาจก้าวหน้าไปจนถึงขนาดที่สามารถโต้ตอบกับผู้ใช้งานแบบเรียลไทม์ได้

นอกจากนี้ Deepfakes ในอนาคตอาจมีความสมจริงไปจนถึงขั้นที่สังเคราะห์ภาพประวัติศาสตร์ของเหตุการณ์โลกที่ไม่เคยเกิดขึ้นจริงได้ หรือที่เรียกว่า Synthetic history (ประวัติศาสตร์สังเคราะห์)

ยิ่งไปกว่านั้น ภาพ Deepfakes ที่สมจริงมากอยู่แล้วในปัจจุบัน อาจยิ่งมีความสมจริงยิ่งขึ้นจนเราไม่สามารถแยกแยะว่าภาพไหนจริงหรือปลอมได้อีกต่อไป รวมถึงยังอาจสามารถหลอกเครื่องมือตรวจจับข้อมูลเท็จที่ล้ำหน้าได้ด้วย

ที่มา TechRadar

พิสูจน์อักษร : สุชยา เกษจำรัส

เราใช้คุกกี้เพื่อพัฒนาประสิทธิภาพ และประสบการณ์ที่ดีในการใช้เว็บไซต์ของคุณ คุณสามารถศึกษารายละเอียดได้ที่ นโยบายความเป็นส่วนตัว และสามารถจัดการความเป็นส่วนตัวเองได้ของคุณได้เองโดยคลิกที่ ตั้งค่า

Privacy Preferences

คุณสามารถเลือกการตั้งค่าคุกกี้โดยเปิด/ปิด คุกกี้ในแต่ละประเภทได้ตามความต้องการ ยกเว้น คุกกี้ที่จำเป็น

อนุญาตทั้งหมด
Manage Consent Preferences
  • คุกกี้ที่จำเป็น
    Always Active

    ประเภทของคุกกี้มีความจำเป็นสำหรับการทำงานของเว็บไซต์ เพื่อให้คุณสามารถใช้ได้อย่างเป็นปกติ และเข้าชมเว็บไซต์ คุณไม่สามารถปิดการทำงานของคุกกี้นี้ในระบบเว็บไซต์ของเราได้

  • คุกกี้เพื่อการวิเคราะห์

    คุกกี้ประเภทนี้จะทำการเก็บข้อมูลการใช้งานเว็บไซต์ของคุณ เพื่อเป็นประโยชน์ในการวัดผล ปรับปรุง และพัฒนาประสบการณ์ที่ดีในการใช้งานเว็บไซต์ ถ้าหากท่านไม่ยินยอมให้เราใช้คุกกี้นี้ เราจะไม่สามารถวัดผล ปรังปรุงและพัฒนาเว็บไซต์ได้

บันทึก