ปัญหาเรื่องของการโดน AI นำผลงานศิลปะ หรือรูปภาพไปเทรนด์โมเดล และทำรูปภาพซ้ำก็เป็นปัญหาที่เหล่าศิลปินกำลังปวดหัวอยู่ทุก ๆ วัน ล่าสุดมหาวิทยาลัยชิคาโกก็ได้ปล่อยเครื่องมือตัวใหม่ที่มีชื่อว่า Nightshade สามารถป้องกัน และโจมตี AI ที่ต้องการเลียนแบบภาพได้

โปรเจกต์ Nightshade เป็นโปรเจกต์ต่อเนื่องที่ถูกเปิดตัวเมื่อปีที่แล้วอย่าง Glaze เป็นผลงานของทีมนักวิจัยมหาวิทยาลัยชิคาโก เครื่องมือ Nightshade จะแตกต่างจาก Glaze ที่สามารถวางยาพิษใส่โมเดล AI ได้ ซึ่งชื่อของเครื่องมือก็ถูกตั้งตามชื่อของพืชพิษ Balladonna หรือ Deadly Nightshade

ตัวอย่างรูปภาพต้นฉบับ และรูปภาพที่ผ่านเครื่องมือ Nightshade

หลักการทำงานง่าย ๆ ของเครื่องมือ Nightshade ก็คือ จะเพิ่มโค้ดภายในรูปภาพที่ส่งผลต่อการเปลี่ยนรูปภาพเพียงเล็กน้อยจนสายตาของมนุษย์มองไม่เห็นความเปลี่ยนแปลงได้ แต่โมเดล AI ที่เห็นภาพดังกล่าวอาจจะเห็นรูปภาพอื่น ๆ แทรกซ้อนด้านในเช่น ภาพทุ่งหญ้าสีเขียวที่ตามนุษย์เห็นปกติแต่ AI มองเห็นรถยนต์ภายในรูปภาพ เมื่อ AI นำรูปภาพดังกล่าวไปใช้เทรนโมเดล หรือทำซ้ำก็จะไม่ได้รูปแบบของภาพต้นฉบับ และเทรนโมเดลผิดพลาดได้

ตัวอย่างผลลัพธ์โมเดล AI ที่ใช้รูปภาพผ่านเครื่องมือ Nightshade นำไปเทรน (500 ตัวอย่าง และ 1,000 ตัวอย่าง)

ในท้ายที่สุดอาจจะมีคำถามว่า Glaze และ Nightshade นั้นแตกต่างอย่างไร ทางด้านนักวิจัยได้บอกว่า Glaze ถูกออกแบบมาเพื่อปกป้องชิ้นงานศิลปะไม่ให้ AI นำไปทำซ้ำ และ Nightshade ออกแบบมาเพื่อโจมตี AI ที่ต้องการนำชิ้นงานไปเทรนโมเดล

ในอนาคตทีมนักวิจัยมหาวิทยาลัยชิคาโกจะออกเครื่องมือตัวใหม่ที่มีการรวมคุณสมบัติของเครื่องมือ Glaze และ Nightshade ไว้ในตัวเดียว

ที่มา : Nightshade, Paper Nightshade

พิสูจน์อักษร : สุชยา เกษจำรัส