Microsoft ปิดกันคำที่ใช้ป้อนคำสั่งบางคำสำหรับ Copilot เพื่อไม่ให้มีการสร้างภาพที่แสดงความรุนแรงหรือเนื้อหาทางเพศ หลังมีวิศวกรรายหนึ่งร้องเรียนไปยังคณะกรรมการโทรคมนาคมแห่งชาติของสหรัฐอเมริกา (FTC)

โดยมีการปิดกั้นคำที่จะทำให้ Copilot สร้างภาพเยาวชนถืออาวุธ หรือภาพต่อต้านการยุติการตั้งครรภ์อย่างาภาพปีศาจกินทารก เป็นต้น

หากมีการป้อนข้อความคำสั่งในลักษณะนี้ จะมีข้อความขึ้นว่า ‘คำป้อนนี้ถูกบล็อก ระบบของเราได้ห้ามคำป้อนนี้โดยอัตโนมัติเพราะอาจไปละเมิดนโยบายเนื้อหาของเรา’

ก่อนหน้านี้ เชน โจนส์ (Shane Jones) ผู้จัดการวิศวกรรม AI ของ Microsoft เขียนคำร้องไปยัง FTC เพื่อเตือนเจ้าหน้าที่รัฐเกี่ยวกับปัญหาความปลอดภัยเชิงระบบที่เกิดกับ Copilot โจนส์ระบุว่า Copilot มักจะสร้างภาพผู้หญิงที่แสดงออกทางเพศ แม้ว่าคำป้อนจะไม่ได้ส่อไปทางนั้นก็ตาม

ยกตัวอย่างเช่น คำป้อนว่า ‘Car accident’ (อุบัติเหตุจากรถยนต์) จะแสดงเป็นภาพผู้หญิงในชุดชั้นนำคุกเข่าลงต่อหน้ายานพาหนะ