ฝ่ายขาย และการตลาด
085-848-2253[email protected]http://m.me/beartai
สมัครงาน/ฝึกงาน ติดต่อได้ที่
[email protected]
Read

กระแสต่อต้านหนัก Apple ยอมเลื่อนฟีเจอร์สแกนภาพโป๊ไปก่อน

Table of Content

เมื่อเดือนที่ผ่านมา Apple เปิดตัวฟีเจอร์สแกนภาพภาพโป๊เด็กใน iCloud Photos (CSAM) โดยบริษัทอ้างว่าเพื่อปกป้องสิทธิ์และความเป็นส่วนตัวของเด็ก แต่หลังประกาศเปิดตัวฟีเจอร์นี้แล้ว Apple ก็โดนกระแสต่อต้านมาอย่างหนักจน Apple บอกว่าขอเลื่อนการใช้งานจริงออกไปก่อน

แถลงการณ์ของ Apple

“เมื่อเดือนที่แล้วเราประกาศเปิดตัวเครื่องมือ/ฟีเจอร์ที่จะช่วยป้องกันเด็ก ๆ จากผู้ไม่หวังดีที่ใช้ประโยชน์จากภาพโป๊เหล่านั้น แต่ผลตอบรับจากลูกค้า กลุ่มผู้สนับสนุน นักวิจัย และกลุ่มอื่น ๆ ทำให้เราได้ตัดสินใจที่จะเลื่อนการเปิดใช้งานฟีเจอร์นี้ไปก่อน และใช้เวลาเพิ่มเติมเพื่อรวบรวมข้อมูลและปรับปรุงเครื่องมือข้างต้นก่อนที่จะนำมาใช้งานจริง”

เดิมทีฟีเจอร์นี้ถูกตั้งไว้ให้มาพร้อมกับ iOS 15, iPadOS 15 และ macOS Monterey ในช่วงปลายปีนี้ แต่หลังจากมีประกาศเลื่อนเปิดตัวฟีเจอร์นี้ก็ยังไม่สามารถทราบได้ว่า Apple จะเริ่มใช้ฟีเจอร์นี้เมื่อไหร่

อ้างอิง 9to5Mac

พิสูจน์อักษร : สุชยา เกษจำรัส

Highlight

“17 ปีที่จากไป แต่หัวใจยังเต้นตาม” ความประทับใจจากงาน LOVE LETTER to MJ

27/04/2026
Read More

เขย่าวงการ ! เปิดตัว “สมาคมคอนเทนต์ครีเอเตอร์ไทย” ดัน 9 ล้านชีวิตสู่ ‘อาชีพครีเอเตอร์’ มุ่งเป้ามูลค่าตลาดทะลุ 4.5 หมื่นล้าน

27/04/2026
Read More

โค้งสุดท้าย ! “โอม – ปอนด์” สร้างบิ๊กเซอร์ไพรส์ติวเข้ม 100 นักล่าฝัน True AF 2026 ก่อนชี้ชะตา 12 ตัวจริง 11 พ.ค. นี้ !

27/04/2026
Read More

How To ปรับโครงสร้างหนี้ กยศ. ออนไลน์ ทางรอดสุดท้ายก่อนโดนฟ้อง 5 ก.ค. นี้

27/04/2026
Read More

เปิดประวัติ Tim Berners-Lee : จากโปรเจกต์ ‘กำกวม’ สู่ตำนานผู้สร้าง WWW เปลี่ยนโลก

27/04/2026
Read More

เป้าใหม่ของ CHERY ก้าวข้าม ‘รถยนต์จีน’ สู่ยนตรกรรมระดับโลก ทาร์เก็ตกลุ่มครอบครัว ตอบโจทย์ไลฟ์สไตล์บนความปลอดภัย

26/04/2026
Read More

Related Content