Apple มีการเพิ่มเครื่องมือตรวจสอบเนื้อหาที่แสดงการล่วงละเมิดทางเพศต่อเด็ก (Child Sexual Abuse Material – CSAM) ใน iPhone และ iPad ที่ทำงานบน iOS 15 และ iPadOS 15 ในสหรัฐอเมริกา แต่เครื่องมือดังกล่าวจะไม่สามารถทำงานได้กับอุปกรณ์ที่มีการปิดฟีเจอร์ iCloud Photos
Apple สามารถสแกนหรือตรวจสอบอุปกรณ์ที่มีการอัพโหลดเนื้อหา CSAM ขึ้นไปเก็บยัง iCloud Photos และถ้าตรวจพบเนื้อหาดังกล่าว จะมีการปิดบัญชีผู้ใช้งานพร้อมส่งการแจ้งเตือนไปยังองค์กร National Center for Missing & Exploited Children ในสหรัฐอเมริกา ซึ่งนั่นหมายความว่า Apple จะไม่สามารถตรวจสอบเนื้อหา CSAM ที่เก็บอยู่ภายในอุปกรณ์ได้ ถ้าหากฟีเจอร์ iCloud Photos ถูกปิดการใช้งาน
การตรวจสอบเนื้อหา CSAM ทำให้นักวิจัยด้านความปลอดภัยออกมาแสดงความกังวลว่า Apple อาจจะขยายการตรวจสอบที่คล้ายกันกับเนื้อหาประเภทอื่นที่มีอาจมีผลกระทบทางการเมืองและความปลอดภัย อย่างไรก็ตาม ผู้ใช้งานที่กังวลเรื่องความเป็นส่วนตัวเกี่ยวกับความพยายามของ Apple ในการตรวจสอบคลังรูปภาพในอุปกรณ์ สามารถปิดใช้งาน iCloud Photos ได้
ที่มา – MacRumors