
Apple telah membentangkan pelan untuk membantu dalam membendung penderaan kanak-kanak atau dikenali sebagai Child Sexual Abuse Material (CSAM).
Dalam perancangan ini, syarikat tersebut akan menambah fungsi terbaru yang boleh mengesan CSAM pada gambar yang ada pada iCloud Photos pengguna. Sekiranya ia mengesan sebarang gambar yang seakan-akan kegiatan tersebut maka ia Akan dihantar pada Apple dan membolehkan pekerja mereka melihat dan menilai gambar tersebut. Sekiranya ia benar, maka akan dilaporkan kepada pihak berkuasa.
Namun pekara ini menjadi perbincangan kepada peminat, penyokong dan info broker dimana Apple mengambil keputusan untuk mendedahkan maklumat dan gambar pengguna? Kerana ia menentang konsep privasi yang dibawa oleh mereka bertahun-tahun. Sistem ini juga dikatakan akan mengesan isu pedofilia.
