Infomalangraya.com –
telah dituduh tidak melaporkan prevalensi materi pelecehan seksual anak () di platformnya. National Society for the Prevention of Cruelty to Children (NSPCC), sebuah badan amal perlindungan anak di Inggris, mengatakan bahwa Apple hanya melaporkan 267 kasus dugaan CSAM di seluruh dunia ke National Center for Missing & Exploited Children (NCMEC) tahun lalu.
Jumlah tersebut tidak seberapa dibandingkan dengan 1,47 juta kasus potensial yang dilaporkan Google dan 30,6 juta laporan dari Meta. Platform lain yang melaporkan lebih banyak kasus potensial CSAM daripada Apple pada tahun 2023 termasuk TikTok (590.376), X (597.087), Snapchat (713.055), Xbox (1.537), dan PlayStation/Sony Interactive Entertainment (3.974). Setiap perusahaan teknologi yang berbasis di AS diharuskan untuk meneruskan setiap kasus CSAM potensial yang terdeteksi di platform mereka ke NCMEC, yang mengarahkan kasus-kasus tersebut ke lembaga penegak hukum terkait di seluruh dunia.
NSPCC juga mengatakan Apple terlibat dalam lebih banyak kasus CSAM (337) di Inggris dan Wales antara April 2022 dan Maret 2023 daripada yang dilaporkan di seluruh dunia dalam satu tahun. Lembaga amal tersebut menggunakan permintaan kebebasan informasi untuk mengumpulkan data tersebut dari kepolisian.
Sebagai yang pertama kali melaporkan klaim NSPCC, menunjukkan bahwa layanan Apple seperti iMessage, FaceTime, dan iCloud semuanya memiliki enkripsi end-to-end, yang menghentikan perusahaan untuk melihat konten yang dibagikan pengguna di dalamnya. Namun, WhatsApp juga memiliki E2EE, dan layanan tersebut melaporkan hampir 1,4 juta kasus dugaan CSAM ke NCMEC pada tahun 2023.
“Ada perbedaan yang mengkhawatirkan antara jumlah kejahatan gambar pelecehan anak di Inggris yang terjadi pada layanan Apple dan jumlah laporan global yang hampir dapat diabaikan tentang konten pelecehan yang mereka buat kepada pihak berwenang,” kata Richard Collard, kepala kebijakan daring keselamatan anak di NSPCC. “Apple jelas tertinggal dari banyak perusahaan sejenisnya dalam menangani pelecehan seksual anak padahal semua perusahaan teknologi seharusnya berinvestasi dalam keselamatan dan mempersiapkan peluncuran Undang-Undang Keselamatan Daring di Inggris.”
Pada tahun 2021, Apple akan menerapkan sistem yang akan memindai gambar sebelum diunggah ke iCloud dan membandingkannya dengan basis data gambar CSAM yang diketahui dari NCMEC dan organisasi lainnya. Namun, mengikuti para pendukung privasi dan hak digital, Apple akhirnya menghapus alat deteksi CSAM-nya sebelum akhirnya…
Apple menolak berkomentar atas tuduhan NSPCC, dan malah menunjuk Penjaga terhadap pernyataan yang dibuatnya saat mengesampingkan rencana pemindaian CSAM. Apple mengatakan bahwa mereka memilih strategi berbeda yang “memprioritaskan keamanan dan privasi [its] pengguna.” Perusahaan tersebut mengatakan pada bulan Agustus 2022 bahwa “anak-anak dapat dilindungi tanpa perusahaan menelusuri data pribadi.”