Infomalangraya.com –
Sebuah laporan baru mengungkapkan statistik yang mengkhawatirkan tentang masalah Discord dengan keselamatan anak. Selama enam tahun terakhir, Berita NBC mengidentifikasi 35 kasus orang dewasa dituntut atas tuduhan “penculikan, perawatan atau kekerasan seksual” yang diduga melibatkan komunikasi Perselisihan. Setidaknya 15 di antaranya telah menghasilkan pengakuan atau vonis bersalah, dengan “banyak lainnya” masih tertunda.
Wartawan juga menemukan 165 kasus lagi, termasuk empat jaringan kejahatan, di mana orang dewasa dituntut karena membagikan CSAM (materi eksploitasi seksual anak) melalui Discord atau diduga menggunakan situs tersebut untuk memeras anak-anak agar mengirimkan gambar grafis seksual diri mereka sendiri, sebuah praktik yang dikenal sebagai sextortion. Tindakan ilegal sering terjadi di komunitas tersembunyi dan ruang obrolan, menurut laporan tersebut.
Pencarian Google sederhana untuk “site:justice.gov Discord” menghasilkan sejumlah besar klik, banyak yang bersifat mengganggu. Dalam satu kasus diidentifikasi oleh Berita NBC“seorang remaja dibawa melintasi garis negara bagian, diperkosa dan ditemukan terkunci di gudang halaman belakang, menurut polisi, setelah dia dipersiapkan di Discord selama berbulan-bulan.”
“Apa yang kami lihat hanyalah puncak gunung es,” kata Stephen Sauer dari Pusat Perlindungan Anak Kanada Berita NBC. Dan ini bukan pertama kalinya Discord dikecam karena menangani keluhan pelecehan anak. Tahun lalu, CNN juga mengidentifikasi banyak insiden CSAM, dengan beberapa orang tua mengklaim bahwa Perselisihan hanya memberikan sedikit bantuan.
Awal tahun ini, Pusat Eksploitasi Seksual Nasional (NCOSE) mengeluarkan pernyataan berjudul “Discord Menanggapi Secara Tidak Jujur Bagaimana Menangani Materi Pelecehan Seksual Anak Setelah Dimasukkan ke Daftar Lusinan Kotor 2023.” Antara lain, disebutkan bahwa tautan CSAM telah diidentifikasi dan dilaporkan, tetapi masih tersedia di server Discord “selama dua minggu kemudian”. Ia menambahkan bahwa tindakan Discord dalam menanggapi masalah tersebut “terlalu pasif, gagal untuk mencari dan menghapus eksploitasi secara proaktif.” Itu merekomendasikan bahwa situs, yang saat ini memiliki lebih dari 150 juta pengguna, melarang anak di bawah umur “sampai diubah secara radikal.”
Dalam laporan transparansi baru-baru ini, Discord mengatakan “investasi dan prioritasnya dalam keselamatan anak tidak pernah sekuat ini,” menambahkan bahwa mereka menonaktifkan 37.102 akun dan menghapus 17.425 server karena pelanggaran keselamatan anak. VP kepercayaan dan keamanan perusahaan, John Redgrave, mengatakan kepada NBC News bahwa dia yakin pendekatan platform terhadap masalah ini telah meningkat sejak Discord membeli perusahaan moderasi AI Sentropy pada tahun 2021. Ia menggunakan beberapa sistem untuk secara proaktif mendeteksi CSAM dan menganalisis perilaku pengguna, dan Redgrave mengatakan bahwa menurutnya perusahaan sekarang secara proaktif mendeteksi sebagian besar materi yang telah “diidentifikasi, diverifikasi, dan diindeks”.
Namun, sistem saat ini tidak dapat mendeteksi materi atau pesan pelecehan seksual terhadap anak yang belum diindeks. Dalam ulasan server Discord yang dibuat selama sebulan terakhir, Berita NBC menemukan 242 yang menggunakan istilah tersamar tipis untuk memasarkan CSAM.
Perselisihan bukan satu-satunya perusahaan media sosial dengan masalah CSAM. Sebuah laporan baru-baru ini menemukan bahwa Instagram membantu “menghubungkan dan mempromosikan jaringan akun yang luas” yang dikhususkan untuk konten seks di bawah umur. Namun, Discord dilaporkan kadang-kadang mempersulit penegakan hukum, dalam satu kasus meminta pembayaran setelah Polisi Ontario memintanya untuk menyimpan catatan, menurut laporan itu. Engadget menghubungi Discord untuk memberikan komentar.