Infomalangraya.com –
Perusahaan kecerdasan buatan terkemuka termasuk OpenAI, Microsoft, Google, Meta, dan lainnya telah bersama-sama berjanji untuk mencegah alat AI mereka digunakan untuk mengeksploitasi anak-anak dan menghasilkan materi pelecehan seksual terhadap anak (CSAM). Inisiatif ini dipimpin oleh kelompok keselamatan anak Thorn dan All Tech Is Human, sebuah organisasi nirlaba yang berfokus pada teknologi yang bertanggung jawab.
Janji dari perusahaan AI, kata Thorn, “menetapkan preseden terobosan bagi industri dan mewakili lompatan signifikan dalam upaya membela anak-anak dari pelecehan seksual seiring dengan terungkapnya fitur AI generatif.” Tujuan dari inisiatif ini adalah untuk mencegah pembuatan materi seksual eksplisit yang melibatkan anak-anak dan menghapusnya dari platform media sosial dan mesin pencari. Lebih dari 104 juta file yang diduga berisi materi pelecehan seksual terhadap anak-anak dilaporkan di AS pada tahun 2023 saja, kata Thorn. Dengan tidak adanya tindakan kolektif, AI generatif siap memperburuk masalah ini dan membebani lembaga penegak hukum yang sudah kesulitan mengidentifikasi korban sebenarnya.
Pada hari Selasa, Thorn dan All Tech Is Human merilis makalah baru berjudul “Safety by Design for Generative AI: Preventing Child Sexual Abuse” yang menguraikan strategi dan memberikan rekomendasi bagi perusahaan yang membuat alat AI, mesin pencari, platform media sosial, perusahaan hosting dan pengembang untuk mengambil langkah-langkah guna mencegah AI generatif digunakan untuk merugikan anak-anak.
Salah satu rekomendasinya, misalnya, meminta perusahaan untuk memilih kumpulan data yang digunakan untuk melatih model AI dengan hati-hati dan menghindari kumpulan data yang hanya berisi contoh CSAM tetapi juga konten seksual dewasa karena kecenderungan AI generatif untuk menggabungkan kedua konsep tersebut. Thorn juga meminta platform media sosial dan mesin pencari untuk menghapus tautan ke situs web dan aplikasi yang memungkinkan orang melakukan “ketelanjangan” gambar anak-anak, sehingga menciptakan materi pelecehan seksual anak baru yang dihasilkan oleh AI secara online. Banjirnya CSAM yang dihasilkan oleh AI, menurut makalah tersebut, akan mempersulit pengidentifikasian korban pelecehan seksual terhadap anak-anak karena akan meningkatkan “masalah tumpukan jerami” – sebuah referensi terhadap jumlah konten yang harus disaring oleh lembaga penegak hukum.
“Proyek ini dimaksudkan untuk memperjelas bahwa Anda tidak perlu angkat tangan,” kata wakil presiden ilmu data Thorn, Rebecca Portnoff kepada Jurnal Wall Street. “Kami ingin dapat mengubah arah teknologi ini sehingga dampak buruk yang ada dari teknologi ini dapat dihilangkan.”
Beberapa perusahaan, kata Portnoff, telah setuju untuk memisahkan gambar, video, dan audio yang melibatkan anak-anak dari kumpulan data yang berisi konten dewasa untuk mencegah model mereka menggabungkan keduanya. Pihak lain juga menambahkan tanda air untuk mengidentifikasi konten yang dibuat oleh AI, namun metode ini tidak selalu berhasil — tanda air dan metadata dapat dengan mudah dihapus.