Infomalangraya.com –
Departemen Kehakiman AS menangkap seorang pria Wisconsin minggu lalu karena membuat dan mendistribusikan materi pelecehan seksual terhadap anak (CSAM) yang dibuat oleh AI. Sejauh yang kami tahu, ini adalah kasus pertama yang terjadi karena DOJ berupaya menetapkan preseden yudisial bahwa materi yang bersifat eksploitatif masih ilegal meskipun tidak ada anak yang digunakan untuk membuatnya. “Sederhananya, CSAM yang dihasilkan oleh AI tetaplah CSAM,” tulis Wakil Jaksa Agung Lisa Monaco dalam siaran persnya.
DOJ mengatakan insinyur perangkat lunak berusia 42 tahun Steven Anderegg dari Holmen, WI, menggunakan garpu generator gambar AI sumber terbuka, Stable Diffusion untuk membuat gambar, yang kemudian ia gunakan untuk mencoba memikat anak di bawah umur ke dalam situasi seksual. Yang terakhir kemungkinan besar akan memainkan peran penting dalam persidangan atas empat dakwaan, yaitu “memproduksi, mendistribusikan, dan memiliki penggambaran visual yang tidak senonoh dari anak di bawah umur yang terlibat dalam perilaku seksual eksplisit dan mentransfer materi cabul kepada anak di bawah umur 16 tahun.”
Pemerintah mengatakan gambar-gambar Anderegg menunjukkan “anak-anak di bawah umur yang telanjang atau berpakaian sebagian secara mesum memperlihatkan atau menyentuh alat kelamin mereka atau melakukan hubungan seksual dengan laki-laki.” DOJ mengklaim dia menggunakan petunjuk spesifik, termasuk petunjuk negatif (panduan tambahan untuk model AI, dan menjelaskannya bukan untuk memproduksi) untuk memacu generator membuat CSAM.
Generator gambar berbasis cloud seperti Midjourney dan DALL-E 3 memiliki perlindungan terhadap jenis aktivitas ini, namun Ars Teknika melaporkan bahwa Andegg diduga menggunakan Stable Diffusion 1.5, varian dengan batasan yang lebih sedikit. Stability AI mengatakan kepada publikasi bahwa fork diproduksi oleh Runway ML.
Menurut DOJ, Anderegg berkomunikasi secara online dengan anak laki-laki berusia 15 tahun tersebut, menjelaskan bagaimana dia menggunakan model AI untuk membuat gambar. Agensi tersebut mengatakan bahwa terdakwa mengirim pesan langsung kepada remaja tersebut di Instagram, termasuk beberapa gambar AI yang menunjukkan “anak di bawah umur memperlihatkan alat kelamin mereka secara mesum.” Instagram melaporkan gambar-gambar tersebut ke Pusat Nasional untuk Anak Hilang dan Tereksploitasi (NCMEC), yang kemudian memberi tahu penegak hukum.
Andegg bisa menghadapi hukuman lima hingga 70 tahun penjara jika terbukti bersalah atas keempat tuduhan tersebut. Dia saat ini berada dalam tahanan federal sebelum sidang dijadwalkan pada 22 Mei.
Kasus ini akan menantang anggapan sebagian orang bahwa sifat ilegal CSAM hanya didasarkan pada anak-anak yang dieksploitasi dalam karya mereka. Meskipun CSAM digital yang dihasilkan AI tidak melibatkan manusia hidup (selain yang memasukkan petunjuknya), CSAM ini masih dapat menormalkan dan mendorong materi, atau digunakan untuk memikat anak-anak ke dalam situasi predator. Tampaknya hal ini merupakan sesuatu yang ingin diklarifikasi oleh FBI seiring dengan kemajuan pesat dan popularitas teknologi.
“Teknologi mungkin berubah, namun komitmen kami untuk melindungi anak-anak tidak akan berubah,” tulis Deputi AG Monaco. “Departemen Kehakiman akan secara agresif mengejar mereka yang memproduksi dan mendistribusikan materi pelecehan seksual terhadap anak—atau CSAM—tidak peduli bagaimana materi tersebut dibuat. Sederhananya, CSAM yang dihasilkan oleh AI tetaplah CSAM, dan kami akan meminta pertanggungjawaban mereka yang mengeksploitasi AI untuk membuat gambar anak-anak yang cabul, kasar, dan semakin fotorealistik.”