Infomalangraya.com –
X telah mengonfirmasi bahwa mereka mencegah pengguna mencari nama Taylor Swift setelah deepfake pornografi artis tersebut mulai beredar di platform tersebut minggu ini. Pengunjung situs tersebut mulai memperhatikan pada hari Sabtu bahwa beberapa pencarian yang berisi nama Swift hanya akan menghasilkan pesan kesalahan. Dalam pernyataannya kepada Jurnal Wall Street pada Sabtu malam, Joe Benarroch, kepala operasi bisnis X, mengatakan, “Ini adalah tindakan sementara dan dilakukan dengan sangat hati-hati karena kami memprioritaskan keselamatan dalam masalah ini.” Langkah ini dilakukan beberapa hari setelah masalah pertama kali diketahui.
Penanganan X terhadap masalah ini sejak awal telah menuai kritik karena dianggap lamban dalam mengekang penyebaran gambar-gambar seksual eksplisit yang non-konsensual. Setelah gambar-gambar itu menjadi viral pada hari Rabu, para penggemar Swift mengambil tindakan sendiri untuk membatasi visibilitas mereka dan menghapusnya, melaporkan secara massal akun-akun yang membagikan gambar-gambar itu dan membanjiri tagar yang berkaitan dengan penyanyi itu dengan konten positif. Berita NBC dilaporkan awal pekan ini. Banyak akun yang melanggar kemudian ditangguhkan, namun sebelumnya akun tersebut telah terlihat jutaan kali dalam beberapa kasus. Tepi melaporkan pada hari Kamis bahwa satu postingan telah dilihat lebih dari 45 juta kali.
Dalam sebuah pernyataan yang diposting di platformnya pada hari itu juga, X mengatakan, “Memposting gambar Ketelanjangan Non-Konsensual (NCN) dilarang keras di X dan kami tidak memiliki kebijakan toleransi terhadap konten tersebut. Tim kami secara aktif menghapus semua gambar yang teridentifikasi dan mengambil tindakan yang sesuai terhadap akun yang bertanggung jawab mempostingnya. Kami memantau situasi dengan cermat untuk memastikan bahwa pelanggaran lebih lanjut segera ditangani, dan konten tersebut dihapus. Kami berkomitmen untuk menjaga lingkungan yang aman dan menghormati semua pengguna.”
Namun gambar tersebut masih dapat ditemukan beberapa hari setelahnya. 404Media menelusuri kemungkinan asal-usul gambar tersebut ke grup Telegram yang dikenal karena membuat gambar wanita yang dihasilkan oleh AI tanpa persetujuan menggunakan alat gratis termasuk Microsoft Designer. Dalam sebuah wawancara dengan Berita NBC’ Lester Holt pada hari Jumat, CEO Microsoft Satya Nadella mengatakan masalah ini menyoroti apa yang menjadi tanggung jawab perusahaan, dan “semua pagar pembatas yang perlu kita tempatkan di sekitar teknologi sehingga ada lebih banyak konten aman yang diproduksi.” Ia melanjutkan dengan mengatakan bahwa “ada banyak hal yang harus dilakukan di sana, dan banyak hal yang sedang dilakukan di sana,” namun juga menekankan bahwa perusahaan perlu “bergerak cepat.”