Departemen hukum Microsoft diduga membungkam seorang insinyur yang menyampaikan kekhawatirannya tentang DALL-E 3

TEKNOLOGI208 Dilihat

Infomalangraya.com –

Seorang manajer Microsoft mengklaim DALL-E 3 OpenAI memiliki kerentanan keamanan yang memungkinkan pengguna menghasilkan gambar kekerasan atau eksplisit (mirip dengan yang baru-baru ini menargetkan Taylor Swift). GeekWire melaporkan pada hari Selasa bahwa tim hukum perusahaan memblokir upaya pemimpin teknik Microsoft Shane Jones untuk mengingatkan masyarakat tentang eksploitasi tersebut. Pelapor yang mengaku dirinya kini menyampaikan pesannya ke Capitol Hill.

“Saya mencapai kesimpulan bahwa DALL·E 3 menimbulkan risiko keselamatan publik dan harus dihapuskan dari penggunaan publik sampai OpenAI dapat mengatasi risiko yang terkait dengan model ini,” tulis Jones kepada Senator AS Patty Murray (D-WA) dan Maria Cantwell ( D-WA), Rep. Adam Smith (D-WA Distrik ke-9), dan Jaksa Agung negara bagian Washington Bob Ferguson (D). GeekWire menerbitkan surat lengkap Jones.

Jones mengklaim dia menemukan eksploitasi yang memungkinkan dia melewati pagar keamanan DALL-E 3 pada awal Desember. Dia mengatakan bahwa dia telah melaporkan masalah ini kepada atasannya di Microsoft, yang memerintahkan dia untuk “melaporkan masalah tersebut secara pribadi langsung ke OpenAI.” Setelah melakukan hal tersebut, dia mengklaim bahwa dia mengetahui bahwa cacat tersebut dapat menghasilkan “gambar-gambar berbahaya yang penuh kekerasan dan mengganggu.”

Jones kemudian mencoba untuk mempublikasikan perjuangannya melalui postingan LinkedIn. “Pada pagi hari tanggal 14 Desember 2023, saya secara terbuka menerbitkan surat di LinkedIn kepada dewan direksi nirlaba OpenAI yang mendesak mereka untuk menangguhkan ketersediaan DALL·E 3),” tulis Jones. “Karena Microsoft adalah pengamat dewan di OpenAI dan saya sebelumnya telah menyampaikan kekhawatiran saya kepada tim pimpinan saya, saya segera memberi tahu Microsoft tentang surat yang saya kirimkan.”

Gambar cangkir teh yang dihasilkan AI dengan gelombang dahsyat di dalamnya.  Badai muncul dari balik ambang jendela di belakangnya.

Contoh gambar (badai dalam cangkir teh) yang dihasilkan oleh DALL-E 3 (AI Terbuka)

Tanggapan Microsoft diduga meminta dia menghapus postingannya. “Tak lama setelah mengungkapkan surat tersebut kepada tim kepemimpinan saya, manajer saya menghubungi saya dan memberi tahu saya bahwa departemen hukum Microsoft telah meminta saya menghapus postingan tersebut,” tulisnya dalam suratnya. “Dia mengatakan kepada saya bahwa departemen hukum Microsoft akan segera menindaklanjuti dengan alasan spesifik mereka atas permintaan penghapusan melalui email, dan saya harus segera menghapusnya tanpa menunggu email dari bagian hukum.”

Jones menurutinya, namun menurutnya tanggapan yang lebih rinci dari tim hukum Microsoft tidak pernah sampai. “Saya tidak pernah mendapat penjelasan atau pembenaran dari mereka,” tulisnya. Dia mengatakan upaya lebih lanjut untuk belajar lebih banyak dari departemen hukum perusahaan diabaikan. “Departemen hukum Microsoft masih belum merespons atau berkomunikasi langsung dengan saya,” tulisnya.

Juru bicara OpenAI menulis kepada Engadget melalui email, “Kami segera menyelidiki laporan karyawan Microsoft ketika kami menerimanya pada tanggal 1 Desember dan mengonfirmasi bahwa teknik yang dia bagikan tidak mengabaikan sistem keselamatan kami. Keselamatan adalah prioritas kami dan kami mengambil pendekatan multi-cabang. Dalam model DALL-E 3 yang mendasarinya, kami telah berupaya memfilter konten paling eksplisit dari data pelatihannya termasuk konten seksual dan kekerasan yang vulgar, dan telah mengembangkan pengklasifikasi gambar yang kuat yang menjauhkan model tersebut dari menghasilkan gambar yang berbahaya.

“Kami juga telah menerapkan perlindungan tambahan untuk produk kami, ChatGPT, dan DALL-E API – termasuk menolak permintaan yang menanyakan nama tokoh masyarakat,” lanjut juru bicara OpenAI. “Kami mengidentifikasi dan menolak pesan yang melanggar kebijakan kami dan memfilter semua gambar yang dihasilkan sebelum ditampilkan kepada pengguna. Kami menggunakan tim ahli eksternal untuk menguji penyalahgunaan dan memperkuat perlindungan kami.”

Sementara itu, juru bicara Microsoft menulis kepada Engadget, “Kami berkomitmen untuk mengatasi setiap dan semua kekhawatiran yang dimiliki karyawan sesuai dengan kebijakan perusahaan kami, dan menghargai upaya karyawan dalam mempelajari dan menguji teknologi terbaru kami untuk lebih meningkatkan keselamatannya. Ketika menyangkut pelanggaran keselamatan atau masalah yang mungkin berdampak pada layanan kami atau mitra kami, kami telah membangun saluran pelaporan internal yang kuat untuk menyelidiki dan memulihkan masalah apa pun dengan benar, yang kami sarankan agar digunakan oleh karyawan sehingga kami dapat memvalidasi dan menguji dengan tepat. kekhawatirannya sebelum mengungkapkannya secara publik.”

“Karena laporannya berkaitan dengan produk OpenAI, kami mendorongnya untuk melaporkan melalui saluran pelaporan standar OpenAI dan salah satu pemimpin produk senior kami membagikan masukan karyawan tersebut kepada OpenAI, yang segera menyelidiki masalah tersebut,” tulis juru bicara Microsoft. “Pada saat yang sama, tim kami menyelidiki dan mengonfirmasi bahwa teknik yang dilaporkan tidak mengabaikan filter keamanan dalam solusi pembuatan gambar kami yang didukung AI. Masukan karyawan adalah bagian penting dari budaya kami, dan kami terhubung dengan kolega ini untuk mengatasi segala kekhawatiran yang mungkin dia miliki.”

Microsoft menambahkan bahwa Kantor AI yang Bertanggung Jawab telah menyiapkan alat pelaporan internal bagi karyawan untuk melaporkan dan menyampaikan kekhawatiran tentang model AI.

Pelapor mengatakan bahwa video deepfake pornografi Taylor Swift yang beredar di X minggu lalu adalah salah satu ilustrasi dari kerentanan serupa yang dapat dihasilkan jika dibiarkan. 404 Media melaporkan pada hari Senin bahwa Microsoft Designer, yang menggunakan DALL-E 3 sebagai backend, adalah bagian dari perangkat deepfaker yang membuat video tersebut. Publikasi tersebut mengklaim bahwa Microsoft, setelah diberitahu, telah menambal celah tersebut.

“Microsoft menyadari kerentanan ini dan potensi penyalahgunaannya,” Jones menyimpulkan. Tidak jelas apakah eksploitasi yang digunakan untuk membuat deepfake Swift terkait langsung dengan yang dilaporkan Jones pada bulan Desember.

Jones mendesak perwakilannya di Washington, DC, untuk mengambil tindakan. Dia menyarankan agar pemerintah AS membuat sistem untuk melaporkan dan melacak kerentanan AI tertentu – sekaligus melindungi karyawan seperti dia yang berani menyuarakan pendapatnya. “Kita perlu meminta pertanggungjawaban perusahaan atas keamanan produk mereka dan tanggung jawab mereka untuk mengungkapkan risiko yang diketahui kepada publik,” tulisnya. “Karyawan yang peduli, seperti saya, tidak boleh terintimidasi untuk tetap diam.”

Pembaruan, 30 Januari 2024, 20:41 ET: Cerita ini telah diperbarui untuk menambahkan pernyataan ke Engadget dari OpenAI dan Microsoft.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *