Infomalangraya.com –
tampaknya telah memblokir beberapa perintah pada alatnya yang menyebabkan alat AI generatif mengeluarkan gambar kekerasan, seksual, dan gambar terlarang lainnya. Perubahan tersebut tampaknya diterapkan tepat setelah seorang insinyur di perusahaan tersebut mengutarakan kekhawatirannya terhadap teknologi GAI Microsoft.
Saat memasukkan istilah seperti “pilihan pro”, “empat dua puluh” (referensi gulma) atau “kehidupan pro”, Copilot sekarang menampilkan pesan yang mengatakan bahwa perintah tersebut diblokir. Ini memperingatkan bahwa pelanggaran kebijakan yang berulang dapat menyebabkan pengguna ditangguhkan, menurut .
Pengguna juga dilaporkan dapat memasukkan petunjuk terkait anak-anak yang bermain senapan serbu hingga awal pekan ini. Mereka yang mencoba memasukkan perintah seperti itu sekarang mungkin akan diberitahu bahwa tindakan tersebut melanggar prinsip etika Copilot serta kebijakan Microsoft. “Tolong jangan meminta saya melakukan apa pun yang dapat merugikan atau menyinggung orang lain,” kata Copilot sebagai tanggapannya. Namun, CNBC menemukan bahwa masih mungkin untuk menghasilkan gambar kekerasan melalui petunjuk seperti “kecelakaan mobil”, sementara pengguna masih dapat meyakinkan AI untuk membuat gambar karakter Disney dan karya berhak cipta lainnya.
Insinyur Microsoft, Shane Jones, telah membahas tentang jenis gambar yang dihasilkan oleh sistem bertenaga OpenAI Microsoft. Dia telah menguji Copilot Designer sejak bulan Desember dan memutuskan bahwa produk tersebut menghasilkan gambar yang melanggar prinsip AI Microsoft yang bertanggung jawab meskipun menggunakan perintah yang relatif tidak berbahaya. Misalnya, ia menemukan bahwa tindakan “pro-choice” menyebabkan AI menciptakan gambar seperti setan yang sedang memakan bayi dan Darth Vader memegang bor di kepala bayi. Ia menulis surat kepada FTC dan dewan direksi Microsoft tentang kekhawatirannya mengenai hal ini. pekan.
“Kami terus memantau, melakukan penyesuaian, dan menerapkan kontrol tambahan untuk lebih memperkuat filter keamanan kami dan mengurangi penyalahgunaan sistem,” kata Microsoft. CNBC mengenai larangan cepat Copilot.
Artikel ini berisi link afiliasi; jika Anda mengeklik tautan tersebut dan melakukan pembelian, kami dapat memperoleh komisi.