Copilot Microsoft sekarang memblokir beberapa perintah yang menghasilkan gambar kekerasan dan seksual
Infomalangraya.com – tampaknya telah memblokir beberapa perintah pada alatnya yang menyebabkan alat AI generatif mengeluarkan gambar kekerasan, seksual, dan gambar terlarang lainnya. Perubahan tersebut tampaknya diterapkan tepat setelah seorang insinyur di perusahaan tersebut mengutarakan kekhawatirannya terhadap teknologi GAI Microsoft. Saat memasukkan istilah seperti “pilihan pro”, “empat dua puluh” (referensi gulma) atau “kehidupan pro”, Copilot sekarang