Infomalangraya.com –
Slack melatih model pembelajaran mesin pada pesan pengguna, file, dan konten lainnya tanpa izin eksplisit. Pelatihan ini bersifat opt-out, artinya data pribadi Anda akan diambil secara default. Lebih buruk lagi, Anda harus meminta admin Slack organisasi Anda (sumber daya manusia, TI, dll.) untuk mengirim email ke perusahaan tersebut untuk memintanya berhenti. (Anda tidak dapat melakukannya sendiri.) Selamat datang di sisi gelap demam emas data pelatihan AI yang baru.
Corey Quinn, seorang eksekutif di DuckBill Group, melihat kebijakan tersebut dalam uraian singkat Prinsip Privasi Slack dan mempostingnya di X (melalui PCMag). Bagian itu berbunyi (tekankan milik kami), “Kepada mengembangkan model AI/MLsistem kami menganalisis Data Pelanggan (misalnya pesan, konten, dan file) dikirimkan ke Slack juga Informasi lainnya (termasuk informasi penggunaan) sebagaimana ditentukan dalam Kebijakan Privasi kami dan dalam perjanjian pelanggan Anda.”
Proses opt-out mengharuskan Anda melakukan semua pekerjaan untuk melindungi data Anda. Berdasarkan pemberitahuan privasi, “Untuk memilih tidak ikut serta, mintalah Pemilik Organisasi atau Ruang Kerja atau Pemilik Utama Anda menghubungi tim Pengalaman Pelanggan kami di feedback@slack.com dengan URL Ruang Kerja/Org Anda dan baris subjek ‘Permintaan tidak ikut serta model Slack Global .’ Kami akan memproses permintaan Anda dan merespons setelah proses opt-out selesai.”
Maafkan saya Slack, Anda melakukan APA dengan DM pengguna, pesan, file, dll? Saya yakin saya tidak membaca ini dengan benar. pic.twitter.com/6ORZNS2RxC
— Corey Quinn (@QuinnyPig) 16 Mei 2024
Perusahaan membalas pesan Quinn di X: “Untuk memperjelas, Slack memiliki model pembelajaran mesin tingkat platform untuk hal-hal seperti rekomendasi saluran dan emoji serta hasil pencarian. Dan ya, pelanggan dapat mengecualikan data mereka dari membantu melatih model ML (non-generatif) tersebut.”
Berapa lama perusahaan milik Salesforce memasukkan informasi menarik ke dalam persyaratannya masih belum jelas. Sangat menyesatkan untuk mengatakan bahwa pelanggan dapat memilih untuk tidak ikut serta ketika “pelanggan” tidak mencakup karyawan yang bekerja dalam suatu organisasi. Mereka harus meminta siapa pun yang menangani akses Slack di bisnis mereka untuk melakukan hal itu — dan saya berharap mereka akan menurutinya.
Inkonsistensi dalam kebijakan privasi Slack menambah kebingungan. Salah satu bagian menyatakan, “Saat mengembangkan model Al/ML atau menganalisis Data Pelanggan, Slack tidak dapat mengakses konten yang mendasarinya. Kami memiliki berbagai tindakan teknis untuk mencegah hal ini terjadi.” Namun, kebijakan pelatihan model pembelajaran mesin tampaknya bertentangan dengan pernyataan ini, sehingga menimbulkan banyak ruang untuk kebingungan.
Selain itu, halaman web Slack yang memasarkan alat AI generatif premiumnya berbunyi, “Bekerja tanpa khawatir. Data Anda adalah data Anda. Kami tidak menggunakannya untuk melatih Slack AI. Semuanya berjalan pada infrastruktur Slack yang aman, memenuhi standar kepatuhan yang sama seperti Slack itu sendiri.”
Dalam hal ini, perusahaan berbicara tentang alat AI generatif premiumnya, terpisah dari model pembelajaran mesin yang dilatihnya tanpa izin eksplisit. Namun, sebagai PCMag catatan, menyiratkan bahwa semua data Anda aman dari pelatihan AI, paling banter, merupakan pernyataan yang sangat menyesatkan ketika perusahaan tampaknya harus memilih model AI mana yang tercakup dalam pernyataan tersebut.
Engadget mencoba menghubungi Slack melalui berbagai saluran tetapi tidak menerima tanggapan pada saat publikasi. Kami akan memperbarui cerita ini jika kami mendengarnya kembali.