Infomalangraya.com –
Mastodon telah mendapatkan popularitas selama setahun terakhir karena pengguna Twitter mencari alternatif setelah Elon Musk. Bagian dari daya tariknya adalah sifatnya yang terdesentralisasi yang melindunginya dari keinginan miliarder yang berbicara sebelum berpikir. Namun, tidak mengherankan, apa yang membuatnya begitu menarik juga terbukti memusingkan, membuat moderasi konten menjadi mustahil.
menemukan 112 kecocokan materi pelecehan seksual anak (CSAM) yang diketahui selama periode dua hari, dengan hampir 2.000 postingan menggunakan tagar umum yang terkait dengan materi pelecehan. Peneliti David Thiel berkata, “Kami mendapat lebih banyak fotoDNA dalam periode dua hari daripada yang mungkin kami miliki sepanjang sejarah organisasi kami dalam melakukan segala jenis analisis media sosial, dan itu bahkan tidak mendekati.” Kami telah menghubungi Mastodon untuk memberikan komentar dan akan memperbarui cerita ini setelah kami mendengarnya kembali.
Tentu saja, masalah besar dengan platform media sosial yang tidak tergabung seperti Mastodon adalah tidak ada satu pun perusahaan atau entitas yang mengontrol semua yang ada di platform tersebut. Setiap instance memiliki administratornya sendiri, dan merekalah yang pada akhirnya bertanggung jawab. Namun, admin tersebut tidak dapat mengontrol dan memoderasi apa yang terjadi di instance atau server lain.
Ini juga bukan masalah Mastodon yang unik. juga dibangun di sekitar model desentralisasi. Meskipun belum didukung, Threads berencana untuk menjadi . Ini berarti pengguna Threads akan dapat mengikuti, membalas, dan memposting ulang konten dari Mastodon, dan sebaliknya.
Hal ini menimbulkan masalah unik bagi Meta, yang tidak dapat mengontrol seluruh aliran moderasi seperti halnya dengan Facebook atau Instagram. Bahkan kemudian, perusahaan. Agaknya, instans yang lebih besar di Mastodon dan platform lain seperti Threads dapat langsung memblokir akses ke instans yang bermasalah. Tentu saja, itu tidak akan “menyelesaikan” masalah. Konten akan tetap ada. Itu hanya akan dibungkam dan diserahkan kepada moderator dari contoh khusus itu untuk menghapusnya.