Infomalangraya.com –
Sekelompok karyawan saat ini dan mantan karyawan dari perusahaan AI terkemuka seperti OpenAI, Google DeepMind, dan Anthropic telah menandatangani surat terbuka yang meminta transparansi yang lebih besar dan perlindungan dari tindakan pembalasan bagi mereka yang menyuarakan potensi kekhawatiran AI. “Selama tidak ada pengawasan pemerintah yang efektif terhadap perusahaan-perusahaan ini, karyawan saat ini dan mantan karyawan adalah beberapa orang yang dapat meminta pertanggungjawaban mereka kepada publik,” demikian isi surat yang diterbitkan pada hari Selasa. “Namun perjanjian kerahasiaan yang luas menghalangi kami untuk menyuarakan keprihatinan kami, kecuali kepada perusahaan-perusahaan yang mungkin gagal mengatasi masalah ini.”
Surat itu datang hanya beberapa minggu setelah a Suara Investigasi mengungkapkan OpenAI telah berusaha untuk memberangus karyawan yang baru saja keluar dengan memaksa mereka untuk memilih antara menandatangani perjanjian non-penghinaan yang agresif, atau mengambil risiko kehilangan ekuitas mereka di perusahaan. Setelah laporan tersebut, CEO OpenAI Sam Altman menyebut ketentuan tersebut “benar-benar memalukan” dan mengklaim bahwa ketentuan tersebut telah dihapus dari dokumentasi keluar baru-baru ini, meskipun tidak jelas apakah ketentuan tersebut tetap berlaku untuk beberapa karyawan.
Ke-13 penandatangan tersebut termasuk mantan karyawan OpenAI Jacob Hinton, William Saunders dan Daniel Kokotajlo. Kokotajlo mengatakan bahwa dia mengundurkan diri dari perusahaan tersebut setelah kehilangan keyakinan bahwa perusahaan tersebut akan bertanggung jawab membangun kecerdasan umum buatan, sebuah istilah untuk sistem AI yang sama pintarnya atau lebih pintar dari manusia. Surat tersebut – yang didukung oleh pakar AI terkemuka Geoffrey Hinton, Yoshua Bengio, dan Stuart Russell – mengungkapkan keprihatinan besar atas kurangnya pengawasan pemerintah yang efektif terhadap AI dan insentif finansial yang mendorong raksasa teknologi untuk berinvestasi dalam teknologi tersebut. Para penulis memperingatkan bahwa upaya yang tidak terkendali untuk menciptakan sistem AI yang kuat dapat menyebabkan penyebaran informasi yang salah, memperburuk kesenjangan, dan bahkan hilangnya kendali manusia atas sistem otonom, yang berpotensi mengakibatkan kepunahan manusia.
“Ada banyak hal yang tidak kami pahami tentang cara kerja sistem ini dan apakah sistem ini akan tetap sejalan dengan kepentingan manusia seiring dengan semakin pintarnya sistem ini dan mungkin melampaui tingkat kecerdasan manusia di segala bidang,” tulis Kokotajlo di X. “Sementara itu, masih ada sedikit atau tidak ada pengawasan terhadap teknologi ini. Sebaliknya, kita bergantung pada perusahaan yang membangun teknologi tersebut untuk mengatur dirinya sendiri, bahkan ketika motif keuntungan dan kegembiraan terhadap teknologi mendorong mereka untuk ‘bergerak cepat dan memecahkan masalah.’ Membungkam para peneliti dan membuat mereka takut akan pembalasan adalah hal yang berbahaya jika saat ini kita adalah satu-satunya pihak yang mampu memperingatkan masyarakat.”
OpenAI, Google dan Anthropic tidak segera menanggapi permintaan komentar dari Engadget. Dalam pernyataan yang dikirim ke Bloomberg, juru bicara OpenAI mengatakan bahwa perusahaannya bangga dengan “rekam jejaknya dalam menyediakan sistem AI yang paling mumpuni dan paling aman” dan percaya pada “pendekatan ilmiahnya untuk mengatasi risiko.” Ia menambahkan: “Kami setuju bahwa perdebatan yang ketat sangatlah penting mengingat pentingnya teknologi ini dan kami akan terus terlibat dengan pemerintah, masyarakat sipil, dan komunitas lain di seluruh dunia.”
Para penandatangan menyerukan perusahaan AI untuk berkomitmen pada empat prinsip utama:
-
Menahan diri untuk tidak melakukan tindakan pembalasan terhadap karyawan yang menyuarakan masalah keselamatan
-
Mendukung sistem anonim bagi pelapor untuk mengingatkan masyarakat dan regulator tentang risiko
-
Membiarkan budaya kritik terbuka
-
Dan menghindari perjanjian kerahasiaan atau kerahasiaan yang membatasi karyawan untuk bersuara
Surat itu muncul di tengah meningkatnya pengawasan terhadap praktik OpenAI, termasuk pembubaran tim keselamatan “superalignment” dan kepergian tokoh-tokoh penting seperti salah satu pendiri Ilya Sutskever dan Jan Leike, yang mengkritik prioritas perusahaan pada “produk berkilau” dibandingkan keselamatan.