Kebijakan dan Regulasi untuk Menghadapi Kecerdasan Buatan di Indonesia
Kementerian Komunikasi dan Digital (Komdigi) sedang menyelesaikan Roadmap AI Nasional serta Pedoman Etika AI untuk memperkuat tata kelola kecerdasan buatan di Indonesia. Langkah ini dilakukan sebagai respons terhadap laporan Global Risks Report dari World Economic Forum (WEF), yang menempatkan disinformasi sebagai ancaman utama dunia, terutama akibat perkembangan pesat generative AI.
Ketua Tim Perencanaan Program dan Pelaporan Direktorat Jenderal Ekosistem Digital Komdigi, Salfikar Alfarizi Abbas, menyatakan bahwa pemerintah sedang menyiapkan kerangka kebijakan yang adaptif untuk menjaga integritas informasi nasional. Ia menekankan pentingnya regulasi yang mampu mengimbangi teknologi.
“Bagi kami, pertanyaannya sekarang bukan lagi apakah AI dapat memengaruhi integritas informasi. AI sudah jelas dapat memengaruhi integritas informasi. Tantangan yang sesungguhnya sekarang adalah: mampukah kebijakan publik mengejar pesatnya perkembangan AI dan melindungi integritas informasi, tapi di saat yang sama tetap mendukung inovasi,” ujarnya dalam keterangannya, Jumat (10/4/2026).
Strategi yang Disiapkan
Strategi yang disiapkan mencakup pelabelan konten sintetis, penggunaan watermark tak kasat mata, hingga pengembangan AI khusus untuk deteksi hoaks sebagai program quick wins nasional. Selain itu, pemerintah berencana membentuk Gugus Tugas Koordinasi Kecerdasan Artifisial Nasional yang melibatkan lintas kementerian, platform teknologi, akademisi, hingga media.
Hal ini disampaikan dalam Talk Show pada Pre-Course Workshop untuk Short Course “The Challenge of Mis and Disinformation: Fostering Information Integrity and Media Literacy in the Digital Age” yang diselenggarakan Australia Awards di Indonesia bersama Kedutaan Besar Australia.
Pengaturan yang Tidak Terburu-buru
Dari sisi industri, Government Affairs & Public Policy Google Indonesia, Agung Pamungkas, mengingatkan agar pemerintah tidak terburu-buru dalam melahirkan regulasi baru tanpa mengevaluasi aturan yang sudah ada. Menurut dia, AI terlalu penting untuk tidak diregulasi, tapi terlalu penting pula untuk tidak diregulasi dengan cara yang tepat.
“Jadi, penting sekali untuk diatur, tapi pengaturannya itu harus baik. Banyak pembuat kebijakan terburu-buru dalam membuat kebijakan baru. Saya rasa dari sudut pandang industri, kita tidak perlu terburu-buru karena kita cukup melihat regulasi yang sudah ada sebagai titik permulaan dan lihat apakah masih ada kesenjangan (gap), jika masih ada gap maka di situlah kita membuat regulasi baru,” kata Agung.
Pentingnya Pengawasan Manusia
Direktur Eksekutif SAFEnet, Nenden Sekar Arum N, menyoroti pentingnya pengawasan manusia atau human oversight untuk menghindari kesalahan deteksi konten. Dia menegaskan, regulasi harus berpijak pada hak digital warga negara.
“Jadi, ketika kita berbicara tentang AI dan teknologi yang berkembang, kita harus tahu bahwa pada dasarnya itu adalah hak kita sebagai warga negara. Jadi, kita harus tahu bahwa kita memiliki hak dalam ruang digital, bahkan dalam bidang teknologi. Ketika kita berbicara tentang disinformasi atau regulasi, kita harus punya pemahaman yang sama tentang apa itu disinformasi. Kalau tidak, regulasi apa pun akan sangat bermasalah bagi masyarakat sipil. Dan tentu saja, kita masih perlu human oversight untuk memastikan tidak ada false positive atau false negative dalam pendeteksian disinformasi,” kata Nenden.
Mewajibkan Pembagian Tanggung Jawab
Kebijakan ini nantinya akan mewajibkan pembagian tanggung jawab yang jelas antara pengembang atau developer pengguna sistem atau deployer, dan regulator melalui mekanisme pelaporan insiden serta asesmen risiko sebelum sistem AI diluncurkan ke publik.









