OpenAI dan Anthropic setuju untuk berbagi model mereka dengan Institut Keamanan AI AS

TEKNOLOGI67 Dilihat

Infomalangraya.com –

OpenAI dan Anthropic telah sepakat untuk berbagi model AI — sebelum dan sesudah rilis — dengan US AI Safety Institute. Lembaga tersebut, yang dibentuk melalui perintah eksekutif oleh Presiden Biden pada tahun 2023, akan menawarkan umpan balik keamanan kepada perusahaan-perusahaan untuk meningkatkan model mereka. CEO OpenAI Sam Altman mengisyaratkan kesepakatan tersebut awal bulan ini.

Institut Keamanan AI AS tidak menyebutkan perusahaan lain yang menangani AI. Namun dalam pernyataan kepada Engadget, juru bicara Google mengatakan kepada Engadget bahwa perusahaan sedang berdiskusi dengan lembaga tersebut dan akan membagikan informasi lebih lanjut saat tersedia. Minggu ini, Google mulai meluncurkan model chatbot dan generator gambar terbaru untuk Gemini.

“Keselamatan sangat penting untuk mendorong inovasi teknologi yang inovatif. Dengan adanya perjanjian ini, kami berharap dapat memulai kolaborasi teknis dengan Anthropic dan OpenAI untuk memajukan ilmu keselamatan AI,” tulis Elizabeth Kelly, direktur US AI Safety Institute, dalam sebuah pernyataan. “Perjanjian ini hanyalah permulaan, tetapi merupakan tonggak penting saat kami berupaya membantu mengelola masa depan AI secara bertanggung jawab.”

US AI Safety Institute merupakan bagian dari National Institute of Standards and Technology (NIST). Lembaga ini membuat dan menerbitkan pedoman, uji tolok ukur, dan praktik terbaik untuk menguji dan mengevaluasi sistem AI yang berpotensi membahayakan. “Sama seperti AI yang berpotensi memberikan manfaat besar, AI juga berpotensi menimbulkan bahaya besar, mulai dari serangan siber yang didukung AI dalam skala yang belum pernah kita lihat sebelumnya hingga senjata biologis yang diformulasikan AI yang dapat membahayakan nyawa jutaan orang,” kata Wakil Presiden Kamala Harris pada akhir tahun 2023 setelah lembaga tersebut didirikan.

Kesepakatan pertama semacam ini dicapai melalui Nota Kesepahaman (formal tetapi tidak mengikat). Badan tersebut akan menerima akses ke “model-model baru utama” masing-masing perusahaan sebelum dan sesudah peluncuran publiknya. Badan tersebut menggambarkan kesepakatan tersebut sebagai penelitian kolaboratif yang mengurangi risiko yang akan mengevaluasi kemampuan dan keselamatan. Institut Keamanan AI AS juga akan bekerja sama dengan Institut Keamanan AI Inggris.

Hal ini terjadi saat regulator federal dan negara bagian mencoba menetapkan pagar pembatas AI sementara teknologi yang berkembang pesat ini masih dalam tahap awal. Pada hari Rabu, majelis negara bagian California menyetujui RUU keselamatan AI (SB 10147) yang mewajibkan pengujian keselamatan untuk model AI yang menghabiskan biaya lebih dari $100 juta untuk pengembangan atau memerlukan sejumlah daya komputasi. RUU tersebut mengharuskan perusahaan AI untuk memiliki tombol pemutus yang dapat mematikan model jika model tersebut menjadi “sulit dioperasikan atau tidak dapat dikendalikan.”

Tidak seperti perjanjian yang tidak mengikat dengan pemerintah federal, RUU California akan memiliki beberapa kekuatan untuk penegakan hukum. RUU ini memberikan izin kepada jaksa agung negara bagian untuk menuntut jika pengembang AI tidak mematuhinya, terutama selama peristiwa tingkat ancaman. Namun, RUU ini masih memerlukan satu pemungutan suara proses lagi — dan tanda tangan Gubernur Gavin Newsom, yang akan memiliki waktu hingga 30 September untuk memutuskan apakah akan memberikan lampu hijau.

Pembaruan, 29 Agustus 2024, 16:53 ET: Cerita ini telah diperbarui untuk menambahkan tanggapan dari juru bicara Google.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *