Infomalangraya.com –
OpenAI membentuk tim khusus untuk mengelola risiko kecerdasan buatan superintelligent. Superintelligence adalah model AI hipotetis yang lebih pintar daripada manusia yang paling berbakat dan cerdas sekalipun, dan unggul di berbagai bidang keahlian, bukan satu domain seperti beberapa model generasi sebelumnya. OpenAI percaya model seperti itu bisa tiba sebelum akhir dekade ini. “Superintelligence akan menjadi teknologi paling berpengaruh yang pernah ditemukan manusia, dan dapat membantu kita memecahkan banyak masalah paling penting di dunia,” kata organisasi nirlaba itu. “Tetapi kekuatan superintelijen yang sangat besar juga bisa sangat berbahaya, dan dapat menyebabkan ketidakberdayaan umat manusia atau bahkan kepunahan manusia.”
Tim baru ini akan dipimpin bersama oleh Kepala Ilmuwan OpenAI Ilya Sutskever dan Jan Leike, kepala penyelarasan lab penelitian. Selain itu, OpenAI mengatakan akan mendedikasikan 20 persen dari daya komputasi yang saat ini diamankan untuk inisiatif tersebut, dengan tujuan mengembangkan . Sistem seperti itu secara teoritis akan membantu OpenAI dalam memastikan kecerdasan super aman untuk digunakan dan selaras dengan nilai-nilai kemanusiaan. “Meskipun ini adalah tujuan yang sangat ambisius dan kami tidak dijamin berhasil, kami optimis bahwa upaya yang terfokus dan terpadu dapat menyelesaikan masalah ini,” kata OpenAI. “Ada banyak ide yang menjanjikan dalam eksperimen pendahuluan, kami memiliki metrik yang semakin berguna untuk kemajuan, dan kami dapat menggunakan model saat ini untuk mempelajari banyak masalah ini secara empiris.” Lab menambahkan akan membagikan peta jalan di masa depan.
Pengumuman hari Rabu datang saat pemerintah di seluruh dunia mempertimbangkan bagaimana mengatur industri AI yang baru lahir. Di AS, Sam Altman, CEO OpenAI, dalam beberapa bulan terakhir. Secara terbuka, Altman mengatakan regulasi AI itu “penting”, dan bahwa OpenAI “bersemangat” untuk bekerja dengan pembuat kebijakan. Tapi kita harus skeptis terhadap proklamasi tersebut, dan memang upaya seperti tim Superalignment OpenAI. Dengan memfokuskan perhatian publik pada risiko hipotetis yang mungkin tidak pernah terwujud, organisasi seperti OpenAI mengalihkan beban regulasi ke cakrawala, bukan di sini dan saat ini. Ada lebih banyak masalah langsung seputar interaksi antara AI dan , dan pembuat kebijakan perlu menangani hari ini, bukan besok.