Pidato sumber terbuka Meta mengenali lebih dari 4.000 bahasa lisan

TEKNOLOGI464 Dilihat

Infomalangraya.com –

Meta telah membuat model bahasa AI yang (dalam perubahan kecepatan yang menyegarkan) bukan tiruan ChatGPT. Proyek Massively Multilingual Speech (MMS) perusahaan dapat mengenali lebih dari 4.000 bahasa lisan dan menghasilkan ucapan (text-to-speech) di lebih dari 1.100. Seperti kebanyakan proyek AI lainnya yang diumumkan secara publik, Meta adalah MMS sumber terbuka saat ini untuk membantu melestarikan keragaman bahasa dan mendorong para peneliti untuk membangun fondasinya. “Hari ini, kami membagikan model dan kode kami secara publik sehingga orang lain dalam komunitas riset dapat mengembangkan pekerjaan kami,” tulis perusahaan itu. “Melalui karya ini, kami berharap dapat memberikan kontribusi kecil untuk melestarikan keanekaragaman bahasa yang luar biasa di dunia.”

Pengenalan ucapan dan model teks-ke-ucapan biasanya memerlukan pelatihan selama ribuan jam audio dengan label transkripsi yang menyertainya. (Label sangat penting untuk pembelajaran mesin, memungkinkan algoritme mengkategorikan dan “memahami” data dengan benar.) Namun untuk bahasa yang tidak banyak digunakan di negara industri — banyak di antaranya terancam punah dalam beberapa dekade mendatang — “ini data tidak ada,” seperti yang dikatakan Meta.

Meta menggunakan pendekatan yang tidak konvensional untuk mengumpulkan data audio: memanfaatkan rekaman audio dari teks-teks agama yang diterjemahkan. “Kami beralih ke teks-teks agama, seperti Alkitab, yang telah diterjemahkan dalam berbagai bahasa dan terjemahannya telah dipelajari secara luas untuk penelitian terjemahan bahasa berbasis teks,” kata perusahaan itu. “Terjemahan ini memiliki rekaman audio yang tersedia untuk umum dari orang yang membaca teks ini dalam berbagai bahasa.” Menggabungkan rekaman Alkitab yang tidak berlabel dan teks serupa, peneliti Meta meningkatkan bahasa model yang tersedia menjadi lebih dari 4.000.

Jika Anda seperti saya, pendekatan itu mungkin mengangkat alis Anda pada pandangan pertama, karena kedengarannya seperti resep untuk model AI yang sangat bias terhadap pandangan dunia Kristen. Tapi Meta mengatakan bukan itu masalahnya. “Meskipun isi rekaman audionya religius, analisis kami menunjukkan bahwa model ini tidak bias menghasilkan bahasa yang lebih religius,” tulis Meta. “Kami percaya ini karena kami menggunakan pendekatan klasifikasi temporal koneksionis (CTC), yang jauh lebih terbatas dibandingkan dengan model bahasa besar (LLM) atau model urutan-ke-urutan untuk pengenalan ucapan.” Selain itu, meskipun sebagian besar rekaman religius dibacakan oleh penutur laki-laki, hal itu juga tidak menimbulkan bias laki-laki — tampil sama baiknya dalam suara perempuan dan laki-laki.

Setelah melatih model penyelarasan untuk membuat data lebih bermanfaat, Meta menggunakan wav2vec 2.0, model “pembelajaran representasi ucapan mandiri” perusahaan, yang dapat melatih data tanpa label. Menggabungkan sumber data yang tidak konvensional dan model ucapan yang diawasi sendiri menghasilkan hasil yang mengesankan. “Hasil kami menunjukkan bahwa model Massively Multilingual Speech bekerja dengan baik dibandingkan dengan model yang ada dan mencakup 10 kali lebih banyak bahasa.” Secara khusus, Meta membandingkan MMS dengan Whisper OpenAI, dan itu melebihi ekspektasi. “Kami menemukan bahwa model yang dilatih pada data Pidato Multibahasa Masif mencapai separuh tingkat kesalahan kata, tetapi Pidato Multibahasa Masif mencakup 11 kali lebih banyak bahasa.”

Meta memperingatkan bahwa model barunya tidak sempurna. “Misalnya, ada beberapa risiko bahwa model ucapan-ke-teks dapat salah menerjemahkan kata atau frasa tertentu,” tulis perusahaan itu. “Tergantung pada keluarannya, ini dapat mengakibatkan bahasa yang menyinggung dan/atau tidak akurat. Kami terus percaya bahwa kolaborasi lintas komunitas AI sangat penting untuk pengembangan teknologi AI yang bertanggung jawab.”

Sekarang Meta telah merilis MMS untuk penelitian sumber terbuka, ia berharap dapat membalikkan tren teknologi yang menyusutkan bahasa dunia menjadi 100 atau kurang yang paling sering didukung oleh Big Tech. Ia melihat dunia di mana teknologi asistif, TTS, dan bahkan teknologi VR / AR memungkinkan semua orang berbicara dan belajar dalam bahasa ibu mereka. Dikatakan, “Kami membayangkan dunia di mana teknologi memiliki efek sebaliknya, mendorong orang untuk menjaga bahasa mereka tetap hidup karena mereka dapat mengakses informasi dan menggunakan teknologi dengan berbicara dalam bahasa pilihan mereka.”

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *