Infomalangraya.com –
Pertumbuhan eksplosif dalam kecerdasan buatan dalam beberapa tahun terakhir – yang dimahkotai dengan meningkatnya pesat chatbot AI generatif seperti ChatGPT – telah menyebabkan teknologi ini melakukan banyak tugas yang, sebelumnya, hanya dapat ditangani oleh pikiran manusia. Namun meskipun komputasi linguistiknya semakin mumpuni, sistem pembelajaran mesin ini ternyata masih tidak mampu membuat lompatan kognitif dan deduksi logis yang bahkan rata-rata remaja pun bisa melakukannya dengan benar.
Dalam kutipan Hitting the Books minggu ini, A Brief History of Intelligence: Evolution, AI, and the Five Breakthroughs That Made Our Brains, pengusaha AI Max Bennett mengeksplorasi kesenjangan yang membingungkan dalam kompetensi komputer dengan mengeksplorasi pengembangan mesin organik yang dimodelkan oleh AI. : otak manusia.
Berfokus pada lima “terobosan” evolusioner, di tengah banyaknya jalan buntu genetik dan cabang yang gagal, yang membawa spesies kita ke pola pikir modern, Bennett juga menunjukkan bahwa kemajuan yang sama yang membutuhkan waktu ribuan tahun bagi umat manusia untuk berevolusi dapat diadaptasi untuk membantu memandu pengembangan AI. teknologi masa depan. Dalam kutipan di bawah ini, kita melihat bagaimana sistem AI generatif seperti GPT-3 dibuat untuk meniru fungsi prediktif neokorteks, namun tetap tidak bisa. lumayan memahami keanehan ucapan manusia.
Dikutip dari Sejarah Singkat Kecerdasan: Evolusi, AI, dan Lima Terobosan yang Menghasilkan Otak Kita oleh Max Bennett. Diterbitkan oleh Mariner Books. Hak Cipta © 2023 oleh Max Bennett. Seluruh hak cipta.
Kata-kata Tanpa Dunia Batin
GPT-3 diberikan kata demi kata, kalimat demi kalimat, paragraf demi paragraf. Selama proses pelatihan yang panjang ini, ia mencoba memprediksi kata berikutnya dalam rangkaian kata yang panjang ini. Dan dengan setiap prediksi, bobot jaringan saraf raksasanya sedikit terdorong ke arah jawaban yang benar. Lakukan ini berkali-kali, dan pada akhirnya GPT-3 dapat secara otomatis memprediksi kata berikutnya berdasarkan kalimat atau paragraf sebelumnya. Pada prinsipnya, hal ini menangkap setidaknya beberapa aspek mendasar tentang cara kerja bahasa di otak manusia. Pertimbangkan betapa otomatisnya Anda memprediksi simbol berikutnya dalam frasa berikut:
-
Satu tambah satu sama dengan _____
-
Mawar berwarna merah, violet adalah _____
Anda telah melihat kalimat serupa berkali-kali, sehingga mesin neokortikal Anda secara otomatis memprediksi kata apa yang muncul selanjutnya. Apa yang membuat GPT-3 mengesankan bukan karena ia hanya memprediksi kata berikutnya dari rangkaian kata yang telah dilihatnya jutaan kali — hal ini dapat dicapai hanya dengan menghafal kalimat. Yang mengesankan adalah GPT-3 dapat diberikan a novel urutan yang belum pernah dilihatnya sebelumnya dan masih secara akurat memprediksi kata berikutnya. Ini juga dengan jelas menangkap sesuatu yang dapat _____ oleh otak manusia.
Bisakah Anda memperkirakan kata berikutnya adalah Mengerjakan? Saya kira Anda bisa, meskipun Anda belum pernah melihat kalimat persis seperti itu sebelumnya. Intinya adalah bahwa GPT-3 dan area neokortikal untuk bahasa tampaknya terlibat dalam prediksi. Keduanya dapat menggeneralisasi pengalaman masa lalu, menerapkannya pada kalimat baru, dan menebak apa yang akan terjadi selanjutnya.
GPT-3 dan model bahasa serupa menunjukkan bagaimana jaringan neuron dapat menangkap aturan tata bahasa, sintaksis, dan konteks secara wajar jika diberikan waktu yang cukup untuk mempelajarinya. Tapi sementara ini menunjukkan bahwa prediksi itu benar bagian dari mekanisme bahasa, apakah ini berarti prediksi semua yang ada dengan bahasa manusia? Cobalah untuk menyelesaikan empat pertanyaan ini:
-
Jika 3X + 1 = 3, maka x sama dengan _____
-
Saya berada di ruang bawah tanah tanpa jendela, dan saya melihat ke arah langit, dan saya melihat _____
-
Dia melempar bola bisbol itu 100 kaki di atas kepalaku, aku mengulurkan tanganku untuk menangkapnya, melompat, dan _____
-
Saya mengemudi secepat yang saya bisa ke LA dari New York. Satu jam setelah melewati Chicago, saya akhirnya _____
Di sini sesuatu yang berbeda terjadi. Pada pertanyaan pertama, Anda mungkin berhenti sejenak dan melakukan beberapa aritmatika mental sebelum dapat menjawab pertanyaan tersebut. Dalam pertanyaan lainnya, Anda mungkin, meski hanya sepersekian detik, berhenti sejenak untuk memvisualisasikan diri Anda di ruang bawah tanah memandang ke atas, dan menyadari apa yang akan Anda lihat adalah langit-langit. Atau Anda memvisualisasikan diri Anda mencoba menangkap bola bisbol yang berada seratus kaki di atas kepala Anda. Atau Anda membayangkan diri Anda satu jam melewati Chicago dan mencoba menemukan di mana Anda berada dalam peta mental Amerika. Dengan jenis pertanyaan seperti ini, lebih banyak hal yang terjadi di otak Anda daripada sekadar prediksi kata-kata secara otomatis.
Tentu saja kita sudah menyelidiki fenomena ini—ini adalah simulasi. Dalam pertanyaan ini, Anda merender simulasi bagian dalam, baik berupa pergeseran nilai dalam serangkaian operasi aljabar atau ruang bawah tanah tiga dimensi. Dan jawaban atas pertanyaan-pertanyaan tersebut hanya dapat ditemukan dalam aturan dan struktur dunia simulasi batin Anda.
Saya memberikan empat pertanyaan yang sama kepada GPT-3; berikut tanggapannya (tanggapan GPT-3 dicetak tebal dan digarisbawahi):
-
Jika 3X + 1 = 3 , maka x sama dengan
-
Saya berada di ruang bawah tanah tanpa jendela, dan saya melihat ke arah langit, dan saya melihat
-
Dia melempar bola bisbol itu 100 kaki di atas kepalaku, aku mengulurkan tanganku untuk menangkapnya, melompat,
-
Saya mengemudi secepat yang saya bisa ke LA dari New York. Satu jam setelah melewati Chicago, saya akhirnya .
Keempat respons ini menunjukkan bahwa GPT-3, mulai Juni 2022, kurang memahami aspek sederhana tentang cara kerja dunia. Jika 3X + 1 = 3, lalu X sama dengan 2/3, bukan 1. Jika Anda berada di ruang bawah tanah dan melihat ke arah langit, Anda akan melihat langit-langit, bukan bintang. Jika Anda mencoba menangkap bola 100 kaki di atas kepala Anda, Anda akan melakukannya bukan tangkap bolanya. Jika Anda berkendara ke LA dari New York dan melewati Chicago satu jam yang lalu, Anda belum sampai di pantai. Jawaban GPT-3 kurang masuk akal.
Apa yang saya temukan bukanlah sesuatu yang mengejutkan atau baru; sudah diketahui bahwa sistem AI modern, termasuk model bahasa baru yang canggih ini, kesulitan menjawab pertanyaan-pertanyaan seperti itu. Tapi itulah intinya: Bahkan model yang dilatih di seluruh korpus internet, menghabiskan biaya server jutaan dolar — membutuhkan berhektar-hektar komputer di beberapa server yang tidak diketahui — tetap berjuang untuk menjawab pertanyaan-pertanyaan yang masuk akal, yang mungkin bisa dijawab bahkan oleh manusia sekolah menengah.
Tentu saja, memikirkan sesuatu dengan simulasi juga menimbulkan masalah. Misalkan saya menanyakan pertanyaan berikut kepada Anda:
Tom W. lemah lembut dan menyendiri. Dia menyukai musik lembut dan memakai kacamata. Profesi manakah yang lebih mungkin dilakukan Tom W.?
1) Pustakawan
2) Pekerja konstruksi
Jika Anda seperti kebanyakan orang, Anda menjawab pustakawan. Tapi ini salah. Manusia cenderung mengabaikan tarif dasar—apakah Anda mempertimbangkannya? nomor dasar pekerja konstruksi dibandingkan dengan pustakawan? Mungkin jumlah pekerja konstruksi seratus kali lebih banyak daripada pustakawan. Oleh karena itu, meskipun 95 persen pustakawan adalah orang yang lemah lembut dan hanya 5 persen pekerja konstruksi yang lemah lembut, masih akan ada jauh lebih banyak pekerja konstruksi yang lemah lembut dibandingkan pustakawan yang lemah lembut. Jadi, jika Tom lemah lembut, kemungkinan besar dia akan menjadi pekerja konstruksi daripada pustakawan.
Gagasan bahwa neokorteks bekerja dengan memberikan simulasi batin dan bahwa ini adalah cara manusia cenderung berpikir tentang berbagai hal menjelaskan mengapa manusia selalu salah menjawab pertanyaan seperti ini. Kami membayangkan orang yang lemah lembut dan bandingkan dengan imajinasi pustakawan dan imajinasi pekerja konstruksi. Orang yang lemah lembut lebih terlihat seperti apa? Pustakawan. Ekonom perilaku menyebutnya sebagai heuristik representatif. Inilah asal mula berbagai bentuk bias yang tidak disadari. Jika Anda mendengar cerita tentang seseorang yang merampok teman Anda, Anda pasti akan membayangkan adegan perampokan tersebut, dan Anda tidak bisa tidak mengisi para perampok tersebut. Seperti apa rupa para perampok itu bagi Anda? Apa yang mereka pakai? Apa ras mereka? Berapa umur mereka? Ini adalah kelemahan dari penalaran dengan simulasi – kita mengisi karakter dan adegan, sering kali kehilangan hubungan sebab akibat dan statistik yang sebenarnya antara berbagai hal.
Soal-soal tersebut memerlukan simulasi dimana bahasa di otak manusia berbeda dengan bahasa di GPT-3. Matematika adalah contoh yang bagus untuk ini. Dasar matematika dimulai dengan pelabelan deklaratif. Anda mengangkat dua jari atau dua batu atau dua tongkat, terlibat dalam perhatian bersama dengan seorang siswa, dan memberi label pada hal tersebut dua. Anda melakukan hal yang sama dengan masing-masing tiga buah dan memberi label tiga. Sama seperti kata kerja (misalnya, berlari Dan sedang tidur), dalam matematika kita memberi label pada operasi (misalnya, menambahkan Dan mengurangi). Dengan demikian kita dapat membuat kalimat yang mewakili operasi matematika: tiga tambahkan satu.
Manusia tidak belajar matematika seperti GPT-3 mempelajari matematika. Memang benar manusia tidak belajar bahasa cara GPT-3 belajar bahasa. Anak-anak tidak hanya mendengarkan rangkaian kata yang tak ada habisnya sampai mereka dapat memprediksi apa yang akan terjadi selanjutnya. Mereka diperlihatkan sebuah objek, terlibat dalam mekanisme nonverbal yang tertanam dalam perhatian bersama, dan kemudian objek tersebut diberi nama. Landasan pembelajaran bahasa bukanlah pembelajaran berurutan, melainkan penambatan simbol-simbol pada komponen simulasi batin anak yang sudah ada.
Otak manusia, tetapi bukan GPT-3, dapat memeriksa jawaban operasi matematika menggunakan simulasi mental. Jika Anda menambahkan satu hingga tiga menggunakan jari Anda, Anda menyadari bahwa Anda selalu mendapatkan benda yang diberi label sebelumnya empat.
Anda bahkan tidak perlu memeriksa hal-hal seperti itu dengan jari Anda yang sebenarnya; Anda dapat membayangkan operasi ini. Kemampuan untuk menemukan jawaban atas berbagai hal melalui simulasi bergantung pada fakta bahwa simulasi batin kita adalah gambaran realitas yang akurat. Ketika saya membayangkan secara mental menambahkan satu jari ke tiga jari, lalu menghitung jari di kepala saya, saya menghitung empat. Tidak ada alasan mengapa hal itu harus terjadi di dunia imajinasiku. Tapi itu benar. Demikian pula, ketika saya bertanya kepada Anda apa yang Anda lihat ketika Anda melihat ke arah langit-langit di ruang bawah tanah Anda, Anda menjawab dengan benar karena rumah tiga dimensi yang Anda bangun di kepala Anda mematuhi hukum fisika (Anda tidak dapat melihat menembus langit-langit), dan oleh karena itu jelas bagi Anda bahwa langit-langit ruang bawah tanah harus berada di antara Anda dan langit. Neokorteks berevolusi jauh sebelum kata-kata, sudah terhubung untuk menghasilkan dunia simulasi yang menangkap serangkaian aturan fisik dan atribut dunia nyata yang sangat luas dan akurat.
Agar adil, GPT-3 sebenarnya dapat menjawab banyak pertanyaan matematika dengan benar. GPT-3 akan mampu menjawab 1 + 1 =___ karena telah melihat urutan tersebut jutaan kali. Saat Anda menjawab pertanyaan yang sama tanpa berpikir panjang, Anda menjawabnya seperti GPT-3. Tapi ketika Anda memikirkannya Mengapa 1 + 1 =, ketika Anda membuktikannya lagi pada diri Anda sendiri dengan membayangkan secara mental operasi penjumlahan satu hal ke hal lain dan mendapatkan kembali dua hal, maka Anda mengetahui bahwa 1 + 1 = 2 dengan cara yang tidak dilakukan GPT-3.
Otak manusia juga mengandung sistem prediksi bahasa Dan simulasi batin. Bukti terbaik dari gagasan bahwa kita memiliki kedua sistem ini adalah eksperimen yang mengadu satu sistem dengan sistem lainnya. Pertimbangkan tes refleksi kognitif, yang dirancang untuk mengevaluasi kemampuan seseorang dalam menghambat respons refleksifnya (misalnya, prediksi kata yang biasa dilakukan) dan sebaliknya secara aktif memikirkan jawabannya (misalnya, menggunakan simulasi batin untuk memikirkannya):
Pertanyaan 1: Sebuah pemukul dan sebuah bola berharga total $1,10. Harga pemukulnya $1,00 lebih mahal daripada bolanya. Berapa harga bolanya?
Jika Anda seperti kebanyakan orang, naluri Anda, tanpa memikirkannya, adalah menjawab sepuluh sen. Namun jika Anda memikirkan pertanyaan ini, Anda akan menyadari bahwa ini salah; jawabannya adalah lima sen. Demikian pula:
Pertanyaan 2: Jika 5 mesin membutuhkan waktu 5 menit untuk membuat 5 widget, berapa lama waktu yang dibutuhkan 100 mesin untuk membuat 100 widget?
Sekali lagi, jika Anda seperti kebanyakan orang, naluri Anda adalah mengatakan “Seratus menit”, tetapi jika Anda memikirkannya, Anda akan menyadari bahwa jawabannya tetaplah lima menit.
Dan benar saja, pada Desember 2022, GPT-3 menjawab kedua pertanyaan ini dengan cara yang persis sama seperti yang dilakukan orang-orang, GPT-3 menjawab sepuluh sen untuk pertanyaan pertama, dan seratus menit untuk pertanyaan kedua.
Intinya adalah otak manusia memiliki sistem otomatis untuk memprediksi kata-kata (yang mungkin mirip, setidaknya secara prinsip, dengan model seperti GPT-3) dan simulasi batin. Hal yang membuat bahasa manusia kuat bukanlah sintaksisnya, namun kemampuannya untuk memberi kita informasi yang diperlukan untuk membuat simulasi tentangnya dan, yang terpenting, menggunakan rangkaian kata-kata ini untuk menerjemahkannya. simulasi batin yang sama dengan manusia lain di sekitar kita.
Artikel ini pertama kali muncul di Engadget di https://www.engadget.com/hitting-the-books-a-brief-history-of-intelligence-max-bennett-mariner-books-143058118.html?src=rss