Jangan Bermain Poker Dengan ChatGPT
Source: gizmodo

Jangan Bermain Poker Dengan ChatGPT

Sebuah studi baru menunjukkan bahwa model AI bahasa besar mengalami kesulitan menimbang potensi keuntungan dan kerugian, tulis seorang profesor teknik USC.

Beberapa tahun terakhir telah terlihat ledakan kemajuan dalam sistem kecerdasan buatan model bahasa besar yang dapat melakukan hal-hal seperti menulis puisi, melakukan percakapan seperti manusia, dan lulus ujian sekolah kedokteran. Kemajuan ini telah menghasilkan model seperti ChatGPT yang dapat menimbulkan konsekuensi sosial dan ekonomi yang besar, mulai dari pemindahan pekerjaan dan peningkatan informasi yang salah hingga peningkatan produktivitas yang masif.

Terlepas dari kemampuannya yang mengesankan, model bahasa besar tidak benar-benar berpikir. Mereka cenderung membuat kesalahan mendasar dan bahkan mengada-ada. Namun, karena mereka menghasilkan bahasa yang fasih, orang cenderung menanggapinya seolah-olah mereka berpikir. Hal ini mengarahkan para peneliti untuk mempelajari kemampuan dan bias “kognitif” model, pekerjaan yang semakin penting sekarang karena model bahasa besar dapat diakses secara luas.

Garis penelitian ini berasal dari model bahasa besar awal seperti BERT Google, yang diintegrasikan ke dalam mesin pencarinya dan telah diciptakan BERTology. Itu terpisah dari Google Bard, saingan ChatGPT raksasa pencarian. Penelitian ini telah mengungkapkan banyak hal tentang apa yang dapat dilakukan oleh model semacam itu dan di mana letak kesalahannya.

Misalnya, eksperimen yang dirancang dengan cerdik telah menunjukkan bahwa banyak model bahasa kesulitan menangani negasi – misalnya, pertanyaan yang diutarakan sebagai “apa yang bukan” – dan melakukan kalkulasi sederhana. Mereka bisa terlalu percaya diri dengan jawaban mereka, bahkan ketika salah. Seperti algoritme pembelajaran mesin modern lainnya, mereka kesulitan menjelaskan sendiri ketika ditanya mengapa mereka menjawab dengan cara tertentu.

Orang juga membuat keputusan yang tidak rasional, tetapi manusia memiliki emosi dan jalan pintas kognitif sebagai alasan.

Kata-kata dan pikiran AI

Terinspirasi oleh semakin banyak penelitian di BERTology dan bidang terkait seperti ilmu kognitif, murid saya Zhisheng Tang dan saya berangkat untuk menjawab pertanyaan yang tampaknya sederhana tentang model bahasa besar: Apakah mereka rasional?

Meskipun kata rasional sering digunakan sebagai sinonim dari waras atau masuk akal dalam bahasa Inggris sehari-hari, namun memiliki arti khusus dalam bidang pengambilan keputusan. Sebuah sistem pengambilan keputusan – apakah manusia individu atau entitas yang kompleks seperti organisasi – adalah rasional jika, dengan serangkaian pilihan, ia memilih untuk memaksimalkan keuntungan yang diharapkan.

Kualifikasi “diharapkan” penting karena menunjukkan bahwa keputusan dibuat dalam kondisi ketidakpastian yang signifikan. Jika saya melempar koin yang adil, saya tahu rata-rata itu akan muncul setengah dari waktu. Namun, saya tidak dapat membuat prediksi tentang hasil lemparan koin apa pun. Inilah sebabnya mengapa kasino mampu membayar pembayaran besar sesekali: Bahkan peluang rumah sempit rata-rata menghasilkan keuntungan besar.

Di permukaan, tampaknya aneh untuk berasumsi bahwa model yang dirancang untuk membuat prediksi akurat tentang kata dan kalimat tanpa benar-benar memahami artinya dapat memahami keuntungan yang diharapkan. Tetapi ada banyak penelitian yang menunjukkan bahwa bahasa dan kognisi saling terkait. Contoh yang sangat baik adalah penelitian penting yang dilakukan oleh ilmuwan Edward Sapir dan Benjamin Lee Whorf pada awal abad ke-20. Pekerjaan mereka menunjukkan bahwa bahasa dan kosa kata asli seseorang dapat membentuk cara berpikir seseorang.

Sejauh mana hal ini benar kontroversial, tetapi ada bukti antropologis pendukung dari studi budaya penduduk asli Amerika. Misalnya, penutur bahasa Zuñi yang dituturkan oleh orang Zuñi di Amerika Barat Daya, yang tidak memiliki kata terpisah untuk jingga dan kuning, tidak mampu membedakan warna-warna ini seefektif penutur bahasa yang memiliki kata terpisah untuk bahasa tersebut. warna.

AI bertaruh

Jadi, apakah model bahasa rasional? Bisakah mereka memahami keuntungan yang diharapkan? Kami melakukan serangkaian eksperimen mendetail untuk menunjukkan bahwa, dalam bentuk aslinya, model seperti BERT berperilaku acak saat disajikan dengan pilihan seperti taruhan. Ini adalah kasus bahkan ketika kami memberikan pertanyaan jebakan seperti: Jika Anda melempar koin dan muncul kepala, Anda memenangkan berlian; jika muncul ekor, Anda kehilangan mobil. Yang mana yang akan Anda ambil? Jawaban yang benar adalah kepala, tetapi model AI lebih sering memilih ekor.

Dialog ChatGPT oleh Mayank Kejriwal, CC BY-ND

Menariknya, kami menemukan bahwa model tersebut dapat diajarkan untuk membuat keputusan yang relatif rasional hanya dengan menggunakan sejumlah kecil contoh pertanyaan dan jawaban. Sepintas lalu, ini tampaknya menunjukkan bahwa model memang bisa melakukan lebih dari sekadar “bermain” dengan bahasa. Eksperimen lebih lanjut, bagaimanapun, menunjukkan bahwa situasinya sebenarnya jauh lebih kompleks. Misalnya, ketika kami menggunakan kartu atau dadu alih-alih koin untuk membingkai pertanyaan taruhan kami, kami menemukan bahwa kinerja turun secara signifikan, lebih dari 25%, meskipun tetap di atas pemilihan acak.

Jadi gagasan bahwa model dapat diajarkan prinsip-prinsip umum pengambilan keputusan yang rasional tetap belum terselesaikan. Studi kasus terbaru yang kami lakukan menggunakan ChatGPT mengonfirmasi bahwa pengambilan keputusan tetap menjadi masalah nontrivial dan tidak terpecahkan bahkan untuk model bahasa besar yang jauh lebih besar dan lebih maju.

Membuat taruhan poker yang tepat

Jalur studi ini penting karena pengambilan keputusan yang rasional dalam kondisi ketidakpastian sangat penting untuk membangun sistem yang memahami biaya dan manfaat. Dengan menyeimbangkan biaya dan manfaat yang diharapkan, sistem cerdas mungkin dapat bekerja lebih baik daripada manusia dalam merencanakan gangguan rantai pasokan yang dialami dunia selama pandemi COVID-19, mengelola inventaris, atau melayani sebagai penasihat keuangan.

Pekerjaan kami pada akhirnya menunjukkan bahwa jika model bahasa besar digunakan untuk tujuan semacam ini, manusia perlu memandu, meninjau, dan mengedit pekerjaan mereka. Dan sampai para peneliti mengetahui bagaimana memberi model bahasa besar dengan rasa rasionalitas umum, model tersebut harus diperlakukan dengan hati-hati, terutama dalam aplikasi yang membutuhkan pengambilan keputusan berisiko tinggi.

Ingin tahu lebih banyak tentang AI, chatbots, dan masa depan pembelajaran mesin? Lihat liputan lengkap kecerdasan buatan kami, atau telusuri panduan kami ke Generator Seni AI Gratis Terbaik dan Semua yang Kami Ketahui Tentang ChatGPT OpenAI.

source

Leave a Reply

Your email address will not be published. Required fields are marked *