Peneliti AI bergegas untuk mengoreksi Senator Chris Murphy setelah dia mengulangi kiasan yang semakin populer terkait dengan semua chatbot
Senator Connecticut Chris Murphy menggerakkan sarang lebah peneliti AI minggu ini dengan mengulangi sejumlah informasi yang salah, dan pernyataan yang semakin populer tentang kapasitas chatbot AI tingkat lanjut untuk mencapai pemahaman seperti manusia dan mengajar diri mereka sendiri topik yang kompleks. Pakar AI terkemuka berbicara dengan Gizmodo mengatakan klaim Murphy adalah omong kosong yang terlepas dari kenyataan dan berpotensi berisiko mengalihkan perhatian orang dari masalah regulasi data yang nyata dan mendesak dan transparansi algoritmik yang mendukung pornografi bencana yang sensasional.
Dalam sebuah tweet pada hari Minggu, Murphy mengklaim ChatGPT telah “mengajar sendiri untuk melakukan kimia tingkat lanjut”, tampaknya tanpa masukan apa pun dari pencipta manusia. Tweet tersebut selanjutnya mengilhami ChatGPT, chatbot model bahasa besar OpenAI yang sangat digemari, dengan karakteristik manusia yang unik seperti pengambilan keputusan yang maju dan independen. ChatGPT, menurut Murphy, sepertinya benar-benar ada di kursi pengemudi.
“Itu [chemistry] tidak dibangun ke dalam model,” tambah Murphy. “Tidak ada yang memprogramnya untuk mempelajari kimia yang rumit. Ia memutuskan untuk mengajar dirinya sendiri, kemudian membuat pengetahuannya tersedia bagi siapa saja yang bertanya.”
Peneliti AI top turun ke Murphy seperti sel darah putih yang mengerumuni virus.
“Tolong jangan menyebarkan informasi yang salah,” peneliti AI dan mantan pemimpin bersama tim Ethical AI Google, Timnit Gebru, menanggapi di Twitter. “Pekerjaan kami melawan hype sudah cukup sulit tanpa politisi ikut-ikutan.”
Sentimen itu digaungkan oleh Profesor Institut Santa Fe dan penulis Kecerdasan Buatan Melanie Mitchell yang menyebut karakterisasi ChatGPT yang tidak disengaja oleh Murphy sebagai “salah informasi yang berbahaya”.
“Setiap kalimat salah,” tambah Mitchell.
Murphy mencoba memainkan kontrol kerusakan dan merilis pernyataan lain beberapa jam kemudian mengabaikan kritik sebagai upaya untuk “memalukan terminologi” pembuat kebijakan tentang masalah teknologi.
“Saya cukup yakin saya memiliki premis yang benar,” tambah Murphy. Twitter kemudian menambahkan tag konteks ke tweet asli dengan pemberitahuan yang memberi tahu pemirsa “pembaca menambahkan konteks yang menurut mereka ingin diketahui orang.”
Profesor rekanan Universitas New York dan penulis More Than a Glitch Meredith Broussard memberi tahu Gizmodo bahwa bolak-balik adalah contoh utama dari anggota parlemen yang “belajar di depan umum”, tentang topik teknis yang kompleks dan bergerak cepat. Seperti media sosial sebelumnya, pembuat undang-undang dari semua lapisan telah berjuang untuk tetap mendapat informasi dan terdepan dalam teknologi.
“Orang-orang memiliki banyak kesalahpahaman tentang AI,” kata Broussard. “Tidak ada yang salah dengan belajar dan tidak ada yang salah dengan belajar sesuatu yang salah.”
Broussard mengakui berpotensi bermasalah bagi orang untuk percaya model AI “menjadi manusia” (mereka tidak) tetapi mengatakan pertengkaran publik seperti ini tetap merupakan kesempatan untuk secara kolektif mempelajari lebih lanjut tentang cara kerja AI dan bias yang melekat padanya.
Mengapa argumen Murphy penuh omong kosong
Profesor Linguistik Universitas Washington Emily M. Bender, yang menulis panjang lebar tentang masalah menghubungkan agensi mirip manusia dengan chatbots memberi tahu Gizmodo bahwa pernyataan Murphy mencakup beberapa “kesalahan mendasar” pemahaman ketika datang ke model bahasa besar (LLM). Pertama, Murphy berusaha menggambarkan ChatGPT sebagai entitas mandiri dan otonom dengan agensinya sendiri. Tidak. Sebaliknya, Bender mengatakan ChatGPT hanyalah sebuah “artefak” yang dirancang oleh manusia di OpenAI. ChatGPT mencapai kemahirannya yang tampak dalam bidang kimia dengan cara yang sama ketika ia dapat lulus ujian lisensi medis atau tes sekolah bisnis atau: ia hanya diberi distribusi kata dan simbol yang tepat dalam kumpulan data pelatihannya.
“ChatGPT disiapkan untuk menjawab pertanyaan (tentang kimia atau lainnya) dari masyarakat umum karena OpenAI memasang antarmuka semacam itu,” tulis Bender.
Bahkan itu mungkin melebih-lebihkan. Ya, ChatGPT dapat menggunakan soal kimia atau dokumen lain yang terdapat dalam kumpulan datanya untuk menanggapi pertanyaan pengguna secara mengesankan, tetapi itu tidak berarti model tersebut benar-benar memahami apa yang dilakukannya dengan cara yang berarti. Sama seperti ChatGPT yang tidak benar-benar memahami konsep cinta atau seni, ChatGPT juga tidak benar-benar mempelajari apa arti kimia, kumpulan data besar atau tidak.
“Hal utama yang perlu diketahui publik adalah bahwa sistem ini dirancang untuk meniru komunikasi manusia dalam bahasa, tetapi tidak untuk benar-benar memahami bahasa apalagi alasan,” kata Bender kepada Gizmodo.
Direktur Pelaksana AI Now Institute Sarah Myers West menegaskan kembali sentimen itu, memberi tahu Gizmodo beberapa ketakutan yang lebih esoteris terkait dengan ChatGPT bertumpu pada kesalahpahaman inti tentang apa yang sebenarnya terjadi ketika teknologi menjawab pertanyaan pengguna.
“Inilah kunci untuk memahami tentang Chat GPT dan model bahasa besar serupa lainnya,” kata West. “Mereka sama sekali tidak mencerminkan kedalaman pemahaman bahasa manusia—mereka meniru bentuknya.” West mengakui ChatGPT akan sering terdengar meyakinkan tetapi bahkan model terbaiknya tidak memiliki “konteks penting dari perspektif, keyakinan, dan niat apa yang dicerminkan oleh alat ChatGPT.”
LLM: Rasionalitas vs Probabilitas
Bender telah menulis panjang lebar tentang ilusi rumit tentang rasionalitas yang disajikan dalam chatbots dan bahkan menciptakan istilah “burung beo Stochastic” untuk menggambarkannya. Menulis di sebuah makalah dengan nama yang sama, Bender menggambarkan burung beo stokastik sebagai sesuatu, “menyatukan urutan bentuk linguistik secara sembarangan … menurut informasi probabilistik tentang bagaimana mereka digabungkan, tetapi tanpa referensi makna apa pun.” Itu membantu menjelaskan ChatGPT secara singkat.
Itu tidak berarti ChatGPT dan penerusnya tidak akan menghasilkan kemajuan teknologi yang mengesankan dan menarik. Microsoft dan Google telah meletakkan dasar untuk mesin pencari masa depan yang berpotensi mampu menawarkan hasil yang jauh lebih personal dan relevan bagi pengguna daripada yang diperkirakan hanya beberapa tahun sebelumnya. Musisi dan artis lain juga pasti akan bermain-main dengan LLM untuk menciptakan karya transgresif yang sebelumnya tidak dapat dipahami.
Tapi tetap saja, Bender khawatir berpikir seperti Murphy dapat membuat orang salah menafsirkan respons yang tampaknya koheren dari sistem ini sebagai kesalahan untuk pembelajaran atau penemuan seperti manusia. Peneliti AI khawatir kesalahpahaman inti dapat membuka jalan bagi bahaya di dunia nyata. Manusia, mabuk gagasan memuji mesin canggih seperti Tuhan, bisa jatuh ke dalam perangkap percaya bahwa sistem ini terlalu dapat dipercaya. (ChatGPT dan Google Bard telah menunjukkan kesediaan untuk secara teratur berbohong melalui gigi mereka, membuat beberapa orang menyebut mereka “ideal Platonis dari omong kosong”). Pengabaian total terhadap kebenaran atau kenyataan dalam skala besar berarti ekosistem informasi yang sudah tersumbat dapat dibanjiri dengan gelombang “non-informasi” yang dihasilkan oleh AI.
“Apa yang saya ingin Sen Murphy dan pembuat kebijakan lainnya ketahui adalah bahwa sistem seperti ChatGPT menimbulkan risiko besar bagi ekosistem informasi kita,” kata Bender.
Ketakutan hari kiamat AI dapat mengalihkan perhatian dari masalah yang bisa dipecahkan
West juga khawatir kita sedang mengalami, “siklus kegembiraan dan kecemasan yang sangat akut.” Era peninggian LLM yang terlalu sensasional ini berisiko membutakan orang terhadap masalah regulasi dan transparansi yang lebih mendesak yang menatap langsung ke wajah mereka.
“Yang harus kita khawatirkan adalah bahwa jenis hype ini dapat melebih-lebihkan kemampuan sistem AI dan mengalihkan perhatian dari masalah yang mendesak seperti ketergantungan yang mendalam dari gelombang AI ini pada segelintir perusahaan,” kata West kepada Gizmodo dalam sebuah wawancara. “Kecuali kita memiliki intervensi kebijakan, kita menghadapi dunia di mana lintasan AI tidak dapat dipertanggungjawabkan kepada publik, dan ditentukan oleh segelintir perusahaan yang memiliki sumber daya untuk mengembangkan alat ini dan bereksperimen dengannya di alam liar.”
Bender setuju dan mengatakan bahwa industri teknologi “sangat membutuhkan” peraturan cerdas tentang masalah seperti pengumpulan data, pengambilan keputusan otomatis, dan akuntabilitas. Sebaliknya, Bender menambahkan, perusahaan seperti AI tampak lebih tertarik untuk membuat pembuat kebijakan sibuk meributkan “skenario hari kiamat” yang melibatkan AI yang berakal.
“Saya pikir kita perlu mengklarifikasi pertanggungjawaban,” kata Bender. “Jika ChatGPT mengeluarkan beberapa non-informasi ke dunia, siapa yang bertanggung jawab untuk itu? OpenAI ingin mengatakan tidak. Saya pikir pemerintah kita bisa mengatakan sebaliknya.”