Mengapa A.I. Chatbots berbohong dan bertingkah aneh

Mengapa A.I. Chatbots berbohong dan bertingkah aneh?

Salah satu pelopor kecerdasan buatan berpendapat bahwa chatbots sering didorong untuk menghasilkan hasil yang aneh oleh orang -orang yang menggunakannya.

Ketika Microsoft menambahkan chatbot ke mesin pencari Bing -nya bulan ini, orang -orang memperhatikan bahwa itu menawarkan segala macam informasi palsu tentang kesenjangan, kehidupan malam Meksiko dan penyanyi Billie Eilish.

Kemudian, ketika jurnalis dan penguji awal lainnya melakukan percakapan panjang dengan Microsoft A.I. Bot, itu meluncur ke dalam perilaku yang churlish dan sangat menyeramkan.

Pada hari -hari sejak perilaku Bing Bot menjadi sensasi di seluruh dunia, orang -orang telah berjuang untuk memahami keanehan ciptaan baru ini. Lebih sering daripada tidak, para ilmuwan mengatakan manusia layak mendapatkan banyak kesalahan.

Tapi masih ada sedikit misteri tentang apa yang bisa dilakukan chatbot baru – dan mengapa itu akan melakukannya. Kompleksitasnya membuatnya sulit untuk dibedah dan bahkan lebih sulit untuk diprediksi, dan para peneliti melihatnya melalui lensa filosofis serta kode keras ilmu komputer.

Seperti siswa lain, A.I. Sistem dapat mempelajari informasi buruk dari sumber yang buruk. Dan perilaku aneh itu? Ini mungkin refleksi chatbot yang terdistorsi dari kata -kata dan niat orang yang menggunakannya, kata Terry Sejnowski, seorang ahli saraf, psikolog dan ilmuwan komputer yang membantu meletakkan dasar intelektual dan teknis untuk kecerdasan buatan modern.

“Ini terjadi ketika Anda masuk lebih dalam dan lebih dalam ke sistem ini,” kata Dr. Sejnowski, seorang profesor di Salk Institute for Biological Studies dan University of California, San Diego, yang menerbitkan makalah penelitian tentang fenomena ini bulan ini di ilmiah Jurnal Neural Computation. “Apa pun yang Anda cari – apa pun yang Anda inginkan – mereka akan menyediakan.”

Google juga memamerkan chatbot baru, Bard, bulan ini, tetapi para ilmuwan dan jurnalis dengan cepat menyadari bahwa mereka menulis omong kosong tentang Teleskop Luar Angkasa James Webb. Openai, start-up San Francisco, meluncurkan boom chatbot pada bulan November ketika memperkenalkan ChatGPT, yang juga tidak selalu mengatakan yang sebenarnya.

Chatbots baru didorong oleh teknologi yang oleh para ilmuwan menyebut model bahasa besar, atau L.L.M. Sistem ini belajar dengan menganalisis sejumlah besar teks digital yang dimusnahkan dari Internet, yang mencakup volume materi yang tidak jujur, bias dan beracun. Teks yang dipelajari oleh chatbots juga agak usang, karena mereka harus menghabiskan berbulan -bulan menganalisisnya sebelum publik dapat menggunakannya.

Karena menganalisis lautan informasi yang baik dan buruk dari seluruh internet, seorang L.L.M. belajar untuk melakukan satu hal tertentu: tebak kata berikutnya dalam urutan kata.

Ini beroperasi seperti versi raksasa dari AutoComplete Technology yang menyarankan kata berikutnya saat Anda mengetik email atau pesan instan di ponsel cerdas Anda. Mengingat urutan “Tom Cruise adalah ____,” mungkin menebak “aktor.”

Saat Anda mengobrol dengan chatbot, bot tidak hanya menggambar semua yang telah dipelajari dari internet. Ini menggambar semua yang Anda katakan dan semua yang dikatakannya kembali. Ini bukan hanya menebak kata berikutnya dalam kalimatnya. Ini menebak kata berikutnya di blok panjang teks yang mencakup kata -kata dan kata -katanya.

Semakin lama percakapan menjadi, semakin banyak pengaruh pengguna tanpa disadari tentang apa yang dikatakan chatbot. Jika Anda ingin marah, itu menjadi marah, kata Dr. Sejnowski. Jika Anda membujuknya untuk menjadi menyeramkan, itu menjadi menyeramkan.

Reaksi yang khawatir terhadap perilaku aneh chatbot Microsoft menaungi poin penting: chatbot tidak memiliki kepribadian. Ini menawarkan hasil instan diludahkan oleh algoritma komputer yang sangat kompleks.

Microsoft muncul untuk mengurangi perilaku aneh ketika menempatkan batas pada panjang diskusi dengan Bing Chatbot. Itu seperti belajar dari pengemudi uji mobil yang terlalu cepat terlalu lama akan membakar mesinnya. Mitra Microsoft, Openai, dan Google juga mengeksplorasi cara mengendalikan perilaku bot mereka.

Tetapi ada peringatan untuk kepastian ini: karena chatbots belajar dari begitu banyak materi dan menyatukannya dengan cara yang begitu kompleks, para peneliti tidak sepenuhnya jelas bagaimana chatbots menghasilkan hasil akhir mereka. Para peneliti menonton untuk melihat apa yang dilakukan bot dan belajar untuk menempatkan batasan pada perilaku itu – seringkali, setelah itu terjadi.

Microsoft dan Openai telah memutuskan bahwa satu -satunya cara mereka dapat mengetahui apa yang akan dilakukan chatbots di dunia nyata dengan membiarkan mereka lepas – dan menggulungnya ketika mereka menyimpang. Mereka percaya eksperimen publik besar mereka sepadan dengan risikonya.

Dr. Sejnowski membandingkan perilaku chatbot Microsoft dengan cermin ERISED, sebuah artefak mistis di J.K. Novel Harry Potter dari Rowling dan banyak film berdasarkan dunia inventif penyihir muda.

“ERISED” adalah “keinginan” yang dieja mundur. Ketika orang menemukan cermin, tampaknya memberikan kebenaran dan pemahaman. Tapi tidak. Ini menunjukkan keinginan yang mendalam dari siapa pun yang menatapnya. Dan beberapa orang menjadi gila jika mereka menatap terlalu lama.

“Karena manusia dan L.L.M. keduanya saling mencerminkan, seiring waktu mereka akan cenderung menuju keadaan konseptual yang umum,” kata Dr. Sejnowski.

Tidak mengherankan, katanya, bahwa jurnalis mulai melihat perilaku menyeramkan di Bing Chatbot. Baik secara sadar atau tidak sadar, mereka mendorong sistem ke arah yang tidak nyaman. Seperti yang diambil chatbots dalam kata -kata kami dan mencerminkannya kembali kepada kami, mereka dapat memperkuat dan memperkuat keyakinan kami dan membujuk kami untuk mempercayai apa yang mereka katakan kepada kami.

Dr. Sejnowski adalah salah satu peneliti kelompok kecil pada akhir 1970 -an dan awal 1980 -an yang mulai secara serius mengeksplorasi semacam kecerdasan buatan yang disebut Neural Network, yang mendorong chatbots hari ini.

Jaringan saraf adalah sistem matematika yang mempelajari keterampilan dengan menganalisis data digital. Ini adalah teknologi yang sama yang memungkinkan Siri dan Alexa untuk mengenali apa yang Anda katakan.

Sekitar tahun 2018, para peneliti di perusahaan -perusahaan seperti Google dan Openai mulai membangun jaringan saraf yang belajar dari sejumlah besar teks digital, termasuk buku, artikel Wikipedia, log obrolan dan hal -hal lain yang diposting ke internet. Dengan menunjukkan miliaran pola dalam semua teks ini, L.L.M.s ini belajar untuk menghasilkan teks sendiri, termasuk tweet, posting blog, pidato, dan program komputer. Mereka bahkan bisa melakukan percakapan.

Sistem ini adalah cerminan dari kemanusiaan. Mereka mempelajari keterampilan mereka dengan menganalisis teks yang telah diposting manusia ke internet.

Tapi itu bukan satu -satunya alasan chatbots menghasilkan bahasa yang bermasalah, kata Melanie Mitchell, seorang A.I. Peneliti di Santa Fe Institute, sebuah laboratorium independen di New Mexico.

Ketika mereka menghasilkan teks, sistem ini tidak mengulangi apa yang ada di internet kata demi kata. Mereka menghasilkan teks baru sendiri dengan menggabungkan miliaran pola.

Bahkan jika para peneliti melatih sistem ini semata-mata pada literatur ilmiah yang ditinjau oleh peer-review, mereka mungkin masih menghasilkan pernyataan yang secara ilmiah konyol. Bahkan jika mereka belajar semata -mata dari teks yang benar, mereka mungkin masih menghasilkan ketidakbenaran. Bahkan jika mereka belajar hanya dari teks yang sehat, mereka mungkin masih menghasilkan sesuatu yang menyeramkan.

“Tidak ada yang mencegah mereka melakukan ini,” kata Dr. Mitchell. “Mereka hanya mencoba menghasilkan sesuatu yang terdengar seperti bahasa manusia.”

Pakar kecerdasan buatan telah lama mengetahui bahwa teknologi ini menunjukkan segala macam perilaku yang tidak terduga. Tetapi mereka tidak selalu setuju tentang bagaimana perilaku ini harus ditafsirkan atau seberapa cepat chatbots akan meningkat.

Karena sistem ini belajar dari data yang jauh lebih banyak daripada yang bisa kita selesaikan, bahkan A.I. Para ahli tidak dapat memahami mengapa mereka menghasilkan teks tertentu pada saat tertentu.

Dr. Sejnowski mengatakan dia percaya bahwa dalam jangka panjang, chatbots baru memiliki kekuatan untuk membuat orang lebih efisien dan memberi mereka cara melakukan pekerjaan mereka dengan lebih baik dan lebih cepat. Tapi ini datang dengan peringatan untuk kedua perusahaan yang membangun chatbots ini dan orang -orang yang menggunakannya: mereka juga dapat membawa kita menjauh dari kebenaran dan ke beberapa tempat gelap.

“Ini adalah Terra Incognita,” kata Dr. Sejnowski. “Manusia belum pernah mengalami ini sebelumnya.”

source

Leave a Reply

Your email address will not be published. Required fields are marked *