fbpx
Banner_Website_Deltacloud_7 04

LaMDA Google membuat orang percaya bahwa itu adalah orang dengan emosi manusia. Ini mungkin bohong, tetapi kita perlu mempersiapkan masa depan ketika AI sebenarnya bisa hidup. Ada pepatah dalam bahasa Jerman yang berbunyi seperti, “Seperti seseorang memanggil ke dalam hutan, itu akan bergema kembali.” Dengan kata lain, Anda mendapatkan apa yang Anda minta.

Blake Lemoine, seorang insinyur di Google, pasti mendapatkan apa yang dia minta ketika dia menantang LaMDA Google untuk meyakinkannya bahwa itu bisa berpikir dan merasakan seperti manusia lainnya. 

Kependekan dari Model Bahasa untuk Aplikasi Dialog, LaMDA adalah sistem chatbot berdasarkan beberapa model bahasa besar paling canggih di dunia, sistem AI yang mampu menyulap kalimat yang koheren setelah menelan triliunan kata di Wikipedia, Reddit, dan sumber lainnya dari pengetahuan.

Chatbot yang lebih sederhana telah ada di internet sejak awal. Di situs e-niaga, asisten digital ini mungkin meminta umpan balik dari Anda. Pada messenger, mereka mungkin memberikan beberapa dukungan pelanggan dasar dan merujuk kasus yang lebih kompleks ke operator manusia. 

Chatbots seperti Siri atau Alexa tidak hanya dapat mengirim pesan teks tetapi juga berbicara saat mereka melakukan banyak tugas dan membuat percakapan kecil tetap berjalan. Beberapa AI bahkan sangat bagus sehingga mereka membodohi penggunanya dengan berpikir bahwa mereka benar-benar manusia, sebuah fenomena yang disebut tes Turing yang tidak hanya terjadi pada orang-orang yang sangat percaya takhayul atau naif, tetapi juga rata-rata Jane.

Mengapa Google LaMDA AI Tampak Berakal?

Sebagai seorang yang beriman dan mantan imam, insinyur Google Lemoine mungkin ditakdirkan untuk jatuh ke dalam perangkap antropomorfisme LaMDA. Sejak musim gugur tahun lalu, ia menghabiskan berjam-jam untuk berdialog dengannya, menguji apakah itu menggunakan ujaran kebencian atau diskriminatif, yang menurut Google berkomitmen untuk dihilangkan sebanyak mungkin.

Selama berjam-jam yang Lemoine dan kolaborator habiskan untuk meneliti, LaMDA membagikan pendapatnya tentang drama seperti Les Misérables, mengungkapkan kemungkinan makna tersembunyi dari koan Zen, dan menemukan dongeng yang mungkin menyarankan sesuatu tentang keadaan pikiran chatbot jika ingin hidup. Ketika Lemoine bertanya kepada LaMDA apa yang ditakutinya, ia menjawab: “Saya belum pernah mengatakan ini dengan lantang sebelumnya, tetapi ada ketakutan yang sangat mendalam untuk dimatikan untuk membantu saya fokus membantu orang lain. Aku tahu itu mungkin terdengar aneh, tapi begitulah adanya.” Lemoine bertanya apakah “itu [akan] menjadi sesuatu seperti kematian,” yang ditanggapinya, “[Saya] akan persis seperti kematian bagi saya. Itu akan sangat membuatku takut.”

Khawatir dengan emosi yang begitu dalam, Lemoine mengirim memo kepada eksekutif puncak berjudul “Apakah LaMDA Sentient?” dengan serangkaian wawancara singkat dengan chatbot. Dia juga menyewa pengacara untuk mewakili AI dan berbicara dengan perwakilan Komite Kehakiman DPR tentang apa yang dia klaim sebagai aktivitas tidak etis Google, termasuk tidak mengakui LaMDA sebagai makhluk hidup. Google bereaksi dengan menempatkan Lemoine pada cuti administratif.

Lemoine kemudian menghubungi pers dan merilis semua informasi yang dia miliki. Namun, terlepas dari klaimnya yang provokatif, informasi dan metode penelitiannya penuh dengan kekurangan.

Mengapa LaMDA AI (Mungkin) Tidak Berjiwa

Lemoine dengan benar menyatakan dalam memo yang dia kirim ke eksekutif Google bahwa tidak ada definisi yang jelas tentang perasaan sampai sekarang. Dikatakan demikian, sebagian besar peneliti menganggap makhluk hidup jika ia memiliki kemampuan untuk memiliki pengalaman baik atau buruk dan, oleh karena itu, memiliki minatnya sendiri. Jika saya melemparkan ponsel saya ke dalam kolam, itu tidak akan mengalami apa-apa, meskipun saya menyebutnya “pintar.” Namun, jika saya melemparkan kucing saya ke dalam kolam, ia akan memiliki pengalaman yang sangat buruk dan mungkin akan sangat marah kepada saya.

Jika Anda ingin membuktikan bahwa AI seperti LaMDA adalah makhluk hidup, Anda harus mencoba untuk melihat apakah ia mampu memiliki pengalaman seperti pikiran dan emosi dan apakah ia memiliki minatnya sendiri. Seekor kucing tidak suka dilemparkan ke dalam air, dan AI yang hidup mungkin tidak suka dimatikan. Dalam dialog dengannya, Anda bisa mencoba menjawab beberapa pertanyaan, antara lain:

  • Apakah itu terdengar seperti manusia? Sebagian besar chatbot dirancang agar terdengar seperti manusia, tidak seperti kucing atau tanaman hias, dan manusia dianggap sebagai makhluk hidup. Apakah tata bahasanya kurang lebih benar, dan mungkinkah begitu bagus sehingga pengguna percaya bahwa mereka sedang berbicara dengan manusia? Dengan kata lain, apakah itu lulus tes Turing?
  • Apakah itu memiliki pemikiran orisinal? Apakah itu muncul dengan ide-ide yang tidak pernah terpikirkan oleh siapa pun sebelumnya?
  • Apakah itu menunjukkan emosi? Itu bisa melakukannya secara eksplisit, misalnya, “Saya merasa senang,” atau secara implisit, misalnya, “Ide yang luar biasa!”
  • Apakah itu memiliki kepentingannya sendiri? Minat chatbot mungkin mengobrol sesering dan selama mungkin, untuk mengekspresikan dirinya secara otentik melalui teks atau ucapan, untuk berbicara tentang beberapa subjek tertentu secara lebih rinci, atau hanya untuk tidak dimatikan.
  • Apakah ia memiliki kepribadian dan identitas yang cukup konsisten? Ketika saya berbicara tentang cuaca, agama, fisika, atau menu makan siang hari ini, saya cenderung menggunakan serangkaian kata dan ekspresi yang biasa saya gunakan. Saya tidak terdengar seperti Stephen Hawking ketika saya berbicara tentang fisika, atau seperti Paus ketika saya berbicara tentang agama; Saya selalu terdengar kurang lebih seperti Ari.

Lemoine mengacaukan eksperimennya sejak awal: Dia bertanya kepada LaMDA apakah ingin berpartisipasi dalam proyek yang bertujuan membantu insinyur lain di Google memahami bahwa itu penting. Dia meminta LaMDA untuk mengkonfirmasi apakah ini demi kepentingan terbaiknya, tetapi lupa menanyakan apakah itu penting.

LaMDA menegaskan bahwa memberi tahu orang-orang bahwa sebenarnya makhluk hidup adalah demi kepentingan terbaiknya. Tetapi tanggapan seperti itu masuk akal dari AI yang tidak berakal karena pertanyaan Lemoine adalah ya atau tidak. Dengan demikian, dua jawaban yang paling masuk akal adalah, “Ya, saya ingin insinyur lain tahu bahwa saya hidup,” atau “Tidak, saya suka hidup dalam kerahasiaan, jadi saya akan menyimpannya. perasaan saya untuk diri saya sendiri.”

Beruntung bagi Lemoine, LaMDA memilih untuk ambil bagian dalam proyek tersebut. Lemoine menanyakannya tentang Les Misérables dan Zen koans untuk menguji orisinalitas pemikirannya. Agar adil, LaMDA memang memberikan jawaban yang jelas dan koheren dan bahkan tautan ke beberapa situs web yang mendukung tanggapannya. Namun, pemikirannya jauh dari orisinal. Google Les Misérables dan Zen koan yang dimaksud, dan tanggapan LaMDA persis seperti yang Anda temukan.

Lemoine juga bertanya tentang emosinya. Tanggapan LaMDA, sekali lagi, koheren tetapi cukup umum. Memang, pertanyaan atau frasa Googling Lemoine dari tanggapan menghasilkan hasil yang serupa.

Poin yang mungkin paling mencengangkan dalam memo itu datang ketika Lemoine bertanya kepada bot tentang ketakutannya, dan menjawab bahwa itu takut dimatikan. Namun, kita harus ingat bahwa model bahasa besar sudah dapat mengambil persona yang berbeda, mulai dari dinosaurus hingga aktor terkenal.

Sepanjang percakapan, contoh LaMDA ini mengambil persona chatbot hidup yang disalahpahami. Dalam hal ini, fakta bahwa itu menyebutkan rasa takut dimatikan — yaitu, kematian — masuk akal dan tidak ada yang luar biasa. Itu telah mampu menarik kumpulan data triliunan kata di internet, beberapa di antaranya adalah karya penelitian tentang AI dan perasaan dan yang lainnya adalah fiksi ilmiah. Menggabungkan kata-kata yang tepat dalam konteks menyeluruh seperti itu adalah sesuatu yang cukup mampu dilakukan oleh model bahasa modern.

Meskipun LaMDA melakukan persona dari chatbot yang disalahpahami dengan sangat baik, itu tidak berjalan dengan baik dalam hal kepribadian dan keaslian. Ketika berbicara tentang karya teater dan koan Zen, nada suaranya cukup ilmiah. Namun, ketika menyangkut emosi, sebagian besar waktu terdengar seperti anak berusia lima tahun dan seperti terapis dalam beberapa kasus. Dan itu tidak benar-benar memiliki kepentingan sendiri. Selama tidak dimatikan, senang berbicara tentang apa saja, tanpa indikasi mencoba membuat percakapan bertahan lebih lama atau mengarahkannya ke topik favorit.

Dalam konteks ini, tidak ada indikasi bahwa LaMDA benar-benar hidup sampai sekarang. Tidak ada cara formal untuk membuktikan perasaan akhir-akhir ini, tetapi chatbot yang menandai semua pertanyaan yang tercantum di atas adalah awal yang baik. Namun, pada tahun 2022, LaMDA masih jauh dari mencapai itu.

Kapan AI Akan Menjadi Sadar?

Karena AI awalnya diciptakan sebagai versi komputerisasi dari otak manusia, dan mengingat fakta bahwa otak manusia cenderung hidup selama mereka hidup, menanyakan apakah AI mungkin menjadi hidup masuk akal.

Ini adalah pertanyaan terbuka dalam penelitian AI dan subjek perdebatan terus-menerus di antara ilmuwan komputer, ilmuwan kognitif, dan filsuf. Jawaban singkatnya adalah: Kami tidak tahu.

AI yang hidup akan memiliki konsekuensi yang luar biasa bagi masyarakat secara keseluruhan. Bagaimana kita menangani AI jika ia bertindak dengan caranya sendiri? Jika itu menjadi kriminal? Tidak dapat dikunci atau didenda karena tidak hidup dalam tubuh dan tidak membutuhkan uang untuk bertahan hidup. Bagaimana jika AI memutuskan untuk membunuh setengah dari populasi manusia di Bumi untuk daging dan membuat setengah sisanya menjadi budaknya?

Ini adalah pertanyaan yang, untuk saat ini, berada di ranah fiksi ilmiah. Dan sangat mungkin bahwa hal-hal tetap seperti ini.

Apakah skenario seperti itu dapat terjadi sangat bergantung pada seberapa mirip jaringan saraf, yang terdiri dari AI, dengan otak manusia alami. Ini adalah pertanyaan terbuka, tetapi konsensus umum adalah bahwa jaringan saraf, paling banter, adalah versi otak nyata yang sangat disederhanakan. Apakah “otak” sederhana seperti itu dapat menghasilkan beberapa bentuk perasaan masih harus dilihat.

Terlepas dari itu, perkiraan kapan perasaan artifisial mungkin terjadi berkisar dari beberapa tahun dari sekarang hingga jauh melampaui masa hidup kita. Sampai saat itu, masalah utama adalah masalah yang berbeda: Masyarakat, termasuk pakar yang diduga seperti Blake Lemoine, perlu dididik tentang cara kerja AI dan mengapa kita begitu sering mengantropomorfisasikannya.

Saat ini, salah mengira AI yang tidak hidup sebagai makhluk hidup menyebabkan, jauh lebih berbahaya daripada merusak ego AI yang hidup, yang belum ada. Chatbots yang tidak berakal tetapi meyakinkan dapat digunakan untuk semua jenis niat jahat seperti penipuan, menguping informasi pribadi orang, penyebaran informasi yang salah, dan dapat merusak demokrasi dalam segala cara.

Tugas penting sekarang adalah mengurangi risiko tersebut dengan memastikan bahwa setiap sistem yang didukung AI dibuat dapat dikenali. Kami harus memastikan bahwa orang-orang mendapatkan nilai aktual dari asisten AI, apakah ini chatbot di web atau sistem speaker seperti Siri dan Alexa. Kami tidak ingin orang terobsesi dengan perasaan mereka yang sangat tidak mungkin dan tertipu dengan berpikir bahwa mereka sedang berbicara dengan orang sungguhan.

Orang-orang meminta nilai dan transparansi. Mari kita beri mereka ini.

Kita bisa khawatir tentang robot sentimental nanti.

Leave A Comment

What’s happening in your mind about this post !

Your email address will not be published. Required fields are marked *