
Image generated with DALL·E through ChatGPT
Opini: Epidemi Halusinasi AI, Krisis yang Belum Kita Siap Hadapi
Terlepas dari janji berkelanjutan untuk mengurangi halusinasi AI, alat AI utama—dari ChatGPT hingga Perplexity hingga Gemini, dan Apple Intelligence—terus menghasilkan informasi palsu, seringkali dengan konsekuensi yang mengkhawatirkan. Para ahli, termasuk mereka yang memperingatkan tentang risiko AI, telah tertipu oleh konten yang dibuat-buat, dan bahkan alat canggih seperti Deep Research membuat laporan palsu. Kebenaran tampaknya tetap berada di tangan manusia
Chatbot telah menjadi lebih baik sepanjang tahun—banyak lebih baik. Namun, ada satu masalah yang belum sepenuhnya terselesaikan dan dikenal sebagai “halusinasi.”
Chatbot kesayangan kita memberikan jawaban brilian atas pertanyaan kita dengan tekad dan otoritas seperti Yoda dalam fiksi ilmiah, meskipun kadang mereka sangat salah. Dan kita percaya pada mereka. Kadang-kadang secara membabi buta.
Banyak ilmuwan, ahli, dan bahkan pengembang Chatbot telah memperingatkan tentang halusinasi selama bertahun-tahun. Namun, meski adopsi telah menyebar dengan cepat—OpenAI melaporkan 400 juta pengguna aktif mingguan hanya beberapa hari yang lalu—literasi AI belum mengimbangi.
Penelitian terbaru, kasus pengadilan, dan peristiwa dramatis terus menunjukkan bahwa misinformasi bahkan lebih berbahaya dari yang kita sadari.
Lebih Buruk Dari yang Kita Pikirkan
Pada awalnya, menemukan kesalahan utama yang dihasilkan oleh AI cukup lucu—seperti ringkasan AI memalukan yang dihasilkan oleh Gemini yang menyarankan pengguna menambahkan “lem tidak beracun ke saus” untuk resep pizza atau menyarankan makan “satu batu kecil per hari” tahun lalu. Namun, seiring kita memulihkan kepercayaan pada AI, situasi telah meningkat, menjadi semakin mengkhawatirkan.
Pada bulan Desember, kita melihat alat AI Apple menciptakan judul berita “meringkas” berita dan menghasilkan informasi palsu dan menyesatkan seperti salah mengklaim bahwa BBC telah mengumumkan Luigi Mangione telah menembak dirinya sendiri. Setelah insiden ini, publikasi tersebut mengajukan pengaduan terhadap Apple dan mulai meneliti akurasi AI generatif saat menganalisis konten berita.
Temuan BBC, yang diterbitkan baru beberapa hari lalu, mengungkapkan statistik yang mengkhawatirkan: 51% dari jawaban yang diberikan oleh AI Chatbot populer mengandung masalah signifikan, 13% dari kutipan yang disediakan oleh model sepenuhnya dibuat-buat, dan 19% dari datanya salah.
Remaja adalah salah satu kelompok yang paling terpengaruh, karena mereka seringkali kesulitan membedakan berita palsu dari berita yang sebenarnya, dan dapat dengan mudah dipengaruhi oleh konten yang dihasilkan oleh AI. Sebuah penelitian yang dipublikasikan pada Januari menunjukkan bahwa 35% remaja telah ditipu oleh konten palsu yang dihasilkan oleh model AI, dan 22% membagikan informasi palsu tersebut.
Namun, bukan hanya remaja dan orang-orang yang mudah terganggu yang tertipu oleh halusinasi ini. Dan bukan hanya Gemini atau Apple Intelligence saja.
Tidak Ada Model AI yang Aman, Tidak Ada Industri yang Terlindungi
Penelitian yang dilakukan oleh BBC membenarkan isu lain: semua model AI berhalusinasi. Para ahli mempertimbangkan model-model paling populer, seperti ChatGPT, Gemini, Perplexity, dan Copilot. Tidak ada model AI yang bebas dari kesalahan. Anthropic memiliki halaman yang membahas isu ini, memberikan ide tentang cara mengurangi halusinasi.
“Bahkan model bahasa paling canggih, seperti Claude, terkadang dapat menghasilkan teks yang faktualnya salah atau tidak konsisten dengan konteks yang diberikan,” demikian pernyataan dalam dokumen tersebut. Perusahaan AI lain juga telah berbagi halaman serupa dengan tips dan trik untuk menghindari konten palsu, tetapi ini tidak mudah dan telah menjadi masalah yang belum terselesaikan selama waktu yang cukup lama.
Kembali pada tahun 2023, OpenAI mengumumkan bahwa mereka sedang mengerjakan cara inovatif untuk menghilangkan halusinasi. Peringatan spoiler: masalah ini masih menjadi masalah besar hingga saat ini.
Pada Januari 2024—lebih dari setahun yang lalu—CEO Aravind Srinivas mengatakan bahwa halusinasi Perplexity sebagian besar terjadi pada akun yang tidak berbayar. “Sebagian besar keluhan berasal dari versi gratis produk ini,” jelas Srinivas, menambahkan bahwa mereka sudah membawa lebih banyak GPU untuk memperbaiki masalah ini. Namun, pada bulan Oktober, New York Post dan Dow Jones telah mengajukan gugatan hukum terhadap Perplexity—karena model mereka terus membuat berita palsu tentang publikasi mereka—, dan alat AI yang dikembangkan oleh startup untuk pemilu AS telah diuji oleh para ahli yang menunjukkan inkonsistensi, ringkasan yang tidak akurat, dan halusinasi.
Penyakit Halusinasi Mencapai Tingkat Ilmiah dan Akademik
Salah satu kekhawatiran terbesar saat ini adalah bahwa bahkan para ahli—termasuk mereka yang memperingatkan tentang risiko dan bahaya AI—telah tertipu oleh alat-alat yang rentan terhadap halusinasi ini.
Pada Desember, profesor Stanford dan ahli teknologi dan disinformasi Jeff Hancock dituduh menggunakan AI untuk merumuskan pernyataan pengadilan. Hancock mengajukan deklarasi 12 halaman yang membela hukum negara bagian tahun 2023 yang mengkriminalisasi penggunaan deepfakes, termasuk 15 kutipan. Namun, dua dari kutipan tersebut tidak dapat ditemukan di mana pun—karena ChatGPT, alat AI pilihan ahli disinformasi tersebut, hanya membuatnya sendiri.
Hancock—yang dijadwalkan mengajar “Kebenaran, Kepercayaan, dan Teknologi” tahun ini—menjelaskan bahwa ia menggunakan chatbot OpenAI untuk mengorganisir sitasi-sitasinya yang kemudian menyebabkan halusinasi. Peneliti tersebut meminta maaf—dan tetap mendukung poin-poin substansial dari pernyataannya—, dan mengajarkan kepada kita semua pelajaran berharga bahwa bahkan para ahli dan mereka yang paling berpengetahuan tentang risiko AI pun rentan terhadapnya.
Profesor Hancock tentu saja bukan satu-satunya yang mengajukan dokumen yang berisi fabrikasi yang dihasilkan AI di pengadilan. Kasus lain yang melibatkan gugatan terhadap Walmart baru-baru ini menjadi viral karena pengacara menggunakan kasus palsu yang dihasilkan oleh AI untuk membangun argumen mereka. Bahkan, masalah ini telah menjadi begitu sering di pengadilan AS sehingga firma hukum Morgan & Morgan baru-baru ini mengirim email ke lebih dari 1.000 pengacaranya, memperingatkan mereka tentang risiko penggunaan sitasi yang dihasilkan AI, dan American Bar Association mengingatkan 400.000 anggotanya tentang aturan etika pengacara—termasuk informasi yang dihasilkan AI.
Penelitian Mendalam Juga
Salah satu alat AI yang paling populer saat ini adalah “Deep Research,” yang dirancang untuk para ahli dan ilmuwan yang mencari hasil yang lebih kompleks dalam penelitian mereka. Halusinasi juga tidak absen dari alat ini, meskipun versi OpenAI awalnya membutuhkan langganan Pro seharga $200 untuk mengaksesnya.
Pengguna di Reddit telah mengungkapkan kekhawatiran mereka mengenai isu ini, melaporkan bahwa semua model populer yang menampilkan alat penelitian mendalam—Perplexity, ChatGPT, dan DeepSeek—telah mengalami halusinasi. Para peneliti dan ahli AI juga telah membagikan hasil yang mengkhawatirkan di platform media sosial lainnya seperti X.
“Alat ini menghasilkan laporan yang ditulis dengan indah dan berargumen kuat,” tulis seorang pengguna yang menggunakan alat Deep Research dari OpenAI untuk mempelajari matematika yang dikerjakan oleh anak muda. “Masalahnya adalah semuanya itu palsu.”
“Deep Research menciptakan serangkaian statistik dan analisis, sambil mengklaim mengumpulkan dataset dari ribuan artikel, dan seolah-olah mengumpulkan informasi tahun lahir untuk setiap penulis dari sumber yang terpercaya,” bagikan seorang lainnya. “Tidak ada satupun dari ini yang benar.”
Halusinasi terburuk yang pernah saya saksikan dari seorang sota LLM dalam waktu yang cukup lama
Deep Research membuat banyak statistik & analisis, sambil mengklaim mengumpulkan kumpulan data dari ribuan artikel, & konon mengumpulkan informasi tahun lahir untuk setiap penulis dari sumber yang terpercaya
Tidak ada satupun dari ini yang benar https://t.co/ZZk40vTKIM pic.twitter.com/RAnNVcHDmR
— Paul Calcraft (@paul_cal) 18 Februari 2025
Kebenaran Tetap Ada Di Tangan Manusia
Apakah chatbot akan pernah berhenti berhalusinasi? Titik lemah AI telah jelas selama bertahun-tahun—kami melihatnya dalam podcast seperti Planet Money ketika mereka mencoba episode yang dihasilkan oleh AI pada tahun 2023, dan kami terus melihatnya dalam model-model yang paling canggih, bahkan yang dirancang untuk penggunaan eksklusif oleh komunitas yang ahli dan paham teknologi.
Mungkin sudah saatnya kita menerima bahwa ini akan tetap menjadi masalah dan memahami bahwa kita harus bertanggung jawab atas apa yang kita ciptakan dan bagikan menggunakan alat AI.
Fakta bahwa meskipun tampak seperti masalah yang sudah dikenal, tetapi para ahli risiko AI sendiri terjebak dalam tulisan AI yang persuasif dan meyakinkan, tentunya sangat mengkhawatirkan. Situasi semakin kompleks seiring adopsi terus berakselerasi dengan kecepatan penuh, melampaui literasi digital, sementara ketidakkonsistenan dan kutipan yang dibuat-buat semakin banyak.
Kasus di mana halusinasi AI telah terbongkar cenderung menjadi kasus di mana pemeriksaan fakta sangat penting—sesuatu yang Zuckerberg harus diingatkan sekarang setelah dia menghapus departemen pemeriksaan faktanya. Hal ini sangat jelas dalam ruang sidang, di mana pengacara dan hakim bekerja untuk memverifikasi fakta dan kasus, dan di media berita, di mana keakuratan dan validasi sumber sangat penting.
Tapi bagaimana dengan kasus di mana tidak ada yang mengawasi detail ini? Apa yang terjadi dalam konteks sehari-hari, lebih pribadi? Saat ini, jutaan siswa sedang menghafal jawaban yang dihasilkan AI untuk studi mereka, pengguna mengikuti instruksi yang disediakan AI untuk mengobati penyakit, dan yang lainnya sedang belajar tentang topik baru, sepenuhnya mempercayai teknologi tersebut.
Konsekuensi dari realitas baru yang kita hadapi ini adalah tak terhingga dan tak terduga, dan kebenaran—untuk saat ini—berada di tangan mereka yang meluangkan waktu untuk mempertanyakan dan memverifikasi.
Berikan komentar
Batal