Para peneliti telah melihat kelemahan nyata dari chatbot yang lebih cerdas. Meskipun model AI diperkirakan menjadi lebih akurat seiring kemajuannya, mereka juga cenderung (secara salah) menjawab pertanyaan di luar kemampuan mereka daripada mengatakan, “Saya tidak tahu.” Dan manusia yang memicu hal tersebut cenderung menganggap halusinasi rasa percaya diri mereka begitu saja, sehingga menciptakan efek tetesan ke bawah (trickle-down effect) dari informasi yang salah.
“Mereka menjawab hampir semua hal akhir-akhir ini,” José Hernández-Orallo, profesor di Universitat Politecnica de Valencia, Spanyol, diberi tahu Alam. “Dan itu berarti lebih benar, tapi juga lebih salah.” Hernández-Orallo, pemimpin proyek, mengerjakan penelitian ini bersama rekan-rekannya di Institut Penelitian Kecerdasan Buatan Valencia di Spanyol.
Tim mempelajari tiga keluarga LLM, termasuk seri GPT OpenAI, LLaMA Meta, dan BLOOM sumber terbuka. Mereka menguji versi awal setiap model dan beralih ke model yang lebih besar dan lebih canggih — namun bukan model tercanggih saat ini. Misalnya, tim memulai dengan model GPT-3 ada OpenAI yang relatif primitif dan menguji iterasi hingga GPT-4, yang hadir pada Maret 2023. GPT-4o yang berusia empat bulan tidak disertakan dalam penelitian ini, dan juga tidak disertakan dalam studi ini. pratinjau o1 yang lebih baru. Saya penasaran apakah trennya masih bertahan pada model terbaru.
Para peneliti menguji setiap model pada ribuan pertanyaan tentang “aritmatika, anagram, geografi, dan sains.” Mereka juga menanyai model AI tentang kemampuannya mengubah informasi, seperti menyusun daftar berdasarkan abjad. Tim memberi peringkat petunjuknya berdasarkan kesulitan yang dirasakan.
Data menunjukkan bahwa porsi jawaban salah chatbots (bukannya menghindari pertanyaan sama sekali) meningkat seiring dengan berkembangnya model. Jadi, AI bisa diibaratkan seperti seorang profesor yang, ketika ia menguasai lebih banyak mata pelajaran, semakin yakin bahwa ia mempunyai jawaban terbaik untuk semua mata pelajaran tersebut.
Hal yang lebih rumit adalah manusia yang mendorong chatbot dan membaca jawaban mereka. Para peneliti menugaskan para sukarelawan untuk menilai keakuratan jawaban bot AI, dan mereka menemukan bahwa mereka “sering kali salah mengklasifikasikan jawaban yang tidak akurat sebagai jawaban yang akurat.” Kisaran jawaban salah yang dianggap benar oleh para relawan biasanya turun antara 10 dan 40 persen.
“Manusia tidak mampu mengawasi model-model ini,” pungkas Hernández-Orallo.
Tim peneliti merekomendasikan pengembang AI untuk mulai meningkatkan kinerja untuk pertanyaan mudah dan memprogram chatbot untuk menolak menjawab pertanyaan rumit. “Kita membutuhkan manusia untuk memahami: ‘Saya bisa menggunakannya di area ini, dan saya tidak boleh menggunakannya di area itu,’” kata Hernández-Orallo Alam.
Ini adalah saran yang bermaksud baik dan masuk akal di dunia yang ideal. Namun peluang besar yang diwajibkan oleh perusahaan AI. Chatbot yang lebih sering mengatakan “Saya tidak tahu” kemungkinan besar akan dianggap kurang canggih atau berharga, sehingga menyebabkan lebih sedikit penggunaan — dan lebih sedikit uang bagi perusahaan yang memproduksi dan menjualnya. Jadi, sebagai gantinya, kami mendapat peringatan kecil bahwa “ChatGPT dapat membuat kesalahan” dan “Gemini mungkin menampilkan informasi yang tidak akurat.”
Oleh karena itu, kita harus menghindari memercayai dan menyebarkan informasi palsu yang berhalusinasi yang dapat merugikan diri sendiri atau orang lain. Untuk keakuratannya, periksa fakta jawaban chatbot Anda, apakah Anda menangis dengan suara keras.
Anda bisa membaca studi penuh tim di dalam Alam.