TERKINI24.ID – OpenAI, perusahaan di balik ChatGPT, baru-baru ini merilis sebuah riset yang mengungkap akar masalah di balik fenomena “halusinasi” pada model bahasa. Menurut perusahaan, kecerdasan buatan (AI) sering kali memberikan jawaban yang salah namun meyakinkan karena sistem pelatihan dan evaluasinya lebih menghargai tebakan daripada pengakuan atas ketidakpastian.
Dilansir dari makalah penelitian terbaru OpenAI, pada Sabtu (6/9/2025), halusinasi (istilah untuk pernyataan yang masuk akal namun tidak benar) tetap menjadi tantangan mendasar bagi semua model bahasa besar, termasuk versi mendatang seperti GPT-5. OpenAI menegaskan bahwa meskipun kemampuannya terus meningkat, masalah ini sulit dihilangkan sepenuhnya karena cara kinerja model diukur saat ini.
Sistem Evaluasi Mendorong AI untuk Menebak
Penyebab utama halusinasi pada model bahasa terletak pada metode evaluasi yang digunakan secara luas di industri teknologi. Sistem ini secara tidak langsung memberi insentif yang salah pada AI. Dalam risetnya, OpenAI menganalogikan situasi ini seperti ujian pilihan ganda, di mana menebak jawaban yang tidak diketahui memiliki peluang untuk benar, sedangkan membiarkannya kosong sudah pasti mendapat nilai nol.
Hal yang sama berlaku pada model AI. Ketika hanya dinilai berdasarkan akurasi, atau persentase jawaban yang benar, model didorong untuk selalu menebak demi mendapatkan skor setinggi mungkin. Padahal, menurut OpenAI, kesalahan faktual yang meyakinkan jauh lebih buruk daripada sebuah pengakuan ketidakpastian.
“Sebagian besar evaluasi mengukur kinerja model dengan cara yang mendorong tebakan daripada kejujuran tentang ketidakpastian,” tulis para peneliti dalam laporannya.
Akurasi Tinggi Bisa Menipu
OpenAI memberikan contoh konkret melalui data evaluasi SimpleQA. Model lama mereka, OpenAI o4-mini, memiliki tingkat akurasi sedikit lebih tinggi (24%) dibandingkan model baru gpt-5-thinking-mini (22%). Namun, tingkat kesalahan atau halusinasi pada model lama mencapai 75%, jauh lebih tinggi dari model baru yang hanya 26%.
Perbedaan ini terjadi karena model baru dirancang untuk lebih sering “abstain” atau tidak memberikan jawaban pasti ketika tidak yakin (tingkat abstain 52% berbanding 1%). Hal ini sejalan dengan prinsip yang tercantum dalam Model Spec OpenAI.
“Lebih baik menunjukkan ketidakpastian atau meminta klarifikasi daripada memberikan informasi yang meyakinkan namun mungkin salah,” demikian bunyi pernyataan dalam spesifikasi tersebut.
Asal Mula Halusinasi dari Prediksi Kata
Selain masalah evaluasi, riset ini juga menjelaskan dari mana kesalahan faktual yang sangat spesifik berasal. Model bahasa pada awalnya dilatih melalui proses yang disebut pretraining, di mana mereka belajar memprediksi kata berikutnya dari miliaran teks di internet.
Dalam proses ini, model hanya melihat contoh bahasa yang fasih tanpa label “benar” atau “salah” untuk setiap pernyataan.
OpenAI mengibaratkan hal ini dengan mencoba menebak tanggal lahir hewan peliharaan hanya dari fotonya. Karena tanggal lahir adalah fakta acak yang jarang muncul, algoritma akan kesulitan mempelajarinya dan pasti akan membuat kesalahan. Sebaliknya, pola yang konsisten seperti ejaan dan tata bahasa dapat dipelajari dengan mudah. Fakta-fakta arbitrer inilah yang sering kali menjadi sumber halusinasi.
Secara keseluruhan, riset OpenAI menyoroti bahwa masalah halusinasi pada AI bukanlah sekadar kesalahan teknis, melainkan produk sampingan dari sistem evaluasi yang ada. Dengan mendorong model untuk mengakui ketidakpastian alih-alih menebak, industri dapat mengambil langkah signifikan untuk membangun AI yang lebih andal dan jujur.