Platform chatbot dengan kecerdasan buatan alias AI sering kali memberikan jawaban atas pertanyaan pengguna. Namun, apakah jawaban-jawaban tersebut benar atau hanya omong kosong belaka? Large language models (LLMs) seperti ChatGPT dari OpenAI sering kali memberikan jawaban yang tidak masuk akal. Contohnya, ChatGPT pernah mengklaim bahwa Jembatan Golden Gate diangkut melintasi Mesir pada tahun 2016. Hal ini tentu saja membuat kita bertanya-tanya, seberapa bisa kita percaya pada jawaban dari AI?
Menurut Tech Crunch, seorang walikota di Australia pernah dituduh melakukan skandal penyuapan besar karena ChatGPT secara keliru menyebutkan hal tersebut. Bahkan, para peneliti menemukan bahwa LLM bisa dimanfaatkan untuk menyebarkan kode berbahaya kepada pengembang perangkat lunak tanpa mereka sadari. Selain itu, ChatGPT juga sering memberikan nasihat kesehatan yang buruk, seperti mengklaim bahwa minum anggur bisa mencegah kanker.
Ternyata, kecenderungan LLM untuk menciptakan fakta-fakta palsu ini disebabkan oleh fenomena yang dikenal sebagai halusinasi. Model AI generatif memprediksi kata, gambar, ucapan, musik, atau data lainnya berdasarkan pada pola-pola yang ada. Namun, kerangka kerja pelatihan LLM saat ini masih memiliki kelemahan, sehingga hasilnya seringkali tidak dapat dipercaya sepenuhnya.
Sebastian Berns, seorang peneliti Ph.D. di Queen Mary University of London, menjelaskan bahwa LLM bekerja dengan cara menyembunyikan kata-kata sebelumnya sebagai konteks. Hal ini mirip dengan teks prediktif di iOS yang terus menyarankan kata-kata berikutnya. Meskipun pendekatan berbasis probabilitas ini bekerja dengan baik dalam skala besar, namun hasilnya masih jauh dari kata pasti.