Pakar Ungkap AI Suka Kasih Jawaban Omong Kosong

Pakar Ungkap AI Suka Kasih Jawaban Omong Kosong

Vu Ha, seorang peneliti di Allen Institute for Artificial Intelligence, mengatakan bahwa LLM akan selalu berhalusinasi. Namun, ia percaya bahwa halusinasi bisa dikurangi dengan cara melatih dan menggunakan LLM dengan lebih bijak. Salah satu cara yang bisa dilakukan adalah dengan menghubungkan basis pengetahuan yang berkualitas tinggi dengan LLM untuk memberikan jawaban yang lebih akurat.

Ha juga menekankan pentingnya pembelajaran dari umpan balik manusia (RLHF) untuk mengurangi halusinasi pada LLM. Metode ini melibatkan pelatihan LLM, pengumpulan informasi tambahan, dan penyempurnaan model melalui RLHF. Meskipun RLHF tidak sempurna, namun teknik ini telah berhasil digunakan oleh OpenAI untuk melatih beberapa modelnya, termasuk GPT-4.

Jadi, meskipun LLM cenderung berhalusinasi, namun dengan pendekatan yang tepat dan penggunaan yang bijak, kita bisa meminimalisir dampak negatif yang ditimbulkan oleh halusinasi tersebut. Dengan begitu, kita bisa memanfaatkan kecerdasan buatan ini untuk kebaikan dan kemajuan teknologi.