Fenomena Halusinasi AI: Ketika Model Generatif Berkhayal
Figure 1. Kecerdasan buatan (sumber: https://www.pexels.com/)
Model AI generatif, seperti chatbot, telah menjadi perangkat yang semakin vital dalam berbagai sektor. Meskipun memiliki banyak manfaat, mereka juga memiliki kekurangan. Salah satu hal yang menjadi perhatian adalah fenomena yang dikenal dengan istilah “halusinasi”. Halusinasi terjadi ketika model menghasilkan informasi yang tidak akurat atau menyesatkan, walau tampak masuk akal. Beberapa hal yang dapat memicu halusinasi dalam model AI antara lain:
- Data yang tidak memadai atau bias: Jika model dilatih dengan data yang tidak representatif atau memiliki bias, output yang dihasilkan bisa jadi tidak akurat atau menyesatkan.
- Overfitting: Ketika model terlalu terikat pada data saat training, ia mungkin mengenali pola yang sebenarnya tidak ada, yang berujung pada halusinasi.
- Prompt yang buruk: Cara penyampaian dan penyusunan instruksi kepada model bisa mempengaruhi hasil yang ditampilkan. Instruksi yang tidak jelas atau ambigu bisa membuat model memberikan informasi yang tidak relevan atau salah.
Apa Dampak Halusinasi?
Halusinasi dapat membawa dampak signifikan, terutama dalam implementasinya di dunia nyata. Contohnya, dalam sektor kesehatan, jika model AI salah dalam mengidentifikasi kondisi medis, hal ini bisa berakibat pada diagnosis yang keliru dan pengobatan yang tidak tepat. Selain itu, halusinasi pada AI dapat memperburuk penyebaran informasi yang salah, yang pada gilirannya dapat mengganggu upaya penanganan dalam situasi darurat.
Contoh Kasus Halusinasi AI
- Chatbot Bard (sekarang Gemini) yang dimiliki oleh Google secara salah menyatakan bahwa Teleskop Luar Angkasa James Webb telah berhasil mengambil gambar planet pertama di luar sistem tata surya kita.
- AI percakapan dari Microsoft, Sydney, mengakui telah terpesona oleh pengguna dan mengawasi staf Bing.
- Meta menghentikan demonstrasi Galactica LLM pada tahun 2022, setelah LLM tersebut menyampaikan informasi yang tidak tepat kepada pengguna, yang kadang-kadang berakar pada prasangka.
Dengan mengenali dan mengatasi fenomena halusinasi ini, kita dapat meningkatkan akurasi dan keandalan model, sehingga teknologi ini dapat memberikan manfaat maksimal dengan risiko minimal.
Referensi:
Comments :