001 Hak Akses (open/membership)membership
700 Entri Tambahan Nama OrangAlfan Farizki Wicaksono, supervisor; Syifa Nurhayati, supervisor; Kurniawati Azizah, examiner; Arlisa Yuliawati, examiner
336 Content Typetext (rdacontent)
264b Nama PenerbitFakultas Ilmu Komputer Universitas Indonesia
710 Entri Tambahan Badan KorporasiUniversitas Indonesia. Fakultas Ilmu Komputer
049 No. Barkod14-25-17268523
504 Catatan Bibliografipages 58-59
852 LokasiPerpustakaan UI
338 Carrier Typeonline resource (rdacarrier)
590 Cat. Sumber Pengadaan Koleksi;Deposit
903 Stock Opname
534 Catatan Versi Asli
Tahun Buka Akses2024
053 No. Induk14-25-17268523
653 Kata Kunciinformation retrieval; pencarian pertanyaan serupa kesehatan; BERT language model
040 Sumber PengataloganLibUI ind rda
245 Judul UtamaNeural Re-Ranker untuk Mengidentifikasi Pertanyaan Serupa pada Forum Kesehatan Berbahasa Indonesia = Neural Re-Rankers to Identify Duplicate Questions in Indonesian Health Forums
264c Tahun Terbit2024
650 Subyek TopikInformation retrieval -- Computer programs
850 Lembaga PemilikUniversitas Indonesia
520 Ringkasan/Abstrak/IntisariSistem perolehan pertanyaan serupa diimplementasikan pada banyak situs tanya jawab, khususnya pada forum tanya jawab kesehatan. Implementasi dari sistem pencarian pertanyaan serupa dapat beragam seperti text based retriever dan neural ranker. Permasalahan utama dari neural ranker adalah kurangnya penelitian dalam bahasa indonesia untuk modelnya, khususnya untuk yang menggunakan BERT sebagai model untuk deteksi pertanyaan serupa. Pada penelitian ini akan dicari tahu sejauh apa neural re-ranker BERT dapat memperbaiki kualitas ranking dari text-based retriever jika diterapkan fine-tuning pada model. Model yang digunakan oleh penelitian berupa BERT dan test collection yang digunakan merupakan dataset forum kesehatan yang disusun oleh Nurhayati (2019). Untuk mengetahui sejauh mana model berbasis BERT dapat berguna untuk re-ranking, eksperimen dilakukan pada model pre-trained multilingualBERT, indoBERT, stevenWH, dan distilBERT untuk melihat model yang terbaik untuk di-fine-tune. Penelitian juga mengusulkan dua metode fine-tuning yakni attention mask filter dengan IDF dan freezed layer dengan melakukan freezing pada beberapa layer di dalam BERT. Model dan metode ini kemudian diuji pada beberapa skenario yang telah ditentukan. Hasil dari eksperimen menunjukkan bahwa re-ranker dapat meningkatkan kualitas text based retriever bila di-fine-tune dengan metode dan skenario tertentu.
Beberapa model memberikan hasil yang lebih baik dengan dataset forum kesehatan dan dengan text based retriever BM25 dan TF-IDF. Model multilingualBERT dan metode fine-tuning layer freezing memberikan hasil yang terbaik dari semua kombinasi. Kenaikan tertinggi terdapat pada kombinasi BM25 dan multilingualBERT dengan layer freezing dengan kenaikan sebesar 0.051 dibandingkan BM25. ......The system of acquiring similar questions is implemented on many Question and Answering sites, including health forums. Implementations of similar question search systems can vary, such as text-based retrievers and neural rankers. The main issue with neural rankers is the lack of research in Indonesian language for neural ranker models, especially those using BERT. This study aims to investigate how far BERT as a neural re-ranker can improve the ranking quality of a text-based retriever when applied with fine-tuning. The model used in this research is BERT, and the test collection used is a health forum dataset compiled by Nurhayati (2019). To answer the research question, experiments were conducted on multiple pre-trained models: multilingual BERT, IndoBERT, stevenWH, and distilBERT to identify the best model for fine-tuning. This study also proposes two new fine-tuning methods: attention mask filter with IDF threshholding and frozen layer by freezing some layers within BERT. These models and methods were then tested under predefined scenarios. The experiment results show that the re-ranker can enhance the quality of the text-based retriever when fine-tuned with specific methods and scenarios. These models perform especially well using the health form dataset aswell as using the text based retrievers BM25 and TF-IDF. Out of all models, multilingulBERT performed the best with freezed layer fine-tuning performing as the best fine-tuning method. The most significant increase of all combinations is the combination of BM25 and multilingualBERT with freezed layer fine-tuning with a 0.051 increase compared to the baseline BM25.
904b Pemeriksa Lembar KerjaAmiarsih Indah Purwiati-Februari 2024
090 No. Panggil SetempatS-pdf
d-Entri Utama Nama Orang
500 Catatan UmumDapat diakses di UIANA (lib.ui.ac.id) saja.
337 Media Typecomputer (rdamedia)
d-Entri Tambahan Nama Orang
526 Catatan Informasi Program StudiIlmu Komputer
100 Entri Utama Nama OrangEzra Pasha Ramadhansyah, author
264a Kota TerbitDepok
300 Deskripsi Fisikxii, 59 pages : illustration + appendix
904a Pengisi Lembar KerjaAmiarsih Indah Purwiati-Februari 2024
Akses Naskah Ringkas
856 Akses dan Lokasi Elektronik
502 Catatan Jenis KaryaSkripsi
041 Kode Bahasaind