Hasil Pencarian

Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 66264 dokumen yang sesuai dengan query
cover
Dimas Ichsanul Arifin
"Volume data hukum yang dihasilkan semakin besar setiap harinya. Oleh karena itu, kebutuhan akan sistem otomatis dan semi-otomatis, seperti sistem temu-balik informasi meningkat. Sistem temu-balik informasi dokumen hukum membantu praktisi hukum menemukan dokumen yang relevan dengan cepat dan efisien. Terkait hal tersebut, penelitian ini mengeksplorasi penggunaan model neural re-ranker pada sistem temu-balik informasi dokumen hukum dalam bahasa Inggris dan bahasa Indonesia. Tidak hanya itu, penelitian ini juga membahas beberapa pendekatan untuk meningkatkan efektivitas proses fine-tune dari model neural re-ranker. Model neural re-ranker dikembangkan untuk melakukan pengurutan ulang terhadap hasil pencarian awal yang didapat dari model pencocokan teks BM25. Implementasi ini menggunakan beberapa model neural re-ranker seperti BERT, IndoBERT, mBERT, dan XLM-RoBERTa yang melalui proses fine-tune. Hasil eksperimen menunjukkan bahwa model neural re-ranker BERT, IndoBERT, dan mBERT dapat meningkatkan performa dari sistem temu-balik informasi dokumen hukum yang sebelumnya hanya memanfaatkan model berbasis pencocokan teks seperti TF-IDF dan BM25. Peningkatan ini terlihat dari Skor Mean Average Percision (MAP) yang meningkat dari 0,760 menjadi 0,834 pada salah satu skenario yang dilakukan. Hal ini menunjukkan kinerja keseluruhan sistem temu-balik informasi yang lebih baik pada berbagai kueri. Sementara itu, pendekatan berupa pembekuan lapisan encoder berguna untuk meningkatkan efektifitas dari implementasi dari sistem temu-balik informasi yang memanfaatkan model neural re-ranker.

The volume of legal data produced is getting bigger every day. Therefore, the need for automated and semi-automatic systems, such as information retrieval systems, is increasing. Legal document information retrieval systems help legal practitioners find relevant documents quickly and efficiently. In this regard, this research explores the use of the neural re-ranker model in a legal document information retrieval system in English and Indonesian. Not only that, this research also discusses several approaches to increase the effectiveness of the fine-tune process of the neural re-ranker model. A neural re-ranker model was developed to re-rank the initial search results obtained from the BM25 text matching model. This implementation uses several neural re-ranker models such as BERT, IndoBERT, mBERT, and XLM-RoBERTa which go through a fine-tune process. Experimental results show that the neural re-ranker models BERT, IndoBERT, and mBERT can improve the performance of legal document information retrieval systems that previously only utilized text matching-based models such as TF-IDF and BM25. This improvement can be seen from the Mean Average Percision (MAP) score which increased from 0,760 to 0,834 in one of the scenarios carried out. This indicates better overall performance of the information retrieval system on various queries. Meanwhile, the approach of freezing the encoder layer is useful for increasing the effectiveness of the implementation of an information retrieval system that utilizes the neural re-ranker model."
Lengkap +
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ezra Pasha Ramadhansyah
"Sistem perolehan pertanyaan serupa diimplementasikan pada banyak situs tanya jawab, khususnya pada forum tanya jawab kesehatan. Implementasi dari sistem pencarian pertanyaan serupa dapat beragam seperti text based retriever dan neural ranker. Permasalahan utama dari neural ranker adalah kurangnya penelitian dalam bahasa indonesia untuk modelnya, khususnya untuk yang menggunakan BERT sebagai model untuk deteksi pertanyaan serupa. Pada penelitian ini akan dicari tahu sejauh apa neural re-ranker BERT dapat memperbaiki kualitas ranking dari text-based retriever jika diterapkan fine-tuning pada model. Model yang digunakan oleh penelitian berupa BERT dan test collection yang digunakan merupakan dataset forum kesehatan yang disusun oleh Nurhayati (2019). Untuk mengetahui sejauh mana model berbasis BERT dapat berguna untuk re-ranking, eksperimen dilakukan pada model pre-trained multilingualBERT, indoBERT, stevenWH, dan distilBERT untuk melihat model yang terbaik untuk di-fine-tune. Penelitian juga mengusulkan dua metode fine-tuning yakni attention mask filter dengan IDF dan freezed layer dengan melakukan freezing pada beberapa layer di dalam BERT. Model dan metode ini kemudian diuji pada beberapa skenario yang telah ditentukan. Hasil dari eksperimen menunjukkan bahwa re-ranker dapat meningkatkan kualitas text based retriever bila di-fine-tune dengan metode dan skenario tertentu.
Lengkap +
Beberapa model memberikan hasil yang lebih baik dengan dataset forum kesehatan dan dengan text based retriever BM25 dan TF-IDF. Model multilingualBERT dan metode fine-tuning layer freezing memberikan hasil yang terbaik dari semua kombinasi. Kenaikan tertinggi terdapat pada kombinasi BM25 dan multilingualBERT dengan layer freezing dengan kenaikan sebesar 0.051 dibandingkan BM25.

The system of acquiring similar questions is implemented on many Question and Answering sites, including health forums. Implementations of similar question search systems can vary, such as text-based retrievers and neural rankers. The main issue with neural rankers is the lack of research in Indonesian language for neural ranker models, especially those using BERT. This study aims to investigate how far BERT as a neural re-ranker can improve the ranking quality of a text-based retriever when applied with fine-tuning. The model used in this research is BERT, and the test collection used is a health forum dataset compiled by Nurhayati (2019). To answer the research question, experiments were conducted on multiple pre-trained models: multilingual BERT, IndoBERT, stevenWH, and distilBERT to identify the best model for fine-tuning. This study also proposes two new fine-tuning methods: attention mask filter with IDF threshholding and frozen layer by freezing some layers within BERT. These models and methods were then tested under predefined scenarios. The experiment results show that the re-ranker can enhance the quality of the text-based retriever when fine-tuned with specific methods and scenarios. These models perform especially well using the health form dataset aswell as using the text based retrievers BM25 and TF-IDF. Out of all models, multilingulBERT performed the best with freezed layer fine-tuning performing as the best fine-tuning method. The most significant increase of all combinations is the combination of BM25 and multilingualBERT with freezed layer fine-tuning with a 0.051 increase compared to the baseline BM25."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Abdul Rahman
"Website Helpdesk PDDikti memiliki sekumpulan knowledge yang belum didukung oleh sistem pencarian yang efektif. Penelitian ini bertujuan untuk membangun system temu-balik informasi yang efektif dengan skor metrik yang tinggi terhadap knowledge Helpdesk PDDikti. Metode yang digunakan dalam penelitian ini adalah penerapan model temu-balik informasi berbasis text matching pada berbagai model, yang kemudian disempurnakan dengan dua metode perbaikan ranking dokumen: (1) metode eskpansi istilah pada dokumen menggunakan prediksi kueri dari model doc2query, dan (2) metode reranking dokumen menggunakan model LambdaMART. Hasil penelitian menunjukkan bahwa di antara beberapa model temu-balik informasi berbasis text matching, model BM25 memberikan kinerja terbaik dengan skor MRR 0,781. Selanjutnya, hasil ranking dokumen dari model BM25 dapat ditingkatkan akurasinya melalui metode ekspansi istilah dengan lima kueri menggunakan pemilihan kandidat random sampling, yang meningkatkan skor MRR menjadi 0,799. Namun, penggunaan metode reranking dengan model LambdaMART untuk meningkatkan akurasi hasil ranking dokumen belum memberikan hasil yang lebih baik dibandingkan metode ekspansi istilah. Meskipun demikian, terdapat varian model reranking LambdaMART yang menggunakan fitur semantic similarity dan fitur skor agregat, yang mampu mengalahkan model BM25 tanpa ekspansi istilah, dengan skor MRR terbaik masing-masing 0,782 dan 0,787. Meskipun begitu, peningkatan ini masih belum cukup signifikan.

The PDDikti Helpdesk website has a collection of knowledge that is not yet supported by an effective search system. This study aims to develop an effective information retrieval system with high metric scores for the PDDikti Helpdesk knowledge base. The method used in this research involves applying text matching-based information retrieval models across various models, which are then refined using two document ranking improvement methods: (1) term expansion in documents using query predictions from the doc2query model, and (2) document reranking using the LambdaMART model.The research results indicate that among several text matching-based information retrieval models, the BM25 model provides the best performance with an MRR score of 0.781. Furthermore, the document ranking results from the BM25 model can be improved in accuracy through the term expansion method with five queries using random sampling for candidate selection, which increases the MRR score to 0.799.However, the use of the reranking method with the LambdaMART model to improve document ranking accuracy did not yield better results compared to the term expansion method. Nevertheless, there are variants of the LambdaMART reranking model that use semantic similarity features and aggregate score features, which managed to outperform the BM25 model without term expansion, with the best MRR scores of 0.782 and 0.787, respectively. However, these improvements are still not significant enough."
Lengkap +
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Arya Bintang Pratama Kumaladjati
"Penelitian ini bertujuan untuk meningkatkan efektivitas model Temu-kembali Informasi di bidang hukum dengan memanfaatkan metode Term Expansion. Latar belakang penelitian ini didasarkan pada kebutuhan praktisi hukum akan sistem yang dapat melakukan pencarian informasi secara otomatis dan efisien dalam database dokumen hukum yang besar dan kompleks. Pendekatan yang diusulkan dalam penelitian ini menggunakan arsitektur Cascade-Ranking Model, yang terdiri dari dua tahapan utama: Sparse Retrieval Model untuk pencarian awal dan algoritma Re-ranking untuk penyusunan ulang hasil pencarian. Penelitian ini berfokus pada eksplorasi kinerja Sparse Retrieval Model melalui penerapan teknik Term Expansion, yang mencakup Query Expansion dan Document Expansion. Query Expansion dilakukan dengan berbagai pendekatan, termasuk non-contextual word embedding, contextual word embedding dengan BERT, dan Local Analysis. Document Expansion melibatkan penambahan prediksi query yang relevan ke dalam dokumen untuk meningkatkan kecocokan dengan query pengguna. Hasil dari eksperimen menunjukkan bahwa tidak ada skenario yang secara mutlak unggul dalam semua metrik evaluasi yang digunakan. Beberapa skenario menunjukkan keunggulan dalam satu metrik tertentu namun mengalami penurunan pada metrik lainnya. Pada salah satu skenario berhasil meningkatkan R@20 dari 0,896 menjadi 0,906, selain itu pada skenario lainnya berhasil meningkatkan metrik P@5 dari 0,186 menjadi 0,192. Selain itu, pada skenario yang menggunakan stopword dengan konteks hukum untuk melakukan filter terhadap kata yang ingin diekspansi dengan word embedding, berhasil meningkatkan R@20 dari 0,896 menjadi 0,916 dan mendapatkan p-value sebesar 0,045. P-value yang dibawah 0,05 ini berarti terjadi peningkatan yang signifikan pada skenario tersebut. Meskipun dapat meningkatkan beberapa metrik, Query Expansion tidak selalu meningkatkan efektivitas Sparse Retrieval Model secara signifikan, terutama karena kurang presisinya kata yang diekspansi dan keterbatasan vocabulary model embedding yang digunakan. Penggunaan BERT untuk kontekstual checking juga belum memberikan hasil yang optimal.

This research aims to improve the effectiveness of Information Retrieval models in the legal field by utilizing Term Expansion methods. The background of this research is based on the need of legal practitioners for a system that can automatically and efficiently search for information in large and complex legal document databases. The proposed approach in this research uses a Cascade-Ranking Model architecture, which consists of two main stages: a Sparse Retrieval Model for initial searches and a Re-ranking algorithm for reordering search results. This study focuses on exploring the performance of the Sparse Retrieval Model through the application of Term Expansion techniques, which include Query Expansion and Document Expansion. Query Expansion is conducted using various approaches, including non-contextual word embedding, contextual word embedding with BERT, and Local Analysis. Document Expansion involves adding predicted relevant queries into the documents to enhance their match with user queries.The results of the experiments show that no scenario is absolutely superior in all evaluation metrics used. Some scenarios show advantages in one particular metric but experience a decline in others. In one scenario, the R@20 metric was successfully increased from 0.896 to 0.906, while in another scenario, the P@5 metric was increased from 0.186 to 0.192. Additionally, in a scenario that used legal context stopwords to filter the words to be expanded with word embedding, R@20 was increased from 0.896 to 0.916, achieving a p-value of 0.045. This p-value below 0.05 indicates a significant improvement in that scenario. Although some metrics improved, Query Expansion did not always significantly enhance the effectiveness of the Sparse Retrieval Model, primarily due to the imprecision of the expanded words and the limitations of the embedding model’s vocabulary used. The use of BERT for contextual checking also did not yield optimal results."
Lengkap +
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Machffud Tra Harana Vova
"Indonesia merupakan negara yang wilayahnya sering mengalami bencana alam. Salah satu penanganan bencana alam adalah pengumpulan informasi berita bencana seperti artikel atau koran, yang mana berguna untuk meningkatkan readability. Meskipun be- gitu, sekadar pengumpulan artikel saja cukup sulit karena identfikasinya dapat memakan waktu serta makna yang termuat pada berita juga masih perlu diserap. Oleh karena itu perlu dilakukan klasifikasi dokumen untuk memilih teks dokumen yang relevan dengan bencana alam, kemudian dari teks dokumen yang relevan dilakukan ekstraksi informasi. Penelitian mengenai klasifikasi teks bencana alam serta ekstraksi informasi yang sudah dilakukan masih menggunakan pendekatan pemelajaran mesin tradisional serta belum memanfaatkan pre-trained model berbasis bahasa Indonesia. Penggunaan pre-trained model dan pendekatan deep learning sendiri sering memperoleh performa yang lebih baik, sehingga ada kemungkinan performa yang dihasilkan dapat ditingkatkan. Dalam penelitian ini dilakukan eksperimen menggunakan pre-trained word embedding seperti Word2Vec dan fastText, pendekatan deep learning seperti BERT dan BiLSTM untuk task klasifikasi. Hasil dengan pendekatan pemelajaran mesin tradisional dengan BoW yang sudah direproduksi menjadi yang terbaik hampir secara keseluruhan, meskipun jenis classifier yang digunakan adalah MLP yang mana sudah menerapkan deep learning karena memiliki beberapa neuron. Kemudian pada penggunaan model pre-trained seperti BERT, terdapat keterbatasan panjang masukan. Keterbatasan ini dapat ditangani dengan membuat representasi dokumen menjadi lebih pendek menggunakan metode peringkasan teks. Hasil representasi ringkasan dokumen dalam penelitian ini mampu meningkatkan performa akurasi klasifikasi baik pada pendekatan pemelajaran mesin tradisional maupun deep learning. Penelitian ini juga melakukan ekperimen penggunaan pre-trained model yang sudah fine-tuned untuk task ekstraksi lokasi seperti NER dan dependency parsing berbasis bahasa Indonesia, meskipun belum dihasilkan performa yang cukup baik.

Indonesia is a country whose often experiences natural disasters. One way to deal with natural disasters is to collect disaster news information such as articles or newspapers, which are useful for increasing readability. Even so, just collecting articles is quite difficult because identification can take time and the meaning contained in the news still needs to be absorbed. Therefore, it is necessary to classify documents to select document texts that are relevant to natural disasters, then extract information from the relevant document texts. Research on natural disaster text classification and information extraction that has been carried out still uses the traditional machine learning approach and has not yet utilized Indonesian language-based pre-trained models. The use of pre- trained models and deep learning approaches themselves often get better performance, so there is a possibility that the resulting performance can be improved. In this study, experiments were carried out using pre-trained word embedding such as Word2Vec and fastText, deep learning approaches such as BERT and BiLSTM for classification tasks. The results with traditional machine learning approaches with reproducible BoW are the best almost overall, even though the type of classifier used is MLP which already implements deep learning because it has few neurons. Then in the use of pre-trained models such as BERT, there are limitations to the length of the input. This limitation can be overcome by making the document representation shorter using the text summary method. The results of the document summary representation in this study were able to improve the performance of classification accuracy in both traditional and deep learning machine learning approaches. This study also conducted experiments using pre-trained models that had been fine-tuned for location extraction tasks such as NER and Indonesian language-based dependency parsing, although they did not produce sufficiently good performance."
Lengkap +
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Galangkangin Gotera
"Singlish adalah sebuah bahasa informal yang sering digunakan warga Singapura. Karena informal, bahasa Singlish jarang ditemukan di media umum seperti majalah, koran, dan artikel internet. Meski demikian, bahasa ini sangat sering digunakan oleh warga Singapu- ra pada percakapan sehari-hari, baik daring maupun luring. Banyak campuran bahasa lain (code-mixing) merupakan tantangan lain dari Singlish. Keterbatasan GPU juga menjadi tantangan dalam mendapatkan model yang baik. Mempertimbangkan semua tantangan ini, penulis telah melatih sebuah model Efficiently Learning an Encoder that Classifies Token Replacements Accurately (ELECTRA) pada data berbahasa Singlish. ELECTRA merupakan sebuah model baru yang menawarkan waktu training lebih cepat sehingga menjadi pilihan baik jika memiliki keterbatasan GPU. Data Singlish didapatkan melalui web scraping pada reddit dan hardwarezone. Penulis membuat sebuah dataset benchmark pada dua buah permasalahan yaitu sentiment analysis dan singlish identification dengan anotasi manual sebagai metode untuk mengukur kemampuan model dalam Singlish. Penulis melakukan benchmarking pada model yang dilatih dengan beberapa model yang tersedia secara terbuka dan menemukan bahwa model ELECTRA yang dilatih memiliki perbedaan akurasi paling besar 2% dari model SINGBERT yang dilatih lebih lama dengan data yang lebih banyak.

Singlish is an informal language frequently used by citizens of Singapore (Singaporeans). Due to the informal nature, Singlish is rarely found on mainstream media such as magazines, news paper, or internet articles. However, the language is commonly used on daily conversation, whether it be online or offline. The frequent code-mixing occuring in the language is another tough challenge of Singlish. Considering all of these challenges, we trained an Efficiently Learning an Encoder that Classifies Token Replacements Accurately (ELECTRA) model on a Singlish corpus. Getting Singlish data is hard, so we have built our own Singlish data for pre-training and fine-tuning by web scraping reddit and hardwarezone. We also created a human-annotated Singlish benchmarking dataset of two downstream tasks, sentiment analysis and singlish identification. We tested our models on these benchmarks and found out that the accuracy of our ELECTRA model which is trained for a short time differ at most 2% from SINGBERT, an open source pre-trained model on Singlish which is trained with much more data."
Lengkap +
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fakultas Teknik Universitas Indonesia, 1996
TA2773
UI - Tugas Akhir  Universitas Indonesia Library
cover
"In electric power systems that consist of some generators, electric power stability in supplies side
becomes the most important problems, which must be paid attention. In the interconnection system, if
there are some troubles in transmission, generator or load will cause another generators feel the
existence of instability condition. For instability condition which not too serious, system can overcome
the fault and will not influence stability of system as a whole. However, for in big scale of fault and
happened in a long duration can be ejected system becoming unstable and will result hampered of
electrics energy supply to the load For the worst condition could be blackout condition.
This article studies about improvement of the stability of the system by using excitation current and
the prime mover of generators, which is coordinated fuzzy logic control in synchronize generator. By
using annexation from three methods above, the condition of stability of the power system can attain the
stability. The transient stability needed control in order that system with good stability can return to
normal condition. Faulted electric power system often caused by failure in controlling the transient
stability. It is because in transient stability forms critical condition for electrical power system.
By controlling the level of excitation current and mechanical energy from the prime mover of
generators which controlled by fuzzy logic when the fault is happened will make acceleration area
become decreasing and deceleration area become increasing with the result that system can be stable
quickly. It visible that from result of simulation obtained if using generator oscillation of fuzzy logic
control, transient period becoming shorter and amplitude of oscillation wave is smaller compare by using
without fuzzy logic. Likewise, this method is able loo to overcome transient condition at starting period of
a generator.
"
Lengkap +
Jurnal Teknologi, Vol. 19 (1) Maret 2005 : 17-25, 2005
JUTE-19-1-Mar2005-17
Artikel Jurnal  Universitas Indonesia Library
cover
Feri Chandra
"Di dalam proses pengelasan yang dilaksanakan dengan Gas Tungsten Arc Welding (GTAW), tegangan busur merupakan salah satu parameter primer yang menentukan lebar dan kedalaman weld pool yang terbentuk pada logam selain arus las dan kecepatan pengelasan. Untuk mendapatkan pengelasan yang bermutu tinggi tegangan busur ini perlu dijaga pada nilai tertentu selama proses pengelasan berlangsung.
Tesis ini membahas perancangan sistem pengendalian tegangan busur dengan sistem kendali yang berbasis neural network. Arsitektur yang digunakan adalah Neural Model Reference Adaptive Control. Hasil perancangan disimulasikan dengan menggunakan program Matlab Ver 5.3 dan kemudian dibandingkan dengan sistem kendali proporsional.
Model busur yang digunakan pada simulasi ini berdasarkan percobaan yang dilakukan oleh D.J. Leith dari Universitas Glasgow, UK. Neural network yang digunakan sebagai pengendali dilatih dengan metode Levenberg marquardt secara off-line dan kemudian dilatih kembali dengan specialized training dengan algoritma rekursif kuadrat terkecil secara on-line.
Saat proses simulasi tegangan busur di variasikan dengan bentuk segi empat dan arus las yang diterapkan dari 5 A sampai dengan 300 A. Hasil setiap arus yang diterapkan ditampilkan dan kemudian dianalisa respon waktunya.

In the gas tungsten are welding process, arc voltage is one of the primary parameter which will determine the width and penetration of weld pool on metal. To obtain high quality of welded bond, the arc voltage is necessary to be controlled to a fixed value in the welding process.
The thesis studies the design of an arc voltage control system based on a neural network using neural mode reference adaptive control architecture. The system is simulated on a computer using Matlab V 5.3, and the result is then compared to proportional control system.
The model used is based on the experiment by Leith at the University of Glasgow -UK. The Neural Network is first trained off-line using Levenberg marquardt method. Then the neural network is trained on-line using least square recursive algorithm in specialized training scheme.
In the simulation the welding current applied to the system is set over range 5 A and 300 A. The reference arc voltage is varied in square wave. The results of the simulation are shown.
"
Lengkap +
Depok: Fakultas Teknik Universitas Indonesia, 2002
T1267
UI - Tesis Membership  Universitas Indonesia Library
cover
Fakultas Teknik Universitas Indonesia, 1998
S39384
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>