Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 146177 dokumen yang sesuai dengan query
cover
Jessica Naraiswari Arwidarasti
"Seringkali kita mengelompokkan dokumen berdasarkan hasil identifikasi topik. Identifikasi topik terhadap sejumlah dokumen tidak terstruktur, contohnya abstrak, dapat dibantu dengan algoritma pemodelan topik. Namun, pelatihan model topik membutuhkan dokumen dengan jumlah yang memadai. Dengan pembelajaran zero shot, kita dapat melakukan prediksi topik terhadap dokumen dengan jumlah yang kurang memadai dengan mentransfer hasil pembelajaran dari dokumen dalam bahasa lain, contohnya Bahasa Inggris, walaupun tidak ada contoh dari bahasa yang diuji (Bahasa Indonesia). Pemanfaatan zero-shot learning sudah dilakukan oleh Bianchi et al. (2021) dengan Contextual Topic Model (CTM). Koherensi topik yang diprediksi CTM dapat ditingkatkan contohnya jika dokumen terkait dengan knowledge graph (KG). Dengan penambahan informasi dari KG, frekuensi kemunculan kata penting menjadi lebih tinggi. Adapun kualitas topik juga dapat ditingkatkan dengan memodifikasi bag-of-word (BoW) kata tunggal menjadi n-gram. Namun, CTM terbatas pada 1-gram. Penelitian ini bertujuan untuk memperkaya topik serta meningkatkan koherensi prediksi topik untuk dokumen unseen dengan memanfaatkan KG dan kualitas topik dengan memodifikasi BoW pada CTM menjadi n-gram. Hasil eksperimen menunjukkan koherensi topik (dalam ukuran NPMI) tertinggi terhadap dokumen Bahasa Inggris yaitu dengan abstrak singkat dan BoW n-gram sebesar 0,24 dengan margin 0.1019 terhadap Bianchi et al.. Namun, prediksi topik terhadap dokumen Bahasa Indonesia memiliki tingkat similaritas yang lebih baik dengan penambahan KG dilihat dari peningkatan nilai Match sebesar 6% untuk 1-gram dan 4.34% untuk n-gram, centroid similarity sebesar 0.02 untuk 1-gram, dan Kullback-Leibler Divergence 0.1 untuk 1-gram dan 0.04 untuk n-gram. Peningkatan kualitas topik juga terjadi dengan modifikasi BoW menjadi n-gram yang ditunjukkan oleh kemunculan topik yang tidak didapatkan sebelum modifikasi BoW. Adapun, model juga dapat memprediksi dokumen dari sumber lain, contohnya berita. Namun, jika topik dokumen tidak tampak pada pelatihan, topik yang diprediksi kurang koheren terhadap dokumen.

Often we group documents based on the results of topic identification. Topic identification against a number of unstructured documents, for example abstracts, can be assisted by topic modeling algorithms. However, topic model training requires a sufficient number of documents. With zero shot learning, we can predict the topic of an inadequate number of documents by transferring learning outcomes from documents in other languages, for example English, even though there are no examples from the tested language (Indonesian). The use of zero-shot learning has been carried out by Bianchi et al. (2021) with the Contextual Topic Model (CTM). The coherence of topics predicted by CTM can be improved, for example if the document is related to a knowledge graph (KG). With the addition of information from KG, the frequency of occurrence of important words becomes higher. The topic quality can also be improved by modifying the single word bag-of-word (BoW) into n-grams. However, CTM is limited to 1-gram. This study aims to enrich the topic and improve the coherence of topic prediction for unseen documents by utilizing KG and topic quality by modifying BoW on CTM to n-grams. The experimental results show the highest topic coherence (in terms of NPMI) to English documents with a short abstract and a BoW n-gram of 0.24 with a margin of 0.1019 to Bianchi et al.. However, topic predictions for Indonesian documents have a better level of similarity with the addition of KG seen from the increase in the Match value by 6% for 1-gram and 4.34% for n-gram, centroid similarity of 0.02 for 1-gram, and Kullback-Leibler Divergence 0.1 for 1-gram and 0.04 for n-gram. An increase in the quality of the topic also occurs with the modification of BoW to n-grams which is indicated by the appearance of topics that are not obtained before the BoW modification. Meanwhile, the model can also predict documents from other sources, for example news. However, if the topic of the document does not appear in the training, the predicted topic is less coherent with the document."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Muchammad Naseer
"Deteksi informasi menjadi langkah krusial untuk melawan penyebaran berita palsu. Sistem deteksi berita palsu konvensional menghasilkan dua keputusan: apakah berita palsu atau asli, begitu pula hasil pengecekan fakta hanya menentukan apakah informasi benar atau salah. Verifikasi fakta menyajikan tiga kemungkinan hasil: informasi didukung bukti (SUPPORTS), dibantah bukti (REFUTES), atau tidak ada cukup bukti untuk mendukung maupun membantah informasi (NOT ENOUGH INFORMATION).
Penelitian ini dimulai dengan menguji performa algoritma BERT, RoBERTa, dan Electra, dengan RoBERTa menunjukkan hasil terbaik. RoBERTa kemudian dikembangkan menjadi RoBERTaEns, sebuah algoritma yang diperkenalkan dalam penelitian ini, melalui penggabungan keunggulan model RoBERTa dengan pendekatan homogeneous ensemble pada FEVER Dataset. Model ini menggabungkan tiga arsitektur RoBERTa (RoBERTa-m1, m2, m3) menggunakan metode bagging ensemble dan persamaan linier untuk meningkatkan ketahanan, membatasi bias, serta mengoptimalkan biaya dan kompleksitas komputasi. RoBERTaEns dibandingkan dengan BERT, XL-Net, dan XLM, menghasilkan akurasi 78,4% dan F1-Score 84,2%, melampaui algoritma lain.
Penelitian juga mengevaluasi algoritma khusus untuk tugas verifikasi fakta, yaitu Neural Semantic Matching Networks (NSMN), dengan performa rendah (akurasi 69,43%) yang berdasarkan hipotesis diakibatkan dari overfitting yang disebabkan oleh BiLSTM dalam arsitekturnya. Untuk mengatasi ini, model Deep One-Directional Neural Semantic Siamese Network (DOD-NSSN) berbasis Siamese MaLSTM diperkenalkan. Model ini menggunakan Manhattan Fact Relatedness Score (MFRS) sebagai fact-relatedness score baru yang juga diperkenalkan dalam penelitian ini untuk prediksi klasifikasi akhir. Saat dibandingkan dengan NSMN, BERT, RoBERTa, XLM, dan XLNet, DOD-NSSN menunjukkan akurasi tertinggi (91,86%). Hal ini membuktikan bahwa DOD-NSSN cocok untuk klasifikasi data tekstual dan meningkatkan akurasi verifikasi fakta. Studi ini berkontribusi signifikan dalam pengembangan algoritma berbasis transformer (RoBERTaEns), dan neural network (DOD-NSSN), serta dalam menghasilkan metrik pengukuran jarak kedekatan antara klaim dan evidence (MFRS) untuk mekanisme verifikasi fakta dengan akurasi yang baik.

Information detection is a crucial step in combating the spread of fake news. Conventional fake news detection systems typically produce two decisions: whether the news is fake or real, and fact-checking results determine whether the information is true or false. Fact verification, however, provides three possible outcomes: information supported by evidence (SUPPORTS), refuted by evidence (REFUTES), or insufficient evidence to either support or refute the information (NOT ENOUGH INFORMATION).
This study was started by evaluating the performance of the BERT, RoBERTa, and Electra algorithm were compared, with RoBERTa demonstrating superior results. Building upon these findings, RoBERTa was extended into RoBERTaEns, an algorithm introduced in this study, by combining the strengths of the RoBERTa model using a homogeneous ensemble approach on the FEVER Dataset. This model integrates three RoBERTa architectures (RoBERTa-m1, m2, m3) using the bagging ensemble method and linear equations to enhance robustness, reduce bias, and optimize computational cost and complexity. RoBERTaEns was benchmarked against BERT, XL-Net, and XLM, achieving an accuracy of 78,4% and an F1-Score of 84,2%, outperforming other algorithms.
The study also evaluated a specialized algorithm for fact verification tasks, i.e., Neural Semantic Matching Networks (NSMN), which exhibited low performance (accuracy 69.43%). This underperformance was hypothesized to result from overfitting caused by the BiLSTM architecture. To address it, a novel model, Deep One-Directional Neural Semantic Siamese Network (DOD-NSSN), based on Siamese MaLSTM, was introduced. The model used Manhattan Fact Relatedness Score (MFRS) as a newly introduced fact-relatedness score in this study for final classification predictions. DOD-NSSN was tested against NSMN, BERT, RoBERTa, XLM, and XL-Net, achieving the highest accuracy (91,86%), demonstrating the suitability of DOD-NSSN for textual data classification and enhancing fact verification accuracy. This study contributes significantly to the development of transformer-based algorithm (RoBERTaEns), and neural network algorithm (DOD-NSSN), also in producing metrics for measuring the relatedness between claims and evidence (MFRS) for fact verification mechanisms with good accuracy.
"
Depok: Fakultas Teknik Universitas Indonesia, 2025
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Heninggar Septiantri
"Ambiguitas adalah masalah yang seringkali ditemui dalam pemrosesan bahasa alami oleh komputer. Word Sense Disambiguation (WSD) adalah upaya untuk menentukan makna yang tepat dari sebuah kata yang ambigu. Berbagai penelitian tentang WSD telah banyak dikerjakan, namun penelitian WSD untuk bahasa Indonesia belum banyak dilakukan. Ketersediaan korpus paralel berbahasa Inggris-Indonesia dan sumber pengetahuan bahasa berupa WordNet bahasa Inggris dan bahasa Indonesia dapat dimanfaatkan untuk menyediakan data pelatihan untuk WSD dengan metode Cross-Lingual WSD (CLWSD). Data pelatihan ini kemudian dijadikan input untuk klasifikasi dengan algoritma Naive Bayes, sehingga model klasifikasinya dapat digunakan untuk melakukan monolingual WSD untuk bahasa Indonesia.
Evaluasi klasifikasi menunjukkan rata-rata akurasi hasil klasifikasi lebih tinggi dari baseline. Penelitian ini juga menggunakan stemming dan stopwords removal untuk mengetahui bagaimana efeknya terhadap klasifikasi. Penggunaan stemming menaikkan rata-rata akurasi, sedangkan penerapan stopwords removal menurunkan rata-rata akurasi. Namun pada kata yang memiliki dua makna dalam konteks yang cukup jelas berbeda, stemming dan stopwords removal dapat menaikkan rata-rata akurasi.

Ambiguity is a problem we frequently face in natural languange processing. Word Sense Disambiguation (WSD) is an attempt to decide the correct sense of an ambiguous word. Various research in WSD have been conducted, but research in WSD for Indonesian Language is still rare to find. The availability of parallel corpora in English and Indonesian language and WordNet for both language can be used to provide training data for WSD with Cross-Lingual WSD (CLWSD) method. This training data can be used as input to the classification process using Naive Bayes classifier.
The model resulted by the classification process is then used to do monolingual WSD for Indonesian language. The whole process in this research results in higher accuracy compared to baseline. This research also includes the use of stemming and stopwords removal. The effect of stemming is increasing the average accuracy, whereas stopwords removal is decreasing average accuracy. Nevertheless, for ambiguous words that have distinct context of usage, the use of stemming and stopwords removal can increase average accuracy."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Rida Indah Fariani
"Pendidikan vokasi memiliki beberapa karakteristik utama, yaitu (1) berfokus pada perolehan kompetensi dan keterampilan tertentu, dan (2) mengutamakan pengajaran praktis. Dengan karakteristik tersebut, mahasiswa dituntut untuk memenuhi target kompetensi dan keterampilan yang sama yang telah ditetapkan. Disisi lain, adanya keragaman karakteristik mahasiswa dapat menyebabkan perbedaan dalam hal proses belajar. Untuk mencapai target kompetensi yang diharapkan dan mengakomodir keragaman mahasiswa, penggunaan konsep personalized e-learning dapat menjadi pilihan. Sementara itu, dengan karakteristik kurikulum vokasi yang mengutamakan pengajaran praktikum, penggunaan model pembelajaran bauran dapat menjawab tantangan ketika pembelajaran daring tidak dapat sepenuhnya diterapkan pada pendidikan vokasi. Oleh karena itu, penggunaan konsep personalized learning pada pembelajaran bauran dapat menjadi solusi. Dengan demikian penelitian ini bertujuan untuk (1) membangun model personalisasi pembelajaran bauran (p-PB) yakni model yang menggunakan konsep personalized learning dalam konteks kurikulum vokasi yang bersifat serial dan diintegrasikan dengan model pembelajaran bauran; (2) membangun purwarupa sistem berdasarkan model; dan (3) mengukur dampak implementasi sistem terhadap pembelajaran pada pendidikan tinggi vokasi.
Metodologi yang digunakan dalam penelitian ini adalah exploratory sequential mixed method. Metode kualitatif digunakan dalam studi literatur dan evaluasi model, sementara metode kuantitatif digunakan dalam survei mengenai pembelajaran praktikum pada pendidikan tinggi vokasi dan eksperimen dalam melakukan evaluasi pada implementasi sistem p-PB.
Model p-PB yang dikembangkan dalam penelitian ini terdiri dari tiga komponen yakni model mahasiswa, model knowledge, dan model personalisasi. Model mahasiswa mengklasifikasikan mahasiswa berdasarkan tingkat pengetahuan (dasar, menengah, lanjut) dan gaya belajar sesuai teori Felder Silverman Learning Style Model (FSLSM) dengan fokus pada dua gaya dominan. Model knowledge memberikan anotasi pada learning object dengan tingkat kesulitan (mudah, sedang, sulit) dan disesuaikan dengan dimensi dalam teori FSLSM. Pada model personalisasi, strategi personalisasi yang diusulkan mencakup rekomendasi learning object dan sistem umpan balik yang sesuai dengan model mahasiswa. Sistem umpan balik memberikan rekomendasi berdasarkan hasil asesmen dan jika dibutuhkan akan berulang untuk memastikan mahasiswa menguasai kompetensi sebelum melanjutkan modul. Hal ini untuk mengakomodir kurikulum pendidikan tinggi vokasi yang berfokus pada penguasaan kompetensi secara berurutan. Model p-PB diintegrasikan dengan pembelajaran bauran yang mengkombinasikan model station rotation dan flipped classroom, di mana tingkat pengetahuan dijadikan station dalam pengajaran sinkronus dan asinkronus.
Purwarupa sistem p-PB dikembangkan dengan metodologi SDLC. Rekomendasi dan umpan balik yang diberikan menggunakan pendekatan knowledge-based. Knowledge direpresentasikan dengan menggunakan ontologi dan diimplementasikan dengan knowledge graph. Knowledge graph tidak hanya menghubungkan learning object, tingkat kesulitan, gaya belajar, dan hasil asesmen mahasiswa dalam jaringan yang terstruktur, tetapi juga berfungsi sebagai sistem penyimpanan dan pengelolaan data knowledge. Dengan menggunakan knowledge graph, sistem dapat menelusuri jalur yang paling relevan dan efisien untuk memberikan rekomendasi learning object dan umpan balik yang dipersonalisasi.
Evaluasi terhadap purwarupa sistem p-PB dilakukan dengan metode eksperimen berupa implementasi sistem dengan menggunakan kelas eksperimen dan kelas kontrol. Eksperimen dilakukan pada dua mata kuliah di salah satu perguruan tinggi vokasi di Jakarta yakni mata kuliah Pemrograman 1 dan Perancangan Proses Manufaktur. Kelas eksperimen menggunakan sistem p-PB dalam pembelajaran, sementara kelas kontrol menggunakan LMS institusi dan tidak menggunakan sistem p-PB. Hasil implementasi menunjukkan kelas eksperimen mencapai tingkat pencapaian hasil belajar yang lebih tinggi secara signifikan dibandingkan dengan kelas kontrol pada kedua mata kuliah yang diuji. Persepsi dan kepuasan mahasiwa mengenai tingkat kegunaan sistem p-PB cukup baik dengan skor SUS 74,36. Dari wawancara mahasiswa didapat sistem dapat meningkatkan pemahaman, kepercayaan diri, dan antusiasme mahasiswa. Dapat dikatakan terdapat pengaruh positif sistem p-PB terhadap hasil belajar dan pengalaman belajar mahasiswa. Hasil penelitian ini dapat dijadikan dasar bagi implementasi pada perkuliahan dan institusi sejenis lainnya.

Vocational education has several main characteristics, namely (1) focusing on the acquisition of specific competencies and skills, and (2) prioritizing practical teaching. With these characteristics, students are required to meet the same competency and skill targets that have been set. On the other hand, the diversity of students’ characterisitcs can lead to differences in the learning process. To achieve the expected competency targets and accommodate student diversity, the use of personalized e-learning concepts can be an option. Meanwhile, given the vocational curriculum's emphasis on practical teaching, the use of blended learning models can address the challenges when online learning cannot be fully applied to vocational education. Therefore, the use of personalized learning concepts in blended learning can be a solution. Thus, this research aims to (1) develop a personalized blended learning (p-BL) model, which uses the personalized learning concept in the context of a vocational curriculum that is sequential and integrated with the blended learning model; (2) develop a system prototype based on the model; and (3) measure the impact of system implementation on learning in vocational higher education.
The methodology used in this research is exploratory sequential mixed method. Qualitative methods are used in literature studies and model evaluation, while quantitative methods are used in surveys on practical learning in vocational higher education and experiments to evaluate the implementation of the p-BL system.
The p-BL model developed in this research consists of three components: the student model, the knowledge model, and the personalization model. The student model classifies students based on knowledge level (basic, intermediate, advanced) and learning style according to the Felder Silverman Learning Style Model (FSLSM) theory with a focus on two dominant styles. The knowledge model annotates learning objects with difficulty levels (easy, medium, hard) and aligns them with dimensions in the FSLSM theory. In the personalization model, the proposed personalization strategies include recommending learning objects and a feedback system tailored to the student model. The feedback system provides recommendations based on assessment results and, if necessary, repeats to ensure students master the competencies before proceeding to the next module. This accommodates the sequential competency mastery focus of vocational higher education curricula. The p-BL model is integrated with blended learning that combines the station rotation model and flipped classroom, where knowledge levels are used as stations in synchronous and asynchronous teaching.
The p-BL system prototype is developed using the SDLC methodology. Recommendations and feedback are provided using a knowledge-based approach. Knowledge is represented using ontology and implemented with a knowledge graph. The knowledge graph connects learning objects, difficulty levels, learning styles, and student assessment results in a structured network and serves as a data storage and management system. Using the knowledge graph, the system can trace the most relevant and efficient paths to provide personalized learning object recommendations and feedback.
The p-BL system prototype evaluation was conducted using experimental methods involving system implementation with an experimental class and a control class. The experiment was carried out in two courses at a vocational higher education institution in Jakarta, namely Programming 1 and Manufacturing & Process Design. The experimental class used the p-BL system in learning, while the control class used the institution's LMS and did not use the p-BL system. The implementation results showed that the experimental class achieved significantly higher learning outcome levels compared to the control class in both tested courses. From 51 students in the experimental class, the student perceptions and satisfaction with the usability of the p-BL system were quite good with a SUS score of 74.36. Interviews with 12 students revealed that the system could enhance students' understanding, confidence, and enthusiasm. It can be said that there is a positive impact of the p-BL system on student learning outcomes and learning experiences. The results of this study can serve as a basis for implementation in similar courses and institutions.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Muhammad Faisal Adi Soesatyo
"Pendekatan transfer learning telah digunakan di beragam permasalahan, khususnya low-resource language untuk meningkatkan performa model di masing-masing permasalahan tersebut. Fokus pada penelitian ini ingin menyelidiki apakah pendekatan cross-lingual transfer learning mampu meningkatkan performa pada model constituency parsing bahasa Indonesia. Constituency parsing adalah proses penguraian kalimat berdasarkan konstituen penyusunnya. Terdapat dua jenis label yang disematkan pada konstituen penyusun tersebut, yakni POS tag dan syntactic tag. Parser model yang digunakan di penelitian ini berbasis encoder-decoder bernama Berkeley Neural Parser. Terdapat sebelas macam bahasa yang digunakan sebagai source language pada penelitian ini, di antaranya bahasa Inggris, Jerman, Prancis, Arab, Ibrani, Polandia, Swedia, Basque, Mandarin, Korea, dan Hungaria. Terdapat dua macam dataset bahasa Indonesia berformat Penn Treebank yang digunakan, yakni Kethu dan ICON. Penelitian ini merancang tiga jenis skenario uji coba, di antaranya learning from scratch (LS), zero-shot transfer learning (ZS), dan transfer learning dengan fine-tune (FT). Pada dataset Kethu terdapat peningkatan F1 score dari 82.75 (LS) menjadi 84.53 (FT) atau sebesar 2.15%. Sementara itu, pada dataset ICON terjadi penurunan F1 score dari 88.57 (LS) menjadi 84.93 (FT) atau sebesar 4.11%. Terdapat kesamaan hasil akhir di antara kedua dataset tersebut, di mana masing-masing dataset menyajikan bahwa bahasa dari famili Semitic memiliki skor yang lebih tinggi dari famili bahasa lainnya.

The transfer learning approach has been used in various problems, especially the low-resource languages, to improve the model performance in each of these problems. This research investigates whether the cross-lingual transfer learning approach manages to enhance the performance of the Indonesian constituency parsing model. Constituency parsing analyzes a sentence by breaking it down by its constituents. Two labels are attached to these constituents: POS tags and syntactic tags. The parser model used in this study is based on the encoder-decoder named the Berkeley Neural Parser. Eleven languages are used as the source languages in this research, including English, German, French, Arabic, Hebrew, Polish, Swedish, Basque, Chinese, Korean, and Hungarian. Two Indonesian PTB treebank datasets are used, i.e., the Kethu and the ICON. This study designed three types of experiment scenarios, including learning from scratch (LS), zero-shot transfer learning (ZS), and transfer learning with fine-tune (FT). There is an increase in the F1 score on the Kethu from 82.75 (LS) to 84.53 (FT) or 2.15%. Meanwhile, the ICON suffers a decrease in F1 score from 88.57 (LS) to 84.93 (FT) or 4.11%. There are similarities in the final results between the two datasets, where each dataset presents that the languages from the Semitic family have a higher score than the other language families."
Depok;;: Fakultas Ilmu Komputer Universitas Indonesia;;, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Andhika Yusup Maulana
"

Tujuan dari penelitian ini adalah membangun dependency parser untuk Bahasa Indonesia menggunakan pendekatan cross-lingual transfer learning. Sebagai source language dipilih empat bahasa, yaitu Bahasa Perancis, Bahasa Italia, Bahasa Slovenia, dan Bahasa Inggris. Dependency parser dibangun menggunakan transformer (self-attention encoder) sebagai encoder layer dan deep biaffine decoder sebagai decoder layer. Pendekatan transfer learning dengan fine-tuning mampu meningkatkan performa model dependency parser untuk Bahasa Indonesia dengan margin yang paling tinggi yaitu 4.31% untuk UAS dan 4.46% untuk LAS dibandingkan dengan pendekatan training from scratch.


The objective of this research is to build a dependency parser for Indonesian using cross-lingual transfer learning. As the source language, chosen four languages: French, Italian, Slovenian, and English. The dependency parser is built using a transformer (self-attention encoder) as the encoder layer and a deep biaffine decoder as the decoder layer. The transfer learning approach with fine-tuning can improve the performance of the dependency parser model for Indonesian with the highest margin of 4.31% for UAS and 4.46% for LAS compared to the training from scratch approach.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Tosan Wiar Ramdhani
"Penerapan Named Entity Recognition (NER) dalam pengelolaan dokumen kepegawaian pemerintah menghadapi tantangan khas, seperti struktur semi-terstruktur, keberadaan entitas dengan pola tetap, serta kebutuhan akurasi tinggi dalam proses ekstraksi informasi. Model deep learning telah menunjukkan performa unggul dalam tugas NER berbahasa Indonesia, namun belum sepenuhnya efektif dalam menangani kekhususan struktur dokumen administratif. Untuk menjawab permasalahan tersebut, penelitian ini mengembangkan pendekatan hybrid yang menggabungkan kekuatan generalisasi dari beberapa model deep learning (IndoBERT, T5, Qwen, dan SahabatAI) dengan ketelitian pendekatan rule based linguistik sebagai mekanisme label refinement. Sistem NER hybrid ini dirancang untuk meminimalkan kesalahan prediksi, khususnya pada entitas-entitas dengan struktur tetap seperti nama, NIP, golongan, atau jabatan. Eksperimen dilakukan pada sepuluh jenis dokumen kepegawaian hasil pindai dari instansi pemerintah daerah, dengan total lebih dari 6.000 dokumen. Hasil penelitian menunjukkan bahwa pendekatan hybrid mampu meningkatkan performa model deep learning, dengan skor rata-rata F1 score 98% pada sepuluh jenis dokumen kepegawaian. Temuan ini mengindikasikan bahwa integrasi metode rule-based ke dalam sistem NER berbasis deep learning dapat secara signifikan meningkatkan akurasi dan efisiensi pengelolaan dokumen kepegawaian di lingkungan pemerintahan.

The application of Named Entity Recognition (NER) in managing government personnel documents faces unique challenges, such as semi-structured formats, the presence of entities with fixed patterns, and the need for high accuracy in information extraction. Deep learning models have demonstrated strong performance in Indonesian NER tasks; however, they are not yet fully effective in handling the specific structural characteristics of administrative documents. To address this issue, this study proposes a hybrid approach that combines the generalization capabilities of several deep learning models (IndoBERT, T5, Qwen, and SahabatAI) with the precision of linguistic rule-based methods as a label refinement mechanism. The hybrid NER system is designed to minimize prediction errors, particularly for fixed-structure entities such as names, employee identification numbers (NIP), ranks, and job titles. Experiments were conducted on eight types of scanned personnel documents collected from regional government agencies, totaling over 6,000 documents. The results indicate that the hybrid approach enhances the performance of deep learning models, achieving an average F1 score of 98% across the ten document types. These findings suggest that integrating rule based methods into deep learning-based NER systems can significantly improve the accuracy and efficiency of personnel document management in the public sector."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2025
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Hajra Faki Ali
"Penelitian ini mengusulkan pengembangan model monolingual untuk Natural Language Inference (NLI) dalam bahasa Swahili untuk mengatasi keterbatasan model multibahasa saat ini. Studi ini melakukan fine-tuning pada model SwahBERT yang sudah dilatih sebelumnya untuk menangkap hubungan semantik dan nuansa kontekstual unik dalam bahasa Swahili. Komponen penting dari penelitian ini adalah pembuatan dataset SwahiliNLI, yang dirancang untuk mencerminkan kompleksitas bahasa Swahili, sehingga menghindari ketergantungan pada teks bahasa Inggris yang diterjemahkan. Selain itu, kinerja model SwahBERT yang telah di-fine-tune dievaluasi menggunakan dataset SwahiliNLI dan XNLI, dan dibandingkan dengan model multibahasa mBERT. Hasilnya menunjukkan bahwa model SwahBERT mengungguli model multibahasa, mencapai tingkat akurasi sebesar 78,78% pada dataset SwahiliNLI dan 73,51% pada dataset XNLI. Model monolingual juga menunjukkan presisi, recall, dan skor F1 yang lebih baik, terutama dalam mengenali pola linguistik dan memprediksi pasangan kalimat. Penelitian ini menekankan pentingnya menggunakan dataset yang dihasilkan secara manual dan model monolingual dalam bahasa dengan sumber daya rendah, memberikan wawasan berharga untuk pengembangan sistem NLI yang lebih efisien dan relevan secara kontekstual, sehingga memajukan pemrosesan bahasa alami untuk bahasa Swahili dan berpotensi menguntungkan bahasa lain yang menghadapi keterbatasan sumber daya serupa.

This research proposes the development of a monolingual model for Natural Language Inference (NLI) in Swahili to overcome the limitations of current multilingual models. The study fine-tunes the pre-trained SwahBERT model to capture Swahili's unique semantic relationships and contextual nuances. A critical component of this research is the creation of a SwahiliNLI dataset, crafted to reflect the intricacies of the language, thereby avoiding reliance on translated English text. Furthermore, the performance of the fine-tuned SwahBERT model is evaluated using both SwahiliNLI and the XNLI dataset, and compared with the multilingual mBERT model. The results reveal that the SwahBERT model outperforms the multilingual model, achieving an accuracy rate of 78.78% on the SwahiliNLI dataset and 73.51% on the XNLI dataset. The monolingual model also exhibits superior precision, recall, and F1 scores, particularly in recognizing linguistic patterns and predicting sentence pairings. This research underscores the importance of using manually generated datasets and monolingual models in low-resource languages, providing valuable insights for the development of more efficient and contextually relevant NLI systems, thereby advancing natural language processing for Swahili and potentially benefiting other languages facing similar resource constraints."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Rocky Arkan Adnan Ahmad
"Model natural language processing (NLP) ditantang tidak hanya memiliki kemampuan “mengingat” secara statistik, tapi juga dapat melakukan semantic reasoning mendekati kemampuan manusia dalam memahami bahasa. Tugas ini disebut juga sebagai tugas yang menguji penalaran (commonsense reasoning) untuk suatu model. Tugas commonsense reasoning pada bahasa Indonesia sudah ada, tetapi performa mesin pada tugas tersebut masih terbilang rendah. Penelitian ini mencoba meningkatkan performa mesin dalam tugas commonsense reasoning bahasa Indonesia. Digunakan tiga buah metode, yaitu intermediate-task transfer learning, cross-lingual transfer learning, dan task recasting. Ditemukan kalau intermediate-task transfer learning efektif dilakukan untuk data commonsense reasoning bahasa Indonesia, dengan peningkatan performa di berbagai tugas. Metode cross-lingual transfer learning juga ditemukan sangat efektif dilakukan. Didapatkan performa yang melebihi baseline pada tugas IndoGrad hanya dengan melatih model dalam data bahasa Inggris dan melakukan klasifikasi secara zero-shot pada data bahasa Indonesia. Lalu didapatkan juga performa state-of-the-art (SOTA) baru dalam IndoGrad yaitu 0.803, naik 0.116 dari performa tertinggi penelitian sebelumnya. Performa tersebut dicapai menggunakan model yang dilakukan fine-tuning pada data bahasa Indonesia setelah dilatih dengan data bahasa Inggris. Pada metode task recasting, performa model masih rendah dan didapatkan performa chance pada data uji. Dilakukan juga penjelasan terhadap model dalam menjawab tugas commonsense reasoning bahasa Indonesia. Penjelasan dilakukan dengan visualisasi attention dan probing task. Ditemukan model mendapatkan kenaikan performa dalam probing task ketika performa pada tugas commonsense reasoning juga naik. Ditemukan juga model dapat menjawab dengan benar dengan memberikan attention yang lebih besar ke pada jawaban yang benar dan mengurangi attention pada jawaban yang salah.

A natural language processing (NLP) model is challenged to not only ’remember’ statistically, but can also perform semantic reasoning close to human ability on language understanding. This task is also known as a commonsense reasoning task. Commonsense reasoning tasks in Indonesian already exist, but the machine performance is still relatively low. This research aims to improve the machine performance on commonsense reasoning tasks in Indonesian. Three methods are used: intermediate-task transfer learning, cross-lingual transfer learning, and task recasting. It was found that intermediate-task transfer learning was effective for commonsense reasoning tasks in Indonesian, with improved performance on various tasks. Cross-lingual transfer learning was also found to be very effective. A model that only trained on English data and performs zero-shot classification was found to have performance that exceeds baseline on the IndoGrad task. A new state-of-the-art (SOTA) performance was also achieved on the IndoGrad task, which is 0.803, up 0.116 from the highest performance in the previous study. This result is achieved using a model that was fine-tuned on Indonesian data after being trained on English data. On the task recasting method, the model performance is still low and chance performance is achieved on the test set. Model explanation on answering a commonsense reasoning task in Indonesian is also conducted. Probing task and attention visualization are used for model explanation. It was found that the model that got increased performance on probing task also got increased performance on commonsense reasoning task. It was also found that the model can answer correctly by giving more attention to the correct answer and reducing attention to the incorrect answer."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mubarik Ahmad
"Forum diskusi asinkron adalah salah satu media pembelajaran kolaboratif daring yang mampu mendorong pemikiran kritis, pertukaran gagasan, dan pembentukan pengetahuan. Analisis konten merupakan metode ilmiah yang dapat digunakan untuk mengidentifikasi keterampilan berpikir kritis dari transkrip pada forum diskusi asinkron. Metode analisis konten konvensional membutuhkan tahapan pengodean manual yang membutuhkan banyak waktu dan tenaga. Hal ini dapat mengakibatkan pengajar terlambat dalam memberikan intervensi instruksional karena informasi keterampilan berpikir kritis tidak dapat diperoleh secara cepat.
Penelitian ini mengacu pada kerangka kerja Community of Inquiry (CoI) di mana keterampilan berpikir kritis dioperasionalisasikan melalui empat level dalam kehadiran kognitif yaitu pemantik diskusi, eksplorasi, integrasi, dan resolusi. Tujuan penelitian adalah mengembangkan model klasifikasi berbasis machine learning yang mampu menganalisis secara otomatis kehadiran kognitif pada transkrip diskusi berbahasa Indonesia. Desain penelitian menggunakan metode campuran kuantitatif dan kualitatif. Data eksperimen berjumlah 1.200 pesan diskusi dari mata kuliah Aljabar Linear di lingkungan pembelajaran bauran.
Hasil penelitian menunjukkan bahwa kesiapan mahasiswa dalam mengelola pembelajaran dan lingkungan e-learning berpengaruh signifikan terhadap pengembangan kehadiran sosial dan kehadiran kognitif. Dataset level kehadiran kognitif pada transkrip diskusi asinkron dibangun dengan metode analisis konten yang reliabel kategori hampir sempurna (Cohen’s kappa = 0,88). Eksperimen pengembangan model analisis kehadiran kognitif menggunakan sepuluh basis algoritma yaitu XGBoost, Random Forest, Support Vector Machine, Logistic Regression, Naïve Bayes, Convolutional Neural Network (CNN), Long Short-Term Memory (LSTM), IndoBERT-base, IndoBERT-large dan XLM-RoBERTa. Model berbasis IndoBERT-large memiliki performa terbaik dengan akurasi sebesar 0,825. Prototipe sistem Cognipresa (cognitive presence analytics) telah dikembangkan untuk memfasilitasi pengajar dengan menganalisis kehadiran kognitif mahasiswa dalam diskusi secara otomatis. Evaluasi sistem menunjukkan hasil yang menjanjikan dari sisi usability dengan nilai System Usability Scale (SUS) sebesar 80,83.

The asynchronous discussion forum serves as a collaborative online learning platform capable of stimulating critical thinking, exchanging ideas, and shaping knowledge. Content analysis is a scientific method that can be employed to identify critical thinking skills from transcripts in asynchronous discussion forums. Conventional content analysis methods entail manual encoding stages, which consume a significant amount of time and effort. This may lead to instructors being delayed in providing instructional interventions due to the inability to swiftly obtain information on critical thinking skills.
This study references the Community of Inquiry (CoI) framework, where critical thinking skills are operationalized through four levels of cognitive presence: triggering event, exploration, integration, and resolution. The research's objective is to develop a machine learning-based classification model capable of automatically analyzing cognitive presence in Indonesian-language discussion transcripts. The research design incorporates both quantitative and qualitative methods. The experimental data consists of 1,200 discussion messages from the Linear Algebra course in a blended learning environment.
The research findings indicate that students' preparedness in managing learning and e-learning environment significantly influences the development of social presence and cognitive presence. The dataset for cognitive presence at the transcript of asynchronous discussions was constructed using a content analysis method with a reliably almost perfect category (Cohen’s kappa = 0.88). An experimental development of the cognitive presence analysis model was conducted using ten algorithmic bases, namely XGBoost, Random Forest, Support Vector Machine, Logistic Regression, Naïve Bayes, Convolutional Neural Network (CNN), Long Short-Term Memory (LSTM), IndoBERT-base, IndoBERT-large, and XLM- RoBERTa. The IndoBERT-large-based model demonstrated the best performance with an accuracy of 0.825. A prototype system called Cognipresa (cognitive presence analytics) has been developed to facilitate educators in automatically analyzing students' cognitive presence in discussions. The system evaluation indicates promising results in terms of usability, with a System Usability Scale (SUS) score of 80.83.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>