Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 8 dokumen yang sesuai dengan query
cover
Mohamad Rifqy Zulkarnaen
Abstrak :
Sistem Informasi Sidang merupakan salah satu aplikasi sistem informasi milik Fasilkom UI yang berfokuskan pada manajemen sidang yang dilakukan di lingkungan fakultas. Aplikasi ini telah dikembangkan sejak tahun 2010 dan telah mengalami banyak perubahan serta pengembangan fitur baru. Akan tetapi, dari pengembangan tersebut tidak pernah dituliskan dokumentasi teknis yang menjelaskan bagaimana alur kerja dan struktur dari sistem informasi ini. Hal ini dapat mempersulit pengembangan selanjutnya apabila sistem informasi ini akan diperbaharui atau dikembangkan lebih lanjut kedepannya. Berdasarkan permasalahan tersebut, diperlukan dokumen teknis yang dapat menunjang pengembangan aplikasi pada masa mendatang. Tugas akhir ini akan menggunakan metode reverse engineering untuk merumuskan dokumentasi teknis dari aplikasi Sistem Informasi Sidang. Source code serta basis data dari aplikasi akan dibedah berdasarkan metode dari reverse engineering dan tampilan antarmuka dari aplikasi akan dievaluasi serta dianalisis berdasarkan kaidah 8 Golden Rules. Hasil dari tugas akhir ini diharapkan dapat membantu pengembang sistem selanjutnya untuk dapat memahami alur kerja dan struktur dari Sistem Informasi Sidang dengan lebih baik serta menerapkan rekomendasi perbaikan sistem baik secara antarmuka aplikasi maupun secara struktural. ......Sidang Information System is one of the information systems owned by Fasilkom UI that focuses on thesis defense management in the Fasilkom UI faculty environment. This application has already been developed since 2010 and has already undergone changes that include new features development. However, unfortunately for the already done development, there is no technical documentation written to describe how the system works and the structure of the information system. Since there is no technical documentation written, it can potentially complicate and slows the next development of the Sidang Information System. Based on that problem, technical documents are required to support the next development of the Sidang Information System. This final project will utilize reverse engineering to formulate technical documents. Source codes and databases of the application will be studied according to the reverse engineering principles and the user interface of the application will be evaluated and analyzed using the 8 Golden Rules of Interface Design. Hopefully, the result from this final project can help the next developer of the Sidang Information System to understand how the application works and the structure of the application while also implementing the improvement suggestion both on the user interface and the internal of the application.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Erica Harlin
Abstrak :
Aksara adalah sebuah NLP tool yang menuruti Universal Dependencies (UD) v2. Penelitian terakhir terkait pemrosesan bahasa informal pada Aksara adalah v1.2 yang berfokus pada kemampuan Aksara untuk memproses kata-kata dasar informal dan kata-kata dengan afiksasi informal. Penelitian ini bertujuan untuk mengembangkan kemampuan Aksara dalam memproses noisy text. Dalam penelitian ini, terdapat 5 metode yang dipertimbangkan untuk menormalisasikan noisy text, yaitu: Levenshtein distance, Damerau-Levenshtein distance, perbandingan subsequence, longest common subsequence (LCS), dan SymSpell. Untuk menentukan metode mana yang paling cocok, kami membangun dataset sintetis berukuran 20.000 kata, lalu mengukur dan membandingkan performa metode yang satu dengan yang lain dalam menormalisasikan dataset sintetis tersebut. Metode yang akhirnya dipilih adalah SymSpell karena metode ini yang menghasilkan akurasi yang paling tinggi. Versi Aksara yang dihasilkan oleh penelitian ini adalah Aksara v1.4 (Aksara baru). Untuk mengevaluasi Aksara baru, dipakai gold standard yang terdiri dari 152 kalimat dan 1786 token. Hasil evaluasi menunjukkan lemmatizer Aksara baru memiliki akurasi senilai 90.99% dan 91.66% untuk kasus case-sensitive dan case-insensitive. Untuk POS tagger, Aksara baru memiliki akurasi senilai 83%, recall senilai 83%, dan F1 score senilai 83%. ...... Aksara is an Indonesian NLP tool that conforms to Universal Dependencies (UD) v2. The latest work on Aksara pertaining to its informal language processing ability is Aksara v1.2, which is focused on Aksara’s ability to process informal root words and words with informal affixation. This work aims to enable Aksara to process noisy texts. In this research, there are 5 methods considered for normalizing noisy texts: Levenshtein distance, Damerau-Levenshtein distance, subsequence comparison, longest common subsequence (LCS), and SymSpell. To determine which method is best suited for this purpose, we built a synthetic dataset of 20,000 words, then measured and compared each method’s performance in normalizing the synthetic data. The chosen method is SymSpell as it yields the highest accuracy. This chosen method along with a context dictionary will be integrated into Aksara as a text normalizer. To evaluate new Aksara’s performance, a gold standard consisting of 152 sentences and 1786 tokens is used. The evaluation result shows that the new Aksara’s lemmatizer has an accuracy of 90.99% and 91.61% for case-sensitive and case-insensitive cases. For POS tagger, the new Aksara has an accuracy of 83%, a recall of 83%, and an F1 score of 83%.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mirsa Salsabila
Abstrak :
Grammatical Error Correction (GEC) adalah salah satu task Natural Language Processing (NLP) yang mendeteksi dan mengoreksi kesalahan tata bahasa dalam sebuah teks. Task ini terus berkembang sampai saat ini dan telah diterapkan menggunakan berbagai metode, seperti rule-based, machine learning-based, dan sebagainya. Tugas akhir ini bertujuan membandingkan dua metode state-of-the-art Grammatical Error Correction yaitu metode T5 dan GECToR menggunakan dataset bahasa Inggris dan bahasa Indonesia. Untuk metode T5, akan dibandingkan model Flan-T5 dan mT5 dengan variasi ukuran base dan large. Adapun model yang dibandingkan untuk metode GECToR adalah model RoBERTa dan XLNet dengan variasi ukuran base dan large. Untuk dataset bahasa Inggris, akan digunakan dataset FCE untuk training dan dataset CoNLL-14 untuk testing. Sedangkan untuk dataset bahasa Indonesia, akan digunakan dataset Gramatika. Kemudian, untuk evaluasi digunakan metrik F0.5. Berdasarkan hasil uji coba, didapatkan bahwa untuk dataset bahasa Inggris FCE+CoNLL-14, metode T5 dengan varian model Flan-T5 unggul dari kedua varian metode GECToR dengan skor F0.5 sebesar 52,85%. Varian Flan-T5 ini unggul dengan margin sebesar 15,83% dari varian terbaik metode GECToR, yaitu RoBERTa. Sedangkan, metode GECToR dengan varian RoBERTa lebih unggul dengan margin 10,12% dari metode T5 dengan varian model mT5. Untuk dataset bahasa Indonesia Gramatika, kedua varian metode T5 lebih unggul dari metode GECToR. Varian terbaik metode T5 dengan skor F0.5 sebesar 45,38% dengan margin 31,05% dari varian terbaik metode GECToR, yaitu RoBERTa. ......Grammatical Error Correction (GEC) is one of the Natural Language Processing (NLP) tasks that detect and correct grammatical errors in a text. This task continues to grow today and has been implemented using various methods, such as rule-based, machine learning-based, and so on. This final project aims to compare two state-of-the-art Grammatical Error Correction methods, namely the T5 and GECToR methods using English and Indonesian datasets. For the T5 method, Flan-T5 and mT5 models will be compared with base and large size variations. As for the GECToR method, RoBERTa and XLNet models will be compared with base and large size variations. For the English dataset, the FCE dataset will be used for training and the CoNLL-14 dataset for testing. As for the Indonesian dataset, the Grammatical dataset will be used. Then, the F0.5 metric is used for evaluation. Based on the experimental results, it is found that for the FCE+CoNLL-14 English dataset, the T5 method with the Flan-T5 model variant is superior to both variants of the GECToR method with an F0.5 score of 52.85%. The Flan-T5 variant is superior by a margin of 15.83% to the best variant of the GECToR method, RoBERTa. Meanwhile, the GECToR method with the RoBERTa variant is superior by a margin of 10.12% to the T5 method with the mT5 model variant. For the Indonesian Grammatical dataset, both variants of the T5 method are superior to the GECToR method. The best variant of the T5 method with an F0.5 score of 45.38% with a margin of 31.05% from the best variant of the GECToR method, which is RoBERTa.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Napitupulu, Jeremy Victor Andre
Abstrak :
Grammatical Error Correction (GEC) adalah salah satu task Natural Language Processing (NLP) yang mendeteksi dan mengoreksi kesalahan tata bahasa dalam sebuah teks. Task ini terus berkembang sampai saat ini dan telah diterapkan menggunakan berbagai metode, seperti rule-based, machine learning-based, dan sebagainya. Tugas akhir ini bertujuan membandingkan dua metode state-of-the-art Grammatical Error Correction yaitu metode T5 dan GECToR menggunakan dataset bahasa Inggris dan bahasa Indonesia. Untuk metode T5, akan dibandingkan model Flan-T5 dan mT5 dengan variasi ukuran base dan large. Adapun model yang dibandingkan untuk metode GECToR adalah model RoBERTa dan XLNet dengan variasi ukuran base dan large. Untuk dataset bahasa Inggris, akan digunakan dataset FCE untuk training dan dataset CoNLL-14 untuk testing. Sedangkan untuk dataset bahasa Indonesia, akan digunakan dataset Gramatika. Kemudian, untuk evaluasi digunakan metrik F0.5. Berdasarkan hasil uji coba, didapatkan bahwa untuk dataset bahasa Inggris FCE+CoNLL-14, metode T5 dengan varian model Flan-T5 unggul dari kedua varian metode GECToR dengan skor F0.5 sebesar 52,85%. Varian Flan-T5 ini unggul dengan margin sebesar 15,83% dari varian terbaik metode GECToR, yaitu RoBERTa. Sedangkan, metode GECToR dengan varian RoBERTa lebih unggul dengan margin 10,12% dari metode T5 dengan varian model mT5. Untuk dataset bahasa Indonesia Gramatika, kedua varian metode T5 lebih unggul dari metode GECToR. Varian terbaik metode T5 dengan skor F0.5 sebesar 45,38% dengan margin 31,05% dari varian terbaik metode GECToR, yaitu RoBERTa. ......Grammatical Error Correction (GEC) is one of the Natural Language Processing (NLP) tasks that detect and correct grammatical errors in a text. This task continues to grow today and has been implemented using various methods, such as rule-based, machine learning-based, and so on. This final project aims to compare two state-of-the-art Grammatical Error Correction methods, namely the T5 and GECToR methods using English and Indonesian datasets. For the T5 method, Flan-T5 and mT5 models will be compared with base and large size variations. As for the GECToR method, RoBERTa and XLNet models will be compared with base and large size variations. For the English dataset, the FCE dataset will be used for training and the CoNLL-14 dataset for testing. As for the Indonesian dataset, the Grammatical dataset will be used. Then, the F0.5 metric is used for evaluation. Based on the experimental results, it is found that for the FCE+CoNLL-14 English dataset, the T5 method with the Flan-T5 model variant is superior to both variants of the GECToR method with an F0.5 score of 52.85%. The Flan-T5 variant is superior by a margin of 15.83% to the best variant of the GECToR method, RoBERTa. Meanwhile, the GECToR method with the RoBERTa variant is superior by a margin of 10.12% to the T5 method with the mT5 model variant. For the Indonesian Grammatical dataset, both variants of the T5 method are superior to the GECToR method. The best variant of the T5 method with an F0.5 score of 45.38% with a margin of 31.05% from the best variant of the GECToR method, which is RoBERTa.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Salman Ahmad Nurhoiriza
Abstrak :
Fakultas Ilmu Komputer (Fasilkom) Universitas Indonesia (UI) telah mengembangkan dua aplikasi web, yaitu (1) Sistem Informasi Sidang (Sisidang) dan (2) Sistem Pengecekan Plagiarisme Elang. Kedua aplikasi web tersebut berturut-turut digunakan untuk memfasilitasi proses pengumpulan, penilaian, dan revisi, serta mengecek tingkat plagiarisme laporan tugas akhir setiap mahasiswa. Akan tetapi, pada kedua aplikasi web tersebut masih terdapat beberapa kelemahan cara kerja, yaitu (1) Elang hanya mengakomodasi pengecekan laporan tugas akhir mahasiswa versi pra-sidang, (2) Elang belum melakukan pengecekan laporan-laporan akhir baru secara otomatis setiap kali terdapat laporan yang diunggah ke Sisidang, (3) pada beberapa kasus Elang menampilkan judul laporan tugas akhir yang kurang sesuai, (4) penggunaan query parameter berupa NPM dapat menimbulkan masalah kurang tepatnya penilaian tingkat plagiarisme, (5) halaman detail hasil cek plagiarism kurang user-friendly, dan (6) hasil cek plagiarism hanya bisa dilihat di Elang. Oleh karena itu, sejumlah perbaikan/penyesuaian perlu dilakukan untuk memperbaiki cara kerja kedua aplikasi web tersebut. Penelitian ini bertujuan untuk mengidentifikasi permasalahan yang terdapat pada cara kerja Sisidang dan Elang dalam tahapan-tahapan sebelum dan sesudah Sidang. Selain itu, penelitian ini juga bertujuan untuk melakukan integrasi yang lebih matang antara Sisidang dan Elang. Penelitian ini menggunakan metodologi design science research sebagai metodologi penelitian. Identifikasi serta analisis masalah dilakukan dengan menggunakan metode kualitatif berupa wawancara serta mengadakan pertemuan antara product owner dan pengguna kedua aplikasi tersebut. Setelah identifikasi dan analisis masalah dan kebutuhan, penelitian ini mengajukan usulan solusi terhadap masalah yang telah diidentifikasi. Dengan berdasar kepada usulan solusi tersebut, integrasi Elang dan Sisidang serta modifikasi dan penyesuaian fitur untuk mengakomodasi integrasi tersebut berhasil dikembangkan. Setelah integrasi serta penyesuaian fitur berhasil dilakukan, evaluasi sistem dilakukan dengan menggunakan metode user acceptance test. Evaluasi dilakukan kepada enam orang responden yang terdiri dari dosen dan staf sekretariat akademik Fasilkom UI. Seluruh responden setuju bahwa sistem berhasil dalam menyelesaikan masalah dan mampu memenuhi kebutuhan pengecekan plagiarisme. Hasil penelitian ini diharapkan dapat membantu melancarkan proses berjalannya Sidang terutama bagi dosen dan staf sekretariat akademik serta bagi para pengembang aplikasi dalam memperbaiki serta mengembangkan aplikasinya. ......The Faculty of Computer Science (Fasilkom) Universitas Indonesia (UI) has developed two web applications, which are (1) Sistem Informasi Sidang (Sisidang) and (2) Sistem Pengecekan Plagiarisme Elang. Both applications are used to facilitate the submission, the markings, and the revision of a student's thesis, as well as checking for the possibility of plagiarism. However, both applications have weaknesses on how they operate, which are (1) Elang only does plagiarism checks for documents that are uploaded before the thesis defence, (2) Elang needs to be triggered manually to check for newly submitted document before running plagiarism checks for that specific document, (5) Elang would extract the wrong title of the thesis in some cases, (4) the use of only using student ID as query parameter for plagiarism checks leads may lead to a duplication of results, (5) the not so user-friendly plagiarism check results page, (6) plagiarism check results can only be accessed in Elang. Therefore, the need for modifications and adjustments are needed to address the problems. This study uses design science research as the methodology of study. The identification and analysis of problems are conducted by using the qualitative method of interview and meetings with the product owner and users of both applications. After the identification and analysis of the problems, this study proposes solutions to address each of the problems that have been identified. Based on the proposed solution, the integration of Sisidang and Elang as well as the modifications and adjustments to accommodate the integration has been successfully finished. After the integration, modifications, and adjustments are finished, evaluation of the system is done by using the methodology of user acceptance testing. The evaluation is done through six respondents who are the main users of both apps, the lecturers, and the academic secretariat staff. All respondents agree that the new system has successfully addressed the problems and fill in the need of plagiarism checks in the process of thesis defence. This study is expected to smoothen the process of the thesis defence especially for lecturers and the academic secretary staff and developers that need improving their applications.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hanif Arkan Audah
Abstrak :
Non-word error merupakan kesalahan ejaan yang menghasilkan kata yang tidak ada dalam kamus. Tujuan dari penelitian ini adalah membandingkan dua metode pemeriksa ejaan non-word error, yaitu SymSpell dan kombinasi Damerau-Levenshtein distance dengan struktur data trie. Kedua metode tersebut melakukan isolated-word error correction terhadap non-word error. Dalam implementasi, SymSpell dibedakan menjadi dua, yaitu weighted dan unweighted. Proses perbandingan metode dimulai dengan penyusunan kamus menggunakan entri kata dari KBBI V yang diperkaya dengan kata-kata tambahan dari Wiktionary. Kamus yang dihasilkan memuat 91.557 kata. Selanjutnya, disusun dataset uji yang dibuat secara sintetis dengan memanfaatkan modifikasi dari candidate generation Peter Norvig. Dataset uji sintetis yang dihasilkan memuat 58.532 kata salah eja. Dilakukan perbandingan antara Weighted SymSpell, Unweighted SymSpell, dan kombinasi Damerau-Levenshtein distance dengan struktur data trie menggunakan dataset uji sintetis tersebut. Perbandingan tersebut mengukur best match accuracy, candidate accuracy, dan run time. Hasil perbandingan menyimpulkan bahwa SymSpell memiliki performa yang lebih baik dibandingkan dengan metode kombinasi Damerau-Levenshtein distance dan struktur data trie karena unggul dari aspek best match accuracy dan run time serta memperoleh candidate accuracy yang setara dengan metode-metode lain. Implementasi SymSpell yang unggul, yaitu Weighted SymSpell memperoleh best match accuracy 66,79%, candidate accuracy 99,33%, dan run time 0,39 ms per kata. ......Non-word errors are errors during writing where the resulting word does not exist in the dictionary. The objective is to compare non-word error spell checker methods, which are SymSpell and a combination of Damerau-Levenshtein distance with the trie data structure. Both methods handle non-word errors using isolated-word error correction. During implementation, SymSpell is divided into two types: weighted and unweighted. The comparison process starts by compiling a dictionary from word entries in KBBI V and Wiktionary. The resulting dictionary contains 91,557 words. The next step is to synthetically generate a test dataset using a modified version of Peter Norvig’s candidate generation method. The resulting test dataset contains 58,532 misspellings. A comparison is made between Weighted SymSpell, Unweighted SymSpell, and a combination of Damerau-Levenshtein distance with the trie data structure using the synthetic test dataset that was generated. The comparison measures the best match accuracy, candidate accuracy, and run time. The results found that SymSpell performed better than the method that used a combination of Damerau-Levenshtein distance with the trie data structure because it obtained a higher best match accuracy, lower run time, and an equivalent candidate accuracy compared to the other methods. The best performing SymSpell implementation is Weighted SymSpell which obtained a best match accuracy of 66.79%, candidate accuracy of 99.33%, and a run time of 0.39 ms per word.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Apandaoswalen, autho
Abstrak :
Terdapat kebijakan baru untuk program studi sarjana Fakultas Ilmu Komputer Universitas Indonesia, yaitu pelaksanaan tugas akhir menjadi wajib dilakukan untuk angkatan 2018 ke atas dan dapat dilakukan secara mandiri atau berkelompok dengan jumlah anggota maksimum 3 orang. Kebijakan tersebut menjadi alasan utama dibutuhkannya proses pengembangan lebih lanjut Sistem Informasi Sidang Tugas Akhir Fakultas Ilmu Komputer Universitas Indonesia (SI Sidang) agar dapat menangani tugas akhir kelompok. Requirements gathering dilakukan dengan melakukan Joint Application Development (JAD) meetings dengan pengguna dan product owner. Metode agile software development dan JAD digunakan untuk mengembangkan aplikasi SI Sidang. Setelah aplikasi dikembangkan, evaluasi dilakukan untuk menilai kualitas aplikasi yang dikembangkan. Proses evaluasi dilakukan dengan metode User Acceptance Test (UAT).  Berdasarkan evaluasi yang telah dilakukan, sistem berhasil memberikan hasil yang sesuai dengan ekspektasi yang telah ditentukan. ......There is a new policy for undergraduate programs at the Faculty of Computer Science, University of Indonesia. Thesis is mandatory for class of 2018 and above. It can be done individually or in groups with a maximum number of 3 members. This change of policy is the main reason for further development of Information System for Final Project of the Faculty of Computer Science, University of Indonesia (SI Sidang) in order to be able to handle group theses. Joint Application Development (JAD) meetings were conducted in order to gather requirements from users. JAD and Agile Software Development were used to develop SI Sidang. After the development of SI Sidang, an evaluation is carried out to assess the quality of the developed application. The evaluation process was carried out by using the User Acceptance Test (UAT) method. Based on the evaluation, the system has succeeded in providing results in accordance with predetermined expectations.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mukhlizar Nirwan Samsuri
Abstrak :
Kesalahan ejaan dapat dibagi menjadi dua jenis, non-word errors dan real-word errors. Non-word errors adalah kesalahan eja yang tidak terdapat dalam kamus, sedangkan real-word errors adalah kata yang terdapat pada kamus tetapi berada pada tempat yang tidak tepat pada kalimat. penelitian ini berfokus pada koreksi ejaan untuk non-word errors pada teks formal Bahasa Indonesia. Tujuan dari penelitian ini adalah untuk membandingkan efektivitas tiga jenis struktur kamus untuk koreksi ejaan, antara lain kamus terdistribusi, kamus PAM (Partition Around Medoids), dan kamus menggunakan struktur data trie. Ketiga jenis kamus juga akan dibandingkan dengan kamus sederhana yang dijadikan sebagai baseline. Tahap pengurutan kandidat (ranking correction candidates) dilakukan dengan menggunakan dua variasi dari edit distance, yaitu Levenshtein dan Damerau-Levenshtein dan n-gram. Guna mendukung penelitian ini, dibangun dataset gold standard dari 200 kalimat yang terdiri dari 4.323 token dengan 288 di antaranya adalah non-word errors. Berdasarkan kombinasi tipe kamus dan edit distance, didapatkan hasil bahwa struktur data trie dengan Damerau-Levenshtein distance memperoleh accuracy terbaik untuk menghasilkan kandidat koreksi, yaitu 95,89% dalam 45,31 detik. Selanjutnya, kombinasi struktur data trie dengan Damerau-Levenshtein distance juga mendapatkan accuracy terbaik dalam memilih kandidat terbaik, yaitu 73,15%. ......Spelling errors can be divided into two groups: non-word and real-word. A non-word error is a spelling error that does not exist in the dictionary, while a real-word error is a real word but not on the right place. In this work, we address the non-word errors in spelling correction for Indonesian formal text. The objective of our work is to compare the effectiveness of three kinds of dictionary structure for spelling correction, distributed dictionary, PAM (Partition Around Medoids) dictionary, and dictionary using trie data structure, with the baseline of a simple flat dictionary. We conducted experiments with two variations of edit distances, i.e. Levenshtein and Damerau-Levenshtein, and utilized n-grams for ranking correction candidates. We also build a gold standard of 200 sentences that consists of 4,323 tokens with 288 of them are non-word errors. Among the various combinations of dictionary type and edit distance, the trie data structure with Damerau-Levenshtein distance gets the best accuracy to produce candidate correction, i.e. 95.89% in 45.31 seconds. Furthermore, the combination of trie data structure with Damerau-Levenshtein distance also gets the best accuracy in choosing the best candidate, i.e. 73.15%.
Depok: Fakultas Ilmu Komputer, 2023
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library