Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 10 dokumen yang sesuai dengan query
cover
Henry Artajaya
Abstrak :
Metode spektral Laplacian Eigenmaps Embedding (LEM) dapat memelihara kemiripan dokumen dengan baik dibandingkan dengan metode reduksi dimensi lainnya. Hal ini terlihat dari unjuk kerja sistem berbasis GLSALEM yang lebih baik jika dibandingkan dengan sistem lainnya pada percobaan. Peningkatan unjuk kerja tidak hanya ditunjukkan dengan berkurangnya rata-rata selisih nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater tetapi juga jumlah percobaan dimana GLSA-LEM menghasilkan nilai yang paling mendekati dengan nilai yang dihasilkan oleh human rater. Kekurangan dari implementasi metode LEM adalah bahwa LEM hanya dapat diterapkan pada matriks jawaban referensi dan mahasiswa dengan dimensi yang lebih besar atau sama dengan enam. Oleh karena itu jawaban referensi dan jawaban mahasiswa yang terlalu pendek tidak akan dapat diproses oleh LEM. Hal ini dapat ditanggulangi dengan mengimplementasikan batas minimal kata jawab pada sistem berbasis GLSA-LEM sehingga semua jawaban dapat diproses oleh LEM. Pada percobaan ini didapatkan rata-rata selisih antara nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater pada sistem berbasis LSA adalah 44,49; pada sistem berbasis GLSA adalah 23,41; dan pada sistem berbasis GLSA-LEM adalah 11,67. Hasil tersebut menunjukkan bahwa GLSA-LEM paling unggul karena menghasilkan rata-rata selisih yang paling kecil antara nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater. Hal ini didukung oleh jumlah percobaan dimana sistem berbasis GLSA-LEM bekerja paling baik yakni dari sejumlah 245 percobaan yang dapat diterapkan LEM didapatkan bahwa pada 82 percobaan sistem GLSA-LEM menghasilkan selisih nilai yang paling kecil dibandingkan dengan sistem GLSA yang unggul pada 40 percobaan dan sistem LSA yang unggul pada 10 percobaan saja. Dengan demikian hipotesis yang diajukan terbukti benar bahwa implementasi LEM pada sistem GLSA akan meningkatkan akurasi sistem. Selisih nilai yang lebih kecil menandakan sistem dapat menghasilkan nilai yang lebih mendekati nilai yang dihasilkan oleh human rater. Hal ini sesuai dengan tujuan dari sistem penilai esai otomatis yang diciptakan untuk menggantikan kerja human rater dimana nilai yang dihasilkan harus dapat mendekati nilai yang dihasilkan oleh human rater. Rata-rata waktu proses LSA adalah 0,164 detik, GLSA sebesar 0,521 detik, dan GLSA-LEM sebesar 4,982 detik. ......Laplacian Eigenmaps Embedding preserve semantic proximity better than other dimension reduction methods. GLSA performance may be improved further by implementing LEM. Experiment conducted has shown that GLSA-LEM based system has outperform on this experiment. Performance improvement not only shown from average delta between the grades calculated using the system and the grades resulted from human rater but also the number of the tests that outperformed by GLSA-LEM. The disadvantage of LEM implementation is that LEM only can be applied to answer matrices with minimum dimension of six. Therefore answers that are too short may not be processed using LEM. This can be mitigated by implementing minimum threshold to the answers so it can't be submitted if less than required length. This experiment show that LSA average delta between grades resulted from the system and grades resulted from human rater is 44,49; GLSA?s average delta is 23,41 and GLSA-LEM?s average delta is 11,67. These results show GLSA-LEM is the best because generate grades with the least average delta between the grades calculated using the system and the grades resulted from human rater. These results also supported by the number of essays from total of 245 essays that can be applied GLSA-LEM graded best with least delta by GLSA-LEM that is 82; compared to GLSA that is 40; and LSA that is 10. Therefore the hypotesis is proven to be correct that LEM implementation on GLSA based system improves system's accuracy. Least delta indicates system generate better grades that is closer to human rater. These results is in accordance with the purpose of automated essay grading system that created to replace human raters in which the grades resulted by the system should be close to the grade generated by human raters. LSA's average processing time is 0,164 seconds, GLSA's is 0,521 seconds, and GLSA-LEM?s is 4,982 seconds.
Depok: Fakultas Teknik Universitas Indonesia, 2013
T35051
UI - Tesis Membership  Universitas Indonesia Library
cover
Dewi
Abstrak :
Tesis ini membahas tentang penerapan semantic role labeling untuk kalimat Bahasa Indonesia dengan metode Support Vector Machine / SVM. Dataset yang digunakan dalam penelitian ini yaitu kalimat-kalimat yang diambil dari FrameNet yang diterjemahkan dengan bantuan Google Translate. Data training menggunakan 100 kalimat yang diambil dari FrameNet, untuk data testing menggunakan 100 kalimat yang diambil dari FrameNet ditambah dengan 100 kalimat yang dibuat oleh penutur Bahasa Indonesia. Feature-feature yang digunakan dalam penelitian ini adalah headword, POS tag, preposition, predikat, voice, position, frame dan semantic class. Untuk penerapan klasifikasi semantic role labeling dengan metode SVM digunakan tools WEKA. Percobaan yang dilakukan dalam penelitian ini menggunakan kombinasi feature yang berbeda. Hasil yang baik dengan precision 61,6% dan recall 66,8% diperoleh dari kombinasi feature headword, POS tag, preposition, position, frame dan semantic class. ......This thesis discusses about the implementation of semantic role labeling for Indonesian sentences using Support Vector Machine / SVM. Dataset which use in this research are the sentences that taken from FrameNet which translated using Google Translate. Training data uses 100 sentences from FrameNet, for testing data uses 100 senteces from FrameNet and added 100 sentences that made by Indonesian speakers. The features that used in this research are headword, POS tag, preposition, predicate, voice, position, frames and semantic class. For the implementation of classification semantic role labeling with SVM methods is used WEKA tools. The experiments in this research use the combination of the different features. The good result with precision 61,6% and recall 66,8%,are gotten from combination feature between headword, POS tag, preposition, position, frame and semantic class.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Brian Prama Krisnanda
Abstrak :
Sistem penilaian yang dilakukan oleh penilai manusia untuk menilai jawaban essay dalam jumlah besar dirasakan kurang efisien. Hal ini disebabkan karena penilai manusia memiliki keterbatasan fisik yang tidak dapat dihindari. Jika hanya menggunakan satu orang penilai, memang obyektifitas terjaga, namun waktu pemeriksaan menjadi lama. Jika menggunakan banyak orang penilai, waktu dalam memeriksa menjadi cepat, namun obyektifitas tidak terjaga. Oleh karena itu, untuk meningkatkan efisiensi periu dibuat suatu sistem penilaian yang pemeriksaannya cepat dan obyektifitias tetap terjaga. Dalam skripsi ini dilakukan perancangan dan implementasi software penilaian essay otomatis dengan menggunakan salah satu metode penilaian essay otomatis yaitu Latent Semantic Analysis (LSA). Metode ini mengonversi kalimat ke dalam bentuk matriks untuk kemudian dilakukan perhitungan. Perhitungan dilakukan dengan menggunakan Singular Value Decomposition (SVD) dimana matriks didekomposisi menjadi tiga komponen matriks, yaitu dua matriks orthogonal dan satu matriks diagonal singular. Kemudian dilakukan reduksi terhadap matriks diagonal singular-nya sehingga menjadi berdimensi dua, dan transpose matriks untuk salah satu matriks orthogonalnya. Setelah itu dilakukan rekonstruksi matriks awal dengan cara mengalikan kembali tiga komponen matriks yang sudah diolah tersebut. Proses penilaian diambil dari perbandingan normalisasi Frobenius antara matriks jawaban dengan matriks referensi yang sudah direkonstruksi. Pada perancangannya, sistem penilaian essay otomatis ini berupa algoritma yang terbagi menjadi beberapa bagian, diantaranya yaitu program utama, sub program, dan bagian program terperinci diantaranya program konversi jawaban ke matriks, dan program perhitungan SVD. Agar dapat dikembangkan sehingga dapat digunakan melalui jaringan internet, program ini didesain dengan menggunakan aplikasi web. Implementasi dari sistem dilakukan pada sebuah komputer sekaligus merupakan server dan client. Agar sistem dapat berjalan dengan baik, maka diinstal beberapa program diantaranya Apache Server, MySQL Server, PHP, dan Matlab. Untuk menguji performa dari sistem aplikasi ini dilakukan beberapa pengujian. Pengujian dilakukan dengan tujuan untuk mengetahui bagaimana korelasi antara nilai jawaban mahasiswa yang dihasilkan dengan menggunakan metode LSA, dengan nilai jawaban mahasiswa yang dihasilkan oleh human rater. Dari pengujian didapatkan nilai korelasi antara penilaian otomatis yang menggunakan metode LSA dengan penilaian yang dilakukan oleh human rater ialah sebesar 0,86 - 0,96.
Depok: Fakultas Teknik Universitas Indonesia, 2005
S39970
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fox, Chris
New York: Blackwell , 2005
401.43 FOX f
Buku Teks  Universitas Indonesia Library
cover
Stubbs, Michael
Oxford, UK: Blackwell , 2001
401.43 STU w
Buku Teks  Universitas Indonesia Library
cover
Hanif Fatrial
Abstrak :
Penelitian tugas akhir sarjana di Departemen Matematika Universitas Indonesia dapat berupa aplikasi matematika dalam kehidupan sehari-hari. Salah satu aplikasinya dapat diterapkan pada pencarian topik pada portal berita Indonesia online secara otomatis dengan bantuan mesin. Dengan transformasi kata-kata pada artikel portal berita Indonesia online kedalam bentuk matriks, dapat dilakukan proses Latent Semantic Analysis (LSA) dengan menggunakan metode Nonegative Matrix Factorization dalam mengekstraksi kata-kata pendukung topik dari sekumpulan dokumen. Pada skripsi ini akan dibahas mengenai implementasi Latent Semantic Analysis dengan menggunakan Nonegative Matrix Factorization (NMF) dalam ekstraksi kata-kata pendukung topik sehingga kata-kata tersebut dapat menginterpretasikan topik utama harian dari portal berita Indonesia online. ......There are a wide range of fields in mathematics that can be used as a final research in the Department of Mathematics, University of Indonesia, including the applications of mathematics for daily life. One of the applications can be applied to searching topic in Indonesia online news portal automatically with machines. Latent Semantic Analysis (LSA) using Matrix Factorization Nonegative method can extract the words from a collection of documents which supporting the topic. This skripsi will be discussed on the implementation of Latent Semantic Analysis using Nonegative Matrix Factorization in extraction for the words wich support topics that words can be interpretation of a topic Indonesian daily online news portal.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2012
S42926
UI - Skripsi Open  Universitas Indonesia Library
cover
Abstrak :
This series publishes monographs, texts, and edited volumes within the interdisciplinary field of computational linguistics. It represents the range of topics of concern to the scholars working in this increasingly important field, whether their background is in formal linguistics, psycholinguistics, cognitive psychology or artificial intelligence.
Cambridge, UK: Cambridge University Press, 1990
e20393631
eBooks  Universitas Indonesia Library
cover
Stuart, David
Abstrak :
The web is changing from a web of documents to a web of data; from a web that can be read by humans, to one that can be read by machines. These are fascinating advances for anyone interested in the changing nature of the web and the way we access information. The technologies being forged in this new landscape will provide a host of opportunities for library and information professionals to shape the information landscape of the future. This book is a wide-ranging introduction to the emerging web of data and the semantic web, exploring technologies including APIs, microformats and linked data. Its topical commentary and practical examples drawn from the international LIS community explore how information professionals can harness the power of this new phenomenon to inform strategy and become facilitators of access to data. Key topics covered include: open data: a semantic web - one that's meaningful to computers data silos; the semantic web- the RDF vision embedded semantics; and, the library and the web of data the future of the librarian and the web of data. ... This is essential reading for library and information professionals and for LIS students and researchers. It will also be of value to information architects, web developers and all those interested in making sure that people have access to the information they need.
London: Facet, 2011
021.2 STU f (1);021.2 STU f (2)
Buku Teks  Universitas Indonesia Library
cover
Vanessa Deviani
Abstrak :
Simple-O merupakan sistem penilaian esai otomatis yang menerapkan algoritma Latent Semantic Analysis (LSA). Simple-O dalam penilaian hasilnya menggunakan metode pembobotan. Sebagai sistem penilaian esai otomatis, tentu saja Simple-O diharapkan agar hasil penilaiannya mirip dengan hasil penilaian secara manual (Human Raters). Metode pembobotan awal yang diterapkan pada Simple-O masih memiliki beberapa kekurangan, oleh karena itu pada skripsi kali ini akan diimplementasikan empat belas metode pembobotan (kombinasi tujuh pembobotan lokal dan dua pembobotan global) pada Simple-O dan hasilnya akan dilakukan analisa agar dapat ditentukan metode pembobotan yang mana yang paling cocok diterapkan di Simple-O. Metode pembobotan biner tanpa bobot lokal sejauh ini memiliki kemiripan yang paling tinggi dengan human raters dengan selisih perbedaan dengan human raters 9.255 poin. ......Simple-O is an automated essay grading system that complies the Latent Semantic Analysis (LSA) algorithm. Simple-O uses word weighting method in the assessment of the results. As an automated essay grading system, the assessment system in Simple-O is supposedly similar with the manual assessment (human raters). The original Simple-O weighting method still have some flaws, therefore, on this thesis will be implemented fourteen word weighting methods (the combination of seven local weightings and two global weightings) and all of the results will be analyzed to determine which weighting method have the best result to be implemented in Simple-O. Binary weighting method so far have the highest similarity with the manual assessment with the differences by 9.255 point.
Depok: Fakultas Teknik Universitas Indonesia, 2011
S797
UI - Skripsi Open  Universitas Indonesia Library
cover
Abstrak :
In this particularly well written volume Graeme Hirst presents a theoretically motivated foundation for semantic interpretation (conceptual analysis) by computer, and shows how this framework facilitates the resolution of both lexical and syntactic ambiguities.
Cambridge, UK: Cambridge University Press, 1987
e20393629
eBooks  Universitas Indonesia Library