Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 61851 dokumen yang sesuai dengan query
cover
Gultom, Rudy Agus Gemilang
"ABSTRAK
Di dalam disertasi ini dibuat satu metode baru pembuatan Mashup melalui sistem pemodelan pohon DOM yang dibentuk secara otomatis menggunakan algoritma Xtractorz. Mashup merupakan sebuah aplikasi web yang mengkombinasikan data atau fungsi dari dua atau lebih sumber eksternal (halaman web) untuk membuat satu bentuk layanan (new servives) di halaman web yang baru.
Pohon DOM merupakan satu bentuk platform yang berguna untuk merepresentasikan beragam obyek dokumen halaman web berformat HTML atau XML untuk ditampilkan menjadi satu bentuk struktur pohon (tree-structure) atau lazimnya disebut node-tree Dengan menggunakan pendekatan platform struktur pohon DOM tersebut maka web browser dapat dengan mudah menginterpretasikan struktur kode HTML dari satu halaman web. Maksudnya, seluruh node yang ada dalam struktur kode HTML dari satu halaman web dapat diidentifikasi dan dimodifikasi struktur datanya secara mudah dan cepat.
Tujuan dari metode baru ini adalah untuk memudahkan pengguna membuat satu rangkaian tahapan pembuatan Mashup secara online via Internet. Untuk mengimplementasikan metode baru tersebut, di dalam penelitian ini telah dibangun satu tool baru pembuat Mashup yang dinamakan Xtractorz. Tool Xtractorz terdiri dari algoritma induk dan algoritma turunannya serta sekumpulan aturan yang didisain untuk mampu membuat satu Mashup yang diawali proses ekstraksi tabel data dari satu halaman web HTML di Internet.
Proses pembuatan Mashup dimulai dengan memetakan seluruh struktur kode-kode atau tag-tag tabel HTML yang berhasil diekstraksi dari satu halaman web. Kode-kode HTML yang merepresentasikan seluruh tabel di dalam halaman web HTML selanjutnya dipisahkan oleh algoritma induk Xtractorz untuk dikelompokan menjadi kelompok node Root, Parent, Child, Sibling dan Leaf.
Pengelompokkan tersebut kemudian ditransformasikan bentuknya menjadi satu struktur pohon DOM yang dibentuk secara otomatis oleh tool Xtractorz. Struktur pohon DOM tersebut selanjutnya menjadi referensi untuk proses komputasi di setiap tahapan pembuatan Mashup, seperti tahap Data Retrieval, Data (Source) Modeling, Data Cleaning/ Filtering, Data Integration hingga Data Visualization.
Hasil akhir tahapan pembuatan Mashup adalah beragam bentuk produk keluaran sesuai kebutuhan atau keinginan pengguna, contohnya dalam bentuk tabel PDF, tabel XML atau bentuk keluaran lainnya.
Pengujian terhadap metode baru pembuatan Mashup dilakukan dengan cara menguji tool Xtractorz menggunakan skenario dan lingkungan pengujian yang pernah dilakukan oleh tools pembuat Mashup sejenis, yaitu Karma dan Dapper. Pengujian dilakukan oleh para penguji dengan kualifikasi programmers dan non-programmers yang merepresentasikan para pengguna Internet. Pengujian dilaksanakan dengan memberikan model penugasan Task 1, Task 2 dan Task 3.
Pada prinsipnya para penguji diberi tugas melakukan pembuatan satu Mashup sesuai skenario penugasan yang diterima. Proses pembuatan Mashup diawali dengan tahapan ekstraksi tabel data secara online dan real time dari beberapa sumber halaman web HTML di Internet. Data hasil pengujian menunjukkan bahwa performa tool Xtractorz lebih unggul dibandingkan dengan tools Dapper dan Karma. Keunggulan tersebut dibuktikan dengan keberhasilan tool Xtractorz menyelesaikan seluruh rangkaian tahapan pembuatan Mashup secara lengkap dengan waktu proses (time spent) yang lebih cepat.
Selain itu algoritma induk Xtractorz dan turunannya mampu menyelesaikan seluruh lima tahapan standar pembuatan Mashup, mulai dari tahap Data Retrieval, Data Modeling, Data Cleaning/ Filtering, Data Integration hingga Data Visualization yang tidak dapat dilakukan oleh tools sejenis lainnya.
Dari hasil pengujian dapat ditarik kesimpulan bahwa metode baru pembuatan Mashup melalui sistem pemodelan pohon DOM yang dibentuk secara otomatis menggunakan algoritma Xtractorz memiliki performa yang dapat diandalkan bagi para pengguna Internet membuat satu Mashup secara mudah dan cepat.

ABSTRACT
In this dissertation, we created a new method for building a Mashup through DOM tree modeling system that automatically generated by using Xtractorz algorithm. Mashup is a web based application which combine data or function from two external sources (web pages) or more in order to create new services in the new web pages.
DOM tree is a useful platform to represent various HTML or XML web pages document object in a form of tree structure or commonly called node-tree. With the use of DOM tree structure approach then the web browser could interpret the HTML tags structure from a web page very easily. This mean that all the nodes exist inside the HTML tags structure within a web page can be easily identify or modify its data structures.
The aim of this new method is to help the Internet users to build a Mashup via online Internet. In order to implement this new method, a new Mashup builder tool called Xtractorz has been build in this research project. The Xtractorz tool consists of a main algorithm and its derivative algorithms completed with a set of rules which is designed to be capable to build a Mashup through a process of data table extraction from an HTML web page on the Internet.
The process of building a Mashup is initiated by mapping the whole structure of a webpage HTML codes or tags that has been succesfully extracted and grouped from a single web page. Afterward, those HTML codes or tags that represent the web HTML tables will be grouped into Root, Parent, Child, Sibling and Leaf Nodes by the Xtractorz main algorithm.
Those group of nodes will be transformed to a DOM tree structure model which is automatically build by Xtractorz tool. This DOM tree structure will be used as a main reference for computation process in every stages of building a Mashup, such as Data Retrieval, Data (Source) Modeling, Data Cleaning/Filtering, Data Integration and Data Visualization.
The end result of Mashup building stages will be the variety of output as expected or needed by the users, for example in the form of PDF and XML tables and many more output forms. The new method of building a Mashup has been tested by testing the Xtractorz tool using the same scenario and environment test that has been done previously by similar Mashup builder tools, called Karma and Dapper. The tests has been done by the appointed testers with the qualification of programmers and non-programmers background as the representative of Internet users. The serial tests have been deployed with specific tasks model, namely Task 1, Task 2 and Task 3.
Basically, the appointed testers created a Mashup as written on the scenario. The stage of building a Mashup is initiated by an on-line and real-time process of web data table extraction from the Internet.
The data test results showed that the Xtractorz tool performance is better than the other tools, Karma and Dapper. This can be proofed by the successful test of Xtractorz tool which can complete the whole process of building a Mashup with the minimum time spent or more faster.
In addition to that, the Xtractorz main algorithm and its derivatives can also complete the five stages standardization of building a Mashup, starting from Data Retrieval, Data Modeling, Data Cleaning/ Filtering, Data Integration until Data Visualization stage which can not be performed completely by other similar tools.
As conclusion, the result test showed that this new method for building a Mashup through DOM tree modeling system which automatically generated using Xtractorz algorithm has a better performance that could help the Internet users to build a Mashup more faster and easily."
Depok: 2012
D1272
UI - Disertasi Open  Universitas Indonesia Library
cover
Gatot Budi Santoso
"Pengembangan perangkat lunak sistem waktu-nyata membutuhkan banyak tahapan mulai dari penganalisisan, perancangan, sampai implementasi. Tahapan penganalisisan dan perancangan adalah tahapan yang penting, karena disini akan dilakukan pemodelan perangkat lunak yang akan dibuat. Setelah melewati kedua tahapan ini baru dapat dilakukan proses penulisan program (implementasi) dan pengujian yang akan menentukan apakah rancangan sesuai kebutuhan atau tidak. Tahapan analisis dan perancangan acapkali membutuhkan waktu yang lama dan dengan dernikian akan menghabiskan biaya dan usaha yang besar.
Tesis ini mencoba melakukan pemodelan terhadap sistem proses pembuatan slab steel di PT. (Persero) Krakatau Steel dengan menggunakan metode penganalisisan dan perancangan Ward dan Mellor. Metode Ward dan Mellor adalah salah satu metode penganalisisan dan perancangan sistem waktu-nyata terstruktur yang baku. Untuk memvisualisasikan model yang telah dibuat dan mengetahui apakah hasil penganalisisan dan perancangan yang dilakukan sudah benar atau tidak, dibuat sebuah simulator proses pembuatan slab steel yang dibangun berdasarkan model di atas. Simulator ini dilengkapi dengan nilai-nilai parameter proses yang besarnya disesuaikan dengan nilai parameter proses sesungguhnya yang terdapat di pabrik slab steel PT. (Persero) Krakatau Steel. Simulator diterapkan pada beberapa komputer yang saling terhubung untuk menggambarkan bagian-bagian proses yang ada di pabrik. Simulator juga dilengkapi dengan tampilan grafis teranimasi."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 1998
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Novi Indriyani
"Bagian Operasional Badan Meteorologi Klimatologi dan Geofisika hingga saat ini belum memiliki metode baku dalam memprakirakan cuaca jangka pendek. Metode yang selama ini digunakan adalah dengan analogi peristiwa cuaca yang telah lampau. Penelitian ini berusaha menjawab apakah metode pohon keputusan yang dihasilkan algoritma C4.5 dapat digunakan untuk memprakirakan cuaca jangka pendek? Bagaimana tingkat akurasi yang dapat diberikan oleh metode ini? Training data serta testing data yang digunakan dalam penelitian ini berupa data hasil pengamatan unsur cuaca rata-rata harian (temperatur udara, kelembaban udara, tekanan udara, kecepatan angin, arah angin, lama penyinaran matahari, dan curah hujan) yang diperoleh dari Stasiun Meteorologi 745 Kemayoran Jakarta. Sebagai training data digunakan data pengamatan unsur cuaca dari tahun 2002 hingga 2006 sedangkan testing data adalah data tahun 2007 dan 2008. Tingkat akurasi prakiraan cuaca yang dihasilkan metode pohon keputusan ini berkisar pada angka 40% hingga 80% untuk 2 kategori (hujan dan tidak hujan). Sedangkan untuk tingkat akurasi prediksi 6 kategori (tidak hujan, hujan sangat ringan, hujan ringan, hujan sedang, hujan lebat, dan hujan sangat lebat) berkisar pada angka 30% hingga 80%. Perbedaan akurasi dipengaruhi dari jenis musim testing data (musim hujan, pancaroba I, kemarau, dan pancaroba II). Metode pohon keputusan ini dapat digunakan untuk memprakirakan cuaca jangka pendek dimana akurasi yang dihasilkan telah diterima Badan Meteorologi Klimatologi dan Geofisika karena untuk 2 kategori, nilai akurasinya relatif berada diatas 60%.

The Operational of Badan Meteorologi Klimatologi dan Geofisika until now have no standardized method in doing short-range weather forecasting. They use analogical method in forecasting what the weather would be the day after. This research is conducted in order to discover whether decision tree method could be used to forecast weather for such a short period of time and also to discover how acurate this method could be. The research uses daily-monitored weather elements data such as temperature, humidity, pressure, wind speed, from where the wind blowing, sunshine, and precipitation. The data was gathered from Stasiun Meteorologi 745 Kemayoran Jakarta. Data measured during 2002-2006 is used as training data, and the one measured during 2007 and 2008 is used as testing data. Prediction accuracy resulted from this decision tree method is around 40% to 80% for 2-category prediction (rain and no-rain). And for 6-category prediction (no-rain, very-light-rain, light-rain, moderate-rain, heavy-rain, and very-heavy-rain), the accuracy is around 30% to 80%. The 6-category prediction accuracy differs from the 2-category prediction because the testing data was measured in different seasons and it causes the accuracy for rainy season testing data is lower than any other season in 6-category prediction. The conclusion that can be made is that decision tree method could be used as one of short-range weather forecasting methods since its prediction accuracy for 2-category is acceptable according to Badan Meteorologi Klimatologi dan Geofisika (relatively above 60%)."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
cover
Brian Prama Krisnanda
"Sistem penilaian yang dilakukan oleh penilai manusia untuk menilai jawaban essay dalam jumlah besar dirasakan kurang efisien. Hal ini disebabkan karena penilai manusia memiliki keterbatasan fisik yang tidak dapat dihindari. Jika hanya menggunakan satu orang penilai, memang obyektifitas terjaga, namun waktu pemeriksaan menjadi lama. Jika menggunakan banyak orang penilai, waktu dalam memeriksa menjadi cepat, namun obyektifitas tidak terjaga. Oleh karena itu, untuk meningkatkan efisiensi periu dibuat suatu sistem penilaian yang pemeriksaannya cepat dan obyektifitias tetap terjaga.
Dalam skripsi ini dilakukan perancangan dan implementasi software penilaian essay otomatis dengan menggunakan salah satu metode penilaian essay otomatis yaitu Latent Semantic Analysis (LSA). Metode ini mengonversi kalimat ke dalam bentuk matriks untuk kemudian dilakukan perhitungan. Perhitungan dilakukan dengan menggunakan Singular Value Decomposition (SVD) dimana matriks didekomposisi menjadi tiga komponen matriks, yaitu dua matriks orthogonal dan satu matriks diagonal singular. Kemudian dilakukan reduksi terhadap matriks diagonal singular-nya sehingga menjadi berdimensi dua, dan transpose matriks untuk salah satu matriks orthogonalnya. Setelah itu dilakukan rekonstruksi matriks awal dengan cara mengalikan kembali tiga komponen matriks yang sudah diolah tersebut. Proses penilaian diambil dari perbandingan normalisasi Frobenius antara matriks jawaban dengan matriks referensi yang sudah direkonstruksi.
Pada perancangannya, sistem penilaian essay otomatis ini berupa algoritma yang terbagi menjadi beberapa bagian, diantaranya yaitu program utama, sub program, dan bagian program terperinci diantaranya program konversi jawaban ke matriks, dan program perhitungan SVD. Agar dapat dikembangkan sehingga dapat digunakan melalui jaringan internet, program ini didesain dengan menggunakan aplikasi web. Implementasi dari sistem dilakukan pada sebuah komputer sekaligus merupakan server dan client. Agar sistem dapat berjalan dengan baik, maka diinstal beberapa program diantaranya Apache Server, MySQL Server, PHP, dan Matlab.
Untuk menguji performa dari sistem aplikasi ini dilakukan beberapa pengujian. Pengujian dilakukan dengan tujuan untuk mengetahui bagaimana korelasi antara nilai jawaban mahasiswa yang dihasilkan dengan menggunakan metode LSA, dengan nilai jawaban mahasiswa yang dihasilkan oleh human rater. Dari pengujian didapatkan nilai korelasi antara penilaian otomatis yang menggunakan metode LSA dengan penilaian yang dilakukan oleh human rater ialah sebesar 0,86 - 0,96."
Depok: Fakultas Teknik Universitas Indonesia, 2005
S39970
UI - Skripsi Membership  Universitas Indonesia Library
cover
Baskoro Mardjuki
"ABSTRAK
Sekarang ini kemacetan lalu-lintas merupakan salah satu masalah utama dalam kehidupan masyarakat perkotaan, khususnya Jakarta. Padamya lalu-lintas menimbulkan kecelakaan di jalan raya yang tidak hanya menyebabkan kerugian material, tetapi juga jumlah korban kecelakaan lalu-lintas yang semakin tinggi. Kebanyakan kecelakaan terjadi akibat kurang disiplinnya pengemudi dalam berkendaraan. Oleh karena itu, untuk meningkatkan keamanan demi mengurangi kecelakaan di jalan raya dan memperbaiki kondisi berkendaraan diciptakanlah Sistem Jalan Raya Otomatis (S.TRO). Sistem ini menggabungkan komunikasi, kontrol kendaraan bermotor dan teknik manajemen lalu-lintas untuk memberikan keamanan, kecepatan dan efisiensi dalam berkendaraan.
Dalam skripsi ini diperkenalkan suatu teknik kecerdasan buatan yang dinamakan learning automata digunakan untuk mengendalikan jalur kendaraan secara cerdas. Dengan menggunakan informasi yang diperoleh dari sensor dan modul komunikasi lokal, dua automata (lateral dan longitudinal) mempelajari kemungkinan tindakan yang tepat untuk menghindari tabrakan. Simulasi bersama antara lateral dan longitudinal pengendali kendaraan otomatis menggunakan program Matiab 5.3 yang subrutinnya diperoleh dari Internet [Shift 97]. Meskipun pendekatan belajar yang digunakan mampu memberikan keputusan yang aman, optimisasi anus lalu-lintas juga diperlukan dengan mempelajari interaksi antar kendaraan.
Perancangan rencana jalur kendaraan yang adaptif berdasarkan informasi lokal diperluas dengan penambahan struktur keputusan. Struktur keputusan ini diperoleh dengan menganalisa situasi yang terdiri dari konflik keinginan jalur kendaraan. Analisa situasi dan perancangan struktur ini dibuat berdasarkan interaksi mekanisme reward-penalty pada individu kendaraan.

"
2000
S39812
UI - Skripsi Membership  Universitas Indonesia Library
cover
Joseph Dedy Irawan
"Sebuah perusahaan harus dapat menyediakan produk yang berkualitas dan pelayanan yang baik untuk konsumen. Agar dapat memproduksi produk yang berkualitas dan dapat memenuhi permintaan produksi dalam waktu yang tepat, maka perusahaan harus dapat mengembangkan proses produksinya, yaitu perusahaan diarahkan pada kemampuan menggunakan sumber daya seefisien mungkin tidak ada pemborosan, sehingga dapat memenuhi permintaan konsumen tepat pada waktunya dan dengan produk yang berkualitas.
Semakin pesat perkembangan teknologi internet dewasa ini, maka pada internet dapat dilakukan komunikasi interaktif antara user dan server, sehingga penggunaan web dapat berkembang menjadi Web Enabled Devices, yaitu suatu aplikasi yang dapat digunakan untuk mengkontrol dari jarak jauh hardware maupun software baik di dalam bahkan di luar komputer melalui internet.
Dengan menggunakan teknologi yang telah diuraikan diatas, maka dapat dirancang suatu sistem yang secara otomatis akan melayani pemesanan produk melalui internet, dimana proses penjualannya akan berjalan secara otomatis jika ada pemesanan produk oleh konsumen melalui intemet, sehingga perusahaan dapat melayani pemesanan produk dalam waktu yang cepat dan dalam jumlah yang tepat sesuai dengan keinginan konsumen, karena pelayanan penjualan dilaksanakan beberapa saat setelah dilakukan pemesanan, maka pesanan dapat lebih cepat diterima oleh konsumen.
Selain perangkat lunak yang ditanamkan pada web, diperlukan juga perangkat keras diluar komputer untuk mengatur peralatan-peralatan agar perusahaan dapat melayani penjualan secara otomatis. Pada tesis ini digunakan mikrokontroler AT89C51 yang akan dihubungkan ke peralatan-peralatan tersebut dan akan dihubungkan pula ke komputer melalui printer port. Perancangan sistem peralatan diatas akan menghasilkan suatu sistem Web Enabled Devices yang akan melaksanakan proses penjualan produk secara otomatis, sehingga pemesanan dan pelayanan penjualan produk akan menjadi semakin cepat dan mudah dengan bantuan internat."
Depok: Fakultas Teknik Universitas Indonesia, 2000
T3021
UI - Tesis Membership  Universitas Indonesia Library
cover
Andira Rozawati
"Pada skripsi ini telah dirancang penambahan algoritma menggunakan sistem Support Vector Machine atau SVM untuk meningkatkan akurasi sistem Simple-O yang berbasis LSA. Akurasi dari sistem Simple-O saat ini masing kurang mendekati nilai penilaian manusia. Simple-O merupakan suatu sistem penilaian ujian esai menggunakan algortima Latent Sematic Analysis yang dikembangkan oleh Departemen Teknik Elektro Universitas Indonesia. Untuk menjalankan algoritma SVM atau Support Vector Machine digunakan input yang berupa nilai slice ,pad, dan fnorm yang didapatkan dari hasil keluaran sistem Simple-O. SVM akan membagi klasifikasi nilai hasil keluaran Simple-O menjadi enam kelas dan menjadi dua kelas. SVM menghasilkan akurasi 45,8 untuk klasifikasi nilai tipe enam kelas dan 90,4 untuk klasifikasi tipe dua kelas.

In this thesis, an addition of new algorithm using Support Vector Machine has been designed to increanse the accuracy of Sistem Penilaian Esai Otomatis Simple O based on Lantent Sematic Analysis. The accuracy of Simple O is less accurate if compared to the value of human rater. Simple O it self is an application to grade an essay writing exam using Latent Sematic Analysis algorithm that has been developed in Departement of Electrical Engineering Universitas Indonesia. SVM or Suppor Vector Machine used the output of Simple O system, slice, pad and fnorm, as inputs. SVM will divide output data from Simple O system into six class and two class. The accuracy of SVM is 45,8 for six class classification and 90,4 for two class classification."
Depok: Fakultas Teknik Universitas Indonesia, 2017
S67433
UI - Skripsi Membership  Universitas Indonesia Library
cover
Henry Artajaya
"Metode spektral Laplacian Eigenmaps Embedding (LEM) dapat memelihara kemiripan dokumen dengan baik dibandingkan dengan metode reduksi dimensi lainnya. Hal ini terlihat dari unjuk kerja sistem berbasis GLSALEM yang lebih baik jika dibandingkan dengan sistem lainnya pada percobaan. Peningkatan unjuk kerja tidak hanya ditunjukkan dengan berkurangnya rata-rata selisih nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater tetapi juga jumlah percobaan dimana GLSA-LEM menghasilkan nilai yang paling mendekati dengan nilai yang dihasilkan oleh human rater. Kekurangan dari implementasi metode LEM adalah bahwa LEM hanya dapat diterapkan pada matriks jawaban referensi dan mahasiswa dengan dimensi yang lebih besar atau sama dengan enam. Oleh karena itu jawaban referensi dan jawaban mahasiswa yang terlalu pendek tidak akan dapat diproses oleh LEM. Hal ini dapat ditanggulangi dengan mengimplementasikan batas minimal kata jawab pada sistem berbasis GLSA-LEM sehingga semua jawaban dapat diproses oleh LEM. Pada percobaan ini didapatkan rata-rata selisih antara nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater pada sistem berbasis LSA adalah 44,49; pada sistem berbasis GLSA adalah 23,41; dan pada sistem berbasis GLSA-LEM adalah 11,67.
Hasil tersebut menunjukkan bahwa GLSA-LEM paling unggul karena menghasilkan rata-rata selisih yang paling kecil antara nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater. Hal ini didukung oleh jumlah percobaan dimana sistem berbasis GLSA-LEM bekerja paling baik yakni dari sejumlah 245 percobaan yang dapat diterapkan LEM didapatkan bahwa pada 82 percobaan sistem GLSA-LEM menghasilkan selisih nilai yang paling kecil dibandingkan dengan sistem GLSA yang unggul pada 40 percobaan dan sistem LSA yang unggul pada 10 percobaan saja. Dengan demikian hipotesis yang diajukan terbukti benar bahwa implementasi LEM pada sistem GLSA akan meningkatkan akurasi sistem. Selisih nilai yang lebih kecil menandakan sistem dapat menghasilkan nilai yang lebih mendekati nilai yang dihasilkan oleh human rater. Hal ini sesuai dengan tujuan dari sistem penilai esai otomatis yang diciptakan untuk menggantikan kerja human rater dimana nilai yang dihasilkan harus dapat mendekati nilai yang dihasilkan oleh human rater. Rata-rata waktu proses LSA adalah 0,164 detik, GLSA sebesar 0,521 detik, dan GLSA-LEM sebesar 4,982 detik.

Laplacian Eigenmaps Embedding preserve semantic proximity better than other dimension reduction methods. GLSA performance may be improved further by implementing LEM. Experiment conducted has shown that GLSA-LEM based system has outperform on this experiment. Performance improvement not only shown from average delta between the grades calculated using the system and the grades resulted from human rater but also the number of the tests that outperformed by GLSA-LEM. The disadvantage of LEM implementation is that LEM only can be applied to answer matrices with minimum dimension of six. Therefore answers that are too short may not be processed using LEM. This can be mitigated by implementing minimum threshold to the answers so it can't be submitted if less than required length. This experiment show that LSA average delta between grades resulted from the system and grades resulted from human rater is 44,49; GLSA?s average delta is 23,41 and GLSA-LEM?s average delta is 11,67.
These results show GLSA-LEM is the best because generate grades with the least average delta between the grades calculated using the system and the grades resulted from human rater. These results also supported by the number of essays from total of 245 essays that can be applied GLSA-LEM graded best with least delta by GLSA-LEM that is 82; compared to GLSA that is 40; and LSA that is 10. Therefore the hypotesis is proven to be correct that LEM implementation on GLSA based system improves system's accuracy. Least delta indicates system generate better grades that is closer to human rater. These results is in accordance with the purpose of automated essay grading system that created to replace human raters in which the grades resulted by the system should be close to the grade generated by human raters. LSA's average processing time is 0,164 seconds, GLSA's is 0,521 seconds, and GLSA-LEM?s is 4,982 seconds.
"
Depok: Fakultas Teknik Universitas Indonesia, 2013
T35051
UI - Tesis Membership  Universitas Indonesia Library
cover
Naiza Astri Wulandari
"Sistem Penilaian Esai Otomatis (Simple-O) telah dibuat menggunakan algoritma K-Means dan metode Latent Semantic Analysis (LSA). Jawaban karangan siswa pertama-tama akan diklasifikasikan ke dalam kelas-kelas sesuai dengan topik masing-masing nomor, dan akan memisahkannya dari jawaban siswa yang tidak sesuai konteks kemudian akan dilakukan proses LSA yang merepresentasikan kata ke dalam matriks, yang kemudian matriks direduksi menggunakan Singular Value Decomposition dan dilanjutkan dengan mencari norma frobenius yang merupakan nilai dari setiap soal. Pada penelitian ini dilakukan uji coba dengan menggunakan 4 skenario dan hasil penelitian SIMPLE-O menggunakan algoritma K-Means dan LSA menghasilkan akurasi rata-rata sebesar 74% yaitu hasil skenario pengujian 1

An Automatic Essay Assessment System (Simple-O) has been created using the K-Means algorithm and the Latent Semantic Analysis (LSA) method. Students' essay answers will first be classified into classes according to the topic of each number, and will separate them from student answers that do not fit the context then an LSA process will be carried out which represents the word into a matrix, which is then reduced by using Singular Value. Decomposition and continue by looking for the Frobenius norm which is the value of each question. In this study, trials were carried out using 4 scenarios and the results of the SIMPLE-O research using the K-Means and LSA algorithms produced an average accuracy of 74%, namely the results of the test scenario number 1."
Depok: FAkultas Teknik Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>