Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 4 dokumen yang sesuai dengan query
cover
Muhammad Hafizh
"AMC, Automatic Modulation Classification, adalah suatu teknologi yang dapat mengklasifikasi jenis modulasi pada suatu sinyal. Dalam perkembangan AMC model Deep Learning yang digunakan biasanya mengejar akurasi dari model tanpa memperhatikan ukuran dari model itu sendiri. Pada penelitian ini, dirancang sebuah model Convolutional Long short-term memory Deep Neural Network (CLDNN) yang ringan dengan metode optimasi model tambahan yang dinamakan Pruning. Pruning sendiri adalah metode optimasi model yang dapat memutus hubungan antar neuron dalam suatu Neural Network guna memperkecil ukuran model dan mempercepat waktu komputasi dengan tetap menjaga akurasi dari model tersebut. Penelitian ini mampu membuktikan bahwa metode optimasi pruning dapat mengurangi ukuran model CLDNN-Y3 hingga 76,92% pada sparsity 0,95. Akurasi model CLDNN-Y3 yang telah dioptimasi sebesar 64,07% pada sparsity 0,5, 64,04% pada sparsity 0,8, 63,74% pada sparsity 0,9, dan 62,86% pada sparsity 0,95.

AMC, Automatic Modulation Classification, is a technology that can classify the type of modulation on a signal. In the development of AMC, Automatic Modulation Classification, Deep Learning models used usually pursue the accuracy of the model regardless of the size of the model itself. In this study, a lightweight Convolutional Long short-term memory Deep Neural Network (CLDNN) model was designed with an additional model optimization method called Pruning. Pruning itself is a model optimization method that can remove connections between neurons in a Neural Network to reduce the size of the model and speed up computational time while maintaining the accuracy of the model. This research has proven that the pruning optimization method is capable of reducing the size of the CLDNN-Y3 model by up to 76.92% at a sparsity level of 0.95. The optimized CLDNN-Y3 model achieves an accuracy of 64.07% at a sparsity of 0.5, 64.04% at a sparsity of 0.8, 63.74% at a sparsity of 0.9, and 62.86% at a sparsity of 0.95."
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
"The paper discussed about the neural network models at nonlinear autoregressive process which is applied in the composite stock price index data at Surabaya stock exchange. ...."
Artikel Jurnal  Universitas Indonesia Library
cover
Devina Christianti
"Klasifikasi adalah proses menugaskan satu set data ke dalam kelas yang ada berdasarkan nilai setiap atribut. Pengklasifikasi pohon keputusan diklaim lebih cepat dan berproduksi akurasi yang lebih baik. Namun, ia memiliki beberapa kelemahan di mana pengklasifikasi rentan untuk overfitting. Overfitting adalah suatu kondisi di mana model tidak mampu menarik kesimpulan data baru dengan cara yang benar. Overfitting di pohon keputusan dapat dihindari dengan memotong subtree pengaruh kecil dalam melakukan klasifikasi ketika pohon ditanam, disebut post-pruning, yang bertujuan untuk meningkatkan kinerja model dalam memprediksi data.
Tesis ini mengusulkan metode pasca pemangkasan dengan menerapkan Risiko Bayes, di mana estimasi risiko setiap simpul induk dibandingkan dengan simpul daunnya. Sebagai perbandingan, pemangkasan pasca lainnya Metode yang diterapkan, yaitu Reduced Error Pruning (REP). Kedua metode tersebut diterapkan untuk tiga dataset klasifikasi churn pelanggan dari situs Kaggle dan IBM Datasets. Untuk hasilnya, Bayes Risk Post-Pruning dapat meningkatkan kinerja Decision Tree lebih baik dari Reduced Error Pruning dengan meningkatkan nilai akurasi, presisi, dan daya ingat. Kedua metode juga diterapkan pada tiga proporsi berbeda untuk data pelatihan (60%, 70% dan 80%). Hasilnya menunjukkan bahwa semakin besar ukuran dataset pelatihan dikaitkan akurasi, presisi, dan daya ingat model yang lebih tinggi.

Classification is the process of assigning a set of data to an existing class based on the value of each attribute. Decision tree classifiers are claimed to be faster and produce better accuracy. However, it has several disadvantages where the classifier is prone to overfitting. Overfitting is a condition in which the model is unable to draw new data conclusions in the right way. Overfitting in the decision tree can be avoided by cutting the subtree of small influence in classifying when the tree is planted, called post-pruning, which aims to improve the performance of the model in predicting data.
This thesis propose a post-pruning method by applying Bayes Risk, where the estimated risk of each parent node is compared to the leaf node. As a comparison, other post pruning methods are applied, namely Reduced Error Pruning (REP). Both methods are applied for three customer churn classification datasets from the Kaggle site and IBM Datasets. For the results, Bayes Risk Post-Pruning can improve Decision Tree performance better than Reduced Error Pruning by increasing the value of accuracy, precision, and memory. Both methods are also applied to three different proportions for training data (60%, 70% and 80%). The results show that the greater the size of the training dataset is associated with higher model accuracy, precision, and recall.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Azzam Muhammadi Rizqun Karima
"Penelitian ini mengeksplorasi optimasi model pembelajaran mesin untuk implementasi pada perangkat edge, dengan studi kasus Human Activity Recognition (HAR). Fokus utama adalah teknik optimasi model untuk meningkatkan efisiensi komputasi dan penggunaan sumber daya pada perangkat dengan keterbatasan, khususnya ESP32 dan ESP32-S3.Lima arsitektur model diuji sebagai basis evaluasi: Shallow Network, Deep Network, Gated Recurrent Unit (GRU), 1D Convolutional Neural Network (1DCNN), dan Long Short-Term Memory-Convolutional Neural Network (LSTM-CNN). Penelitian menerapkan kombinasi teknik pruning dan kuantisasi untuk mengoptimalkan model-model tersebut.Hasil menunjukkan bahwa teknik optimasi dapat mengurangi ukuran model hingga 90,43% dengan penurunan akurasi minimal. Evaluasi pada ESP32 dan ESP32-S3 mengungkapkan peningkatan kinerja yang signifikan setelah optimasi, dengan peningkatan throughput mencapai 592,09% pada ESP32-S3 yang dilengkapi fitur SIMD. Analisis menggunakan Analytical Hierarchy Process (AHP) mengidentifikasi model 1DCNN teroptimasi sebagai solusi paling seimbang, dengan ukuran 0,18 MB, latency 17,06 ms, dan akurasi 89,56%. Penelitian ini memberikan kerangka kerja sistematis untuk optimasi model pembelajaran mesin pada perangkat edge, serta pemahaman mendalam tentang trade-off antara efisiensi komputasi dan akurasi model.

This research explores machine learning model optimization for edge device implementation, using Human Activity Recognition (HAR) as a case study. The primary focus is on model optimization techniques to enhance computational efficiency and resource utilization on constrained devices, specifically ESP32 and ESP32-S3.Five model architectures were tested as evaluation bases: Shallow Network, Deep Network, Gated Recurrent Unit (GRU), 1D Convolutional Neural Network (1DCNN), and Long Short-Term Memory-Convolutional Neural Network (LSTM-CNN). The research applies a combination of pruning and quantization techniques to optimize these models.Results show that optimization techniques can reduce model size by up to 90.43% with minimal accuracy loss. Evaluation on ESP32 and ESP32-S3 reveals significant performance improvements after optimization, with throughput increases reaching 592.09% on the SIMD-equipped ESP32-S3. Analysis using the Analytical Hierarchy Process (AHP) identifies the optimized 1DCNN model as the most balanced solution, with a size of 0.18 MB, latency of 17.06 ms, and accuracy of 89.56%. This research provides a systematic framework for machine learning model optimization on edge devices, as well as deep insights into the trade-offs between computational efficiency and model accuracy."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library