:: UI - Skripsi Membership :: Kembali

UI - Skripsi Membership :: Kembali

Optimasi Model Convolutional Long Short-Term Memory Deep Neural Network (CLDNN) Ringan dengan Pruning untuk Klasifikasi Modulasi Otomatis = Optimization of a Light Convolutional Long Short-Term Memory Deep Neural Network (CLDNN) Model with Pruning for Automatic Modulation Classification

Muhammad Hafizh; Ajib Setyo Arifin, supervisor; Muhammad Suryanegara, examiner; Muhamad Asvial, examiner (Fakultas Teknik Universitas Indonesia, 2023)

 Abstrak

AMC, Automatic Modulation Classification, adalah suatu teknologi yang dapat mengklasifikasi jenis modulasi pada suatu sinyal. Dalam perkembangan AMC model Deep Learning yang digunakan biasanya mengejar akurasi dari model tanpa memperhatikan ukuran dari model itu sendiri. Pada penelitian ini, dirancang sebuah model Convolutional Long short-term memory Deep Neural Network (CLDNN) yang ringan dengan metode optimasi model tambahan yang dinamakan Pruning. Pruning sendiri adalah metode optimasi model yang dapat memutus hubungan antar neuron dalam suatu Neural Network guna memperkecil ukuran model dan mempercepat waktu komputasi dengan tetap menjaga akurasi dari model tersebut. Penelitian ini mampu membuktikan bahwa metode optimasi pruning dapat mengurangi ukuran model CLDNN-Y3 hingga 76,92% pada sparsity 0,95. Akurasi model CLDNN-Y3 yang telah dioptimasi sebesar 64,07% pada sparsity 0,5, 64,04% pada sparsity 0,8, 63,74% pada sparsity 0,9, dan 62,86% pada sparsity 0,95.

AMC, Automatic Modulation Classification, is a technology that can classify the type of modulation on a signal. In the development of AMC, Automatic Modulation Classification, Deep Learning models used usually pursue the accuracy of the model regardless of the size of the model itself. In this study, a lightweight Convolutional Long short-term memory Deep Neural Network (CLDNN) model was designed with an additional model optimization method called Pruning. Pruning itself is a model optimization method that can remove connections between neurons in a Neural Network to reduce the size of the model and speed up computational time while maintaining the accuracy of the model. This research has proven that the pruning optimization method is capable of reducing the size of the CLDNN-Y3 model by up to 76.92% at a sparsity level of 0.95. The optimized CLDNN-Y3 model achieves an accuracy of 64.07% at a sparsity of 0.5, 64.04% at a sparsity of 0.8, 63.74% at a sparsity of 0.9, and 62.86% at a sparsity of 0.95.

 File Digital: 1

Shelf
 S-Muhammad Hafizh.pdf :: Unduh

LOGIN required

 Metadata

No. Panggil : S-pdf
Entri utama-Nama orang :
Entri tambahan-Nama orang :
Entri tambahan-Nama badan :
Subjek :
Penerbitan : Depok: Fakultas Teknik Universitas Indonesia, 2023
Program Studi :
Bahasa : ind
Sumber Pengatalogan : LibUI ind rda
Tipe Konten : text
Tipe Media : computer
Tipe Carrier : online resource
Deskripsi Fisik : xiii, 54 pages : illustration
Naskah Ringkas :
Lembaga Pemilik : Universitas Indonesia
Lokasi : Perpustakaan UI
  • Ketersediaan
  • Ulasan
No. Panggil No. Barkod Ketersediaan
S-pdf 14-24-41292338 TERSEDIA
Ulasan:
Tidak ada ulasan pada koleksi ini: 9999920525671