Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 159326 dokumen yang sesuai dengan query
cover
Pinem, Josua Geovani
"Keamanan data (data security) sudah menjadi bagian vital didalam suatu organisasi yang menggunakan konsep sistem informasi. Semakin hari ancaman-ancaman yang datang dari Internet menjadi semakin berkembang hingga dapat mengelabuhi firewall maupun perangkat antivirus. Selain itu jumlah serangan yang masuk menjadi lebih besar dan semakin sulit untuk diolah oleh firewall maupun antivirus. Untuk dapat meningkatkan keamanan dari suatu sistem biasanya dilakukan penambahan Intrusion Detection Sistem IDS , baik sistem dengan kemampuan anomaly-based maupun sistem pendeteksi dengan kemampuan signature-based. Untuk dapat mengolah serangan yang jumlahnya besar maka digunakan teknik Big Data. Penelitian yang dilakukan ini menggunakan teknik anomaly-based dengan menggunakan Learning Vector Quantization dalam pendeteksian serangan.
Learning Vector Quantization adalah salah satu jenis neural network yang bisa mempelajari sendiri masukan yang masuk kemudian memberi keluaran sesuai dengan masukan tersebut. Beberapa modifikasi dilakukan untuk meningkatkan akurasi pengujian, antara lain dengan melakukan variasi parameter-parameter uji yang ada pada LVQ. Dengan melakukan variasi pada parameter uji learning rate, epoch dan k-fold cross validation dihasilkan keluaran dengan hasil yang lebih efisien.
Keluaran diperoleh dengan menghitung nilai information retrieval dari tabel confusion matrix tiap- tiap kelas serangan. Untuk meningkatkan kinerja sistem maka digunakan teknik Principal Component Analysis untuk mereduksi ukuran data. Dengan menggunakan 18-Principal Component data berhasil direduksi sebesar 47.3 dengan nilai Recognition Rate terbaik sebesar 96.52 dan efesiensi waktu lebih besar 43.16 daripada tanpa menggunakan PCA.

Data security has become a very serious part of any organizational information system. More and more threats across the Internet has evolved and capable to deceive firewall as well as antivirus software. In addition, the number of attacks become larger and become more dificult to be processed by the firewall or antivirus software. To improve the security of the system is usually done by adding Intrusion Detection System IDS , which divided into anomaly based detection and signature based detection. In this research to process a huge amount of data, Big Data technique is used. Anomaly based detection is proposed using Learning Vector Quantization Algorithm to detect the attacks.
Learning Vector Quantization is a neural network technique that learn the input itself and then give the appropriate output according to the input. Modifications were made to improve test accuracy by varying the test parameters that present in LVQ. Varying the learning rate, epoch and k fold cross validation resulted in a more efficient output.
The output is obtained by calculating the value of information retrieval from the confusion matrix table from each attack classes. Principal Component Analysis technique is used along with Learning Vector Quantization to improve system performance by reducing the data dimensionality. By using 18 Principal Component, dataset successfully reduced by 47.3 , with the best Recognition Rate of 96.52 and time efficiency improvement up to 43.16.
"
Depok: Fakultas Teknik Universitas Indonesia, 2017
S67412
UI - Skripsi Membership  Universitas Indonesia Library
cover
Budi Selamet Raharjo
"Sistem Penilaian Otomatis SIMPLE-O selama ini dikembangkan dengan pemrograman PHP di Departemen Teknik Elektro Fakultas Teknik Universitas Indonesia. Namun akurasi SIMPLE-O saat ini belum cukup tinggi untuk dapat digunakan secara praktis. SIMPLE-O kemudian dilanjutkan pengembangannya menggunakan pemrograman Bahasa C, tidak hanya untuk mencoba meningkatkan akurasi SIMPLE-O, tapi juga untuk memperluas penggunaannya. Untuk dapat meningkatkan akurasi penilaian SIMPLE-O diintegrasikan learning vector quantization LVQ pada pengembangannya. Skripsi ini membahas bagaimana pengembangan SIMPLE-O dengan LVQ menggunakan pemrograman Bahasa C.Seberapa banyak bagian data sampel yang digunakan pada saat training mempengaruhi performa penilaian. Semakin sedikit data yang digunakan pada fase training, maka akan terjadi penurunan akurasi pada fase evaluasi. Akurasi penilaian juga dipengaruhi proses ekstraksi ciri-ciri teks yang dilakukan menggunakan latent semantic analysis LSA dan singular value decomposition SVD . Akurasi penilaian dapat berubah ketika singular value yang dihasilkan, di proses terlebih dulu dengan frobenius norm dan vector angle. Faktor lainnya seperti jumlah kata-per-kolom matriks LSA tidak begitu mempengaruhi akurasi penilaian. Pada akhir percobaan, akurasi SIMPLE-O dengan LVQ secara rata-rata adalah 52.27 . Dengan menambahkan LVQ, akurasi SIMPLE-O mengalami peningkatan sebesar 41.67.

Sistem Penilaian Otomatis SIMPLE O was developed using PHP at Departemen Teknik Elektro Fakultas Teknik Universitas Indonesia. But the resulting accuracy of the SIMPLE O was not reliable enough to be used practically. Right now, SIMPLE O was being developed using C Programming Language. This was done to increase its reliability and to further widen its applications. To increase the accuracy of SIMPLE O, learning vector quantization LVQ was integrated as part of the new program. This Paper was written to address the development of SIMPLE O with LVQ.With less data used in LVQ training phase there will a decrease in the resulting accuracy of the validation phase. The accuracy was also affected by the method of how well the extraction of the text characteristic using latent semantic analysis LSA and singular value decomposition SVD . Additional process of the resulting singular value will result in change of accuracy. The number of words per column when creating the LSA matrix did not have any significant effect. At the end, SIMPLE O with LVQ has an average accuracy of 52.27. Implementation of LVQ give an increase of 41.67 of the accuracy."
Depok: Fakultas Teknik Universitas Indonesia, 2017
S68766
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ihsan Ibrahim
"Di Indonesia yang mayoritas karya tulis di dunia akademiknya masih menggunakan bahasa Indonesia dan referensi yang digunakan mayoritas berbahasa Inggris, memudahkan terjadinya tindak plagiarisme daripada penggunaan bahasa yang sama. Departemen Teknik Elektro telah mengembangkan sistem pendeteksi plagiarisme dwibahasa berbasis Latent Semantic Analysis LSA . Lamanya eksekusi, membuat paralelisme menjadi solusi untuk mengurangi waktu eksekusi dari sistem. Pada penelitian ini dilakukan pengembangan dengan pemrosesan paralel terhadap sistem dengan menggunakan OpenMP. Proses yang diparalelkan adalah, yaitu Singular Value Decomposition SVD, operasi-operasi matriks, dan proses Learning Vector Quantization LVQ dengan melakukan pada pendekatan loop-loop-nya.
Pada pengujian yang dilakukan, akurasi dari proses paralel memiliki konsistensi yang baik karena hasil yang sama dengan proses serial dan didapatkan peningkatan kecepatan eksekusi sistem sebesar 4-7,9 . Dengan fenomena pemrosesan paralel dengan menggunakan 1 thread memiliki waktu eksekusi yang lebih lambat daripada proses serial. Sedangkan saat menggunakan 2 thread dan 4 thread, didapatkan hasil yang lebih cepat daripada proses serial meskipun penggunaan 4 thread hanya berbeda sedikit atau cenderung sama dengan 2 thread. Hal ini disebabkan adanya overhead OpenMP yang terjadi saat pemrosesan paralel berjalan sebesar 20 , dan overhead MySQL yang membuat proses menjadi sangat lama karena besarnya yang mencapai 70 saat proses serial dan 50 pada proses paralel.

Majority of academic environment in Indonesia is still using Indonesian language and its references are in English. This condition led to ease the plagiarism acts when compared to same language environment. Due to this problem, Department of Electrical Engineering has developed bilingual plagiarism detection system based on Latent Semantic Analysis LSA . Parallelism becomes a solution to duration of execution problem. Development of parallel processing on the system with using OpenMP was conducted in this research. The parallelized processes were Singular Value Decomposition SVD , matrices operations, and Learning Vector Quantization LVQ with approach on loops.
In the testing process, accuracy of the parallel process had the same accuracy with the serial process. It is mean that the parallel process has good consistency. Then, the result of execution time has 4 7.9 of improvement compared to the serial one. There was a phenomenon that 1 thread of parallel process had worse performance than the serial process. Furthermore, use of 2 threads and 4 threads in the parallel process had a better execution time, even 4 threads is only slightly better or tend to be the same with 2 threads. These happened due to overhead presences. OpenMP overhead appeared at 20 when parallel executed and MySQL had more with 70 of system computation process in serial and 50 when executed in parallel.
"
Depok: Fakultas Teknik Universitas Indonesia, 2018
T50881
UI - Tesis Membership  Universitas Indonesia Library
cover
Mumfaridatul Jannah
"Stunting adalah kondisi dimana balita memiliki panjang atau tinggi badan yang kurang jika dibandingkan dengan anak seusianya. Balita stunting termasuk ke dalam masalah gizi kronik yang disebabkan oleh banyak faktor seperti kondisi sosial ekonomi, gizi ibu saat hamil, riwayat penyakit pada bayi, dan kurangnya asupan gizi pada bayi. Balita stunting di masa yang akan datang akan mengalami kesulitan dalam mencapai perkembangan fisik dan kognitif yang optimal. Penelitian ini bertujuan untuk menganalisis variabel atau faktor dominan yang mempengaruhi kejadian stunting di Indonesia. Penelitian ini menggunakan data sekunder dari Indonesia Family Life Survey (IFLS) tahun 2014-2015, yang dilakukan di 13 provinsi di Indonesia. Pengumpulan data disaring berdasarkan variabel yang diujikan menggunakan perangkat lunak analisis statistika (Stata). Data output yang dihasilkan kemudian diolah dengan menggunakan algoritma Principal Component Analysis untuk mengekstraksi faktor dominan yang akan dianalisa. Hasil penelitian menunjukkan bahwa faktor yang paling dominan pada kejadian stunting adalah faktor tinggi badan, pendidikan ayah, dan pengeluaran asupan protein.

Stunting is a medical term that refers to an abnormal condition of the baby's body. In term of height and weight of the body, stunting babies tend to have the smaller one instead of normal. In Indonesia, this issue is categorized as a cronical issue that is caused by many factors such as social-economic condition, the health condition especially nutrition intake of pregnant women, the baby's history of disease and the less of nutrition intake of baby. In the future, stunting baby will be difficult in getting the optimal growth physically and cognitively. This study aims
to analyze the dominant factors or variables that cause the occurance of stunting in Indonesia. It will use secondary data from Indonesia Family Life Survey (IFLS) 2014-2015 that is conducted in 13 provinces in Indonesia. The data was preprocessed by filtering based on some tested variables using statistics analysis software (Stata). Output data were processed by using Principal Component Analysis algorithm to extract dominant factors which will be analyzed. The result of study shows that the most dominant factors that caused stunting occurance are height of the body, education level of baby's father and cost for protein intake.
"
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hafizh Haidar
"ABSTRAK

Sistem pendeteksi kardiomegali dilakukan dengan memeriksa hasil citra radiografi toraks manusia. Pada bagian ekstraksi fitur, citra diproses menggunakan metode Discrete cosine transform. Pada sistem ini, digunakan DCT sebanyak 5 level. Hasil dari proses DCT akan digunakan sebagai input untuk proses selanjutnya, yaitu Learning vector quantization. Bagian klasifikasi menggunakan LVQ terdiri dari dua bagian, yaitu bagian pelatihan dan bagian pengenalan. Bagian pelatihan merupakan bagian dimana sistem dilatih untuk mendapatkan bobot akhir. Bagian pengenalan merupakan bagian yang sistem gunakan untuk mengenali ada atau tidaknya kardiomegali dengan hasil pembelajaran dari bagian pelatihan. Sistem menunjukkan hasil akurasi pengujian yang cukup tinggi, yaitu 97,78% dimana dari 45 citra uji, 44 citra dapat diklasifikasikan dengan baik.


ABSTRACT

The detection system of cardiomegaly is conducted by processing human CXR, or chest X-Ray. In feature extraction, X-Ray images are processed using Discrete Cosine Transfom method. In this system, 5-Level DCT is applied. The result of feature extraction is used as input for the next method, which is Learning vector quantization. LVQ consists of two parts, which are the training part and the testing part. The training part is when the system is trained to obtain final weight. The testing part is where system recognizes and decides whether the CXR shows the indication of cardiomegaly based on the knowledge it obtained from the training part. The system shows high testing accuracy, which is 97,78% where 44 out of 45 X-Ray images have been well-diagnosed.

"
Fakultas Teknik Universitas Indonesia, 2015
S59878
UI - Skripsi Membership  Universitas Indonesia Library
cover
Talitha Ulima Sofiana
"Sebuah penelitian terdahulu menyebutkan bahwa internet banking memberikan dampak negatif terhadap kinerja bank di Indonesia. Penelitian ini merupakan tindakan lanjut untuk mengetahui pengaruh internet banking terhadap kinerja setiap bank penyedia layanan tersebut pada tahun 2013. Metode DEA digunakan untuk menghitung efisiensi yang menjadi indikator kinerja bank. Model DEA yang digunakan ialah model variable return to scale berorientasi input. Metode PCA digunakan untuk membuat component loading yang dapat memetakan kinerja setiap bank beserta pengaruh internet banking-nya. Hasil penelitian ini berupa pemetaan yang diharapkan dapat menjadi salah satu referensi bagi bank agar dapat menentukan keputusan dan strategi terkait dengan layanan internet banking-nya.

A previous study said that internet banking gave negative impact on Indonesian bank performance. This is a follow-up study to determine the impact of internet banking toward each bank performance in 2013. DEA is used to calculate efficiency which is used as indicator of bank performance. The DEA model used is variable returns to scale - input oriented model. PCA is used to generate component loading for depicting performance of each bank along with its internet banking impact. The result of this research is a mapping which is expected could be a reference for banks in order to determine the decisions and strategies related to its internet banking service."
Depok: Fakultas Teknik Universitas Indonesia, 2014
S56057
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mohammad Hakim Mustaqim
"ABSTRAK

Kanker Payudara (KPD) merupakan salah satu penyakit penyebab kematian terbesar. Indonesia merupakan negara dengan jumlah KPD cukup besar. KPD ini merupakan benjolan. Benjolan ini dapat diperiksa menggunakan cara manual yaitu diraba bagian dekat dengan putting susu. Jika benjolan tidak kunjung mengecil dianjurkan untuk memeriksa ke dokter. Pendektesian KPD ini dapat dilakukan dengan menggunakan proses pencitraan. Data yang digunakan pada penelitian ini diambil dari website Pilot European Image Processing Archive (PEIPA) yaitu dataset Mammographic Image Analysis Society (MIAS). Pendektesian dilakukan dengan menganalisa gambar payudara (mammography) pasien dengan menggunakan metode Principal Component Analysis (PCA) mengubah gambar dalam bentuk matriks. Matriks ini akan digunakan sebagai data yang akan digunakan dalam Neural Network (jaringan saraf tiruan) dengan metode Backpropagation Neural Network (BNN). Dari hasil Percobaan dapat diketahui bahwa metode ini menghasilkan nilai akurasi pembelajaran dari deep learning supervised sebesar 98%.


ABSTRACT
Breast Cancer is one of the biggest causes of death. Indonesia is a country with a large number of KPDs. This KPD is a lump. This lump can be examined using a manual method that is palpated near the nipple. If the lump does not go away it is recommended to see a doctor. This breast cancer assessment can be done using the imaging process. . The data used in this study was taken from the website of the Pilot European Image Processing Archive (PEIPA) namely the Mammographic Image Analysis Society (MIAS) dataset. The assessment is done by analyzing the breast image (mammography) of the patient using the Principal Component Analysis (PCA) method to change the image in the form of a matrix. This matrix will be used as data to be used in Neural Networks with the Backpropagation Neural Network (BNN) method. From the results of the Experiment it can be seen that this method produces the value of accuracy of learning from supervised deep learning about 98%.

"
2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Paskalis Nandana Yestha Nabhastala
"Penelitian yang dilakukan berupa pengembangan terhadap sistem pendeteksi plagiarisme otomatis sehingga dapat menerapkan jaringan saraf tiruan Self-Organizing Map SOM untuk melakukan klasifikasi terhadap hasil keluaran Latent Semantic Analysis. SOM dipilih untuk melakukan klasifikasi karena algoritma ini tidap perlu melakukan supervisi pada proses pembelajarannya sehingga dapat secara otomatis menentukan tingkat plagiarisme antar paragraf yang tidak mudah ditentukan secara langsung oleh manusia. Selain itu dilakukan perbandingan akurasi penentuan tingkat plagiarisme yang dimiliki oleh sistem apabila hanya menggunakan LSA saja, penggunaan LSA dengan SOM, dan penggunaan LSA dengan Learning Vector Quantization LVQ.
Penggunaan SOM dan LVQ dilakukan untuk melakukan klasifikasi tingkat plagiarisme dari hasil keluaran LSA. Penentuan tingkat plagiarisme sudah cukup dilakukan apabila hanya menggunakan LSA saja, dimana sudah dapat menghasilkan tingkat akurasi paling tinggi yaitu 86,24. Namun, penggunaan SOM dengan jumlah kelas sebanyak 2 dengan 3 parameter memberikan rata-rata tingkat akurasi yang sedikit lebih rendah, yaitu sebesar 82,00. Sedangkan penggunaan LVQ dengan jumlah kelas sebanyak 2 dengan 3 parameter juga memberikan rata-rata tingkat akurasi yang sedikit lebih tinggi dibandingkan, yaitu sebesar 82,10.

This research has concern on deployment of neural network algorithm Self Organizing Map SOM in automatic plagiarism detector so it could be used to classify the output from Latent Semantic Analysis. SOM is chosen because it is an unsupervised neural network algorithm. With unsupervised neural network, it could determine the plagiarism level between paragraf automatically, which hard for human to determine it. Other than deployment of SOM, this research also focusses on the comparison of accuracy of the system if the system only deploys pure LSA, combination of LSA and SOM, and combination of LSA and Learning Vector Quantization LVQ.
SOM and LVQ are used to do classification for the output from LSA. Plagiarism level could be determined by the result of LSA only. It has 86,24 as the highest accuracy level. But, the usage of SOM with 2 classes and 3 parameters gives lower average of accuracy, which is 82,00 . Therefore, usage of LVQ with 2 classes and 3 parameters gives slight better accuracy than SOM, which is 82,10.
"
Depok: Fakultas Teknik Universitas Indonesia, 2018
Spdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Evan Benedict Zaluchu
"ABSTRAK
Big Data adalah salah satu fenomena yang sudah tidak jarang terjadi di berbagai aspek-aspek kehidupan, baik di bidang industri, keuangan, sosial, dan sebagainya. Dari segi sosial, penggunaan media sosial seperti Twitter merupakan salah satu aplikasi nyata dari teknologi Big Data. Melalui opini-opini yang disampaikan pada Twitter, kita dapat mengetahui hal-hal apa saja yang menjadi topik terkini. Dengan besarnya jumlah tweet yang dipublikasikan tiap hari, atau tiap jam, membuat analisis terhadap Twitter ini hampir mustahil dilakukan tanpa menggunakan teknologi komputasi. Environment seperti Hadoop, Flume, dan Hive merupakan salah satu teknologi dapat digunakan untuk menganalisis jumlah data yang besar, yang mengalir di dalam Twitter.

ABSTRACT
Big Data is one of the global phenomenon that has become broad thing in the various aspects of the daily life, such as in industry sector, finance sector, social sector, etc. From the social aspect, the usage of the social media such as Twitter is one of the real application of the Big Data technology. Through the opinions that expressed on Twitter, we can find out about the things that become the current trending topic. With the numbers of the tweets that published every day, or every hour, making it impossible to do the Twitter analyzing without the use of the computational technology. The environment such as Hadoop, Flume, dan Hive is one of the technologies that can be use to analyze the enormous size of data, that flows around Twitter. "
2017
S67967
UI - Skripsi Membership  Universitas Indonesia Library
cover
Togatorop, Vincent Andreas Constantein
"Luasnya dampak negatif gangguan depresi terhadap kehidupan seseorang membawa urgensi akan pentingnya metode diagnosis yang akurat dan objektif agar bisa menerapkan langkah pengobatan yang cepat pada pasien yang depresi. Metode diagnosis gangguan depresi yang berbasis kuesioner atau wawancara berpotensi subyektif, karena pasien bisa saja tidak menceritakan dengan detail kondisi yang dialaminya. EEG dapat menjadi sarana alternatif untuk mencapai diagnosis yang akurat dan objektif tersebut. Sinyal EEG mengandung banyak fitur yang dapat diekstrak dengan mudah, contohnya Relative Power Ratio (RPR). Penelitian ini mengekstrak fitur RPR dari sinyal EEG dengan menggunakan dua metode, yaitu STFT (Short-Time Fourier Transform) dan PSD (Power Spectral Density) dari 14 elektroda EEG yang tersedia. Fitur RPR yang diekstrak akan direduksi menggunakan algoritma PCA (Principal Component Analysis) ke dalam dimensi yang lebih rendah dengan tetap mempertahankan variansi (informasi) fitur sebesar 90%. Model ANN (Artificial Neural Network) dengan jenis FNN (Feedforward Neural Network) digunakan untuk klasifikasi pasien yang sehat dengan yang depresi. Dampak dari algoritma PCA akan dilihat pada performa model FNN dan lama waktu pelatihan yang dibutuhkan model FNN. Performa model yang akan diukur adalah akurasi, sensitivitas dan spesifisitas. Performa model akan divalidasi menggunakan 10-Fold Validation yang dijalankan sebanyak 10 iterasi. PCA berhasil mereduksi dimensi fitur RPR sebesar 57.1% dengan metode PSD dan 57.1% dengan metode STFT. Akurasi tertinggi yang didapatkan model FNN adalah 69.5% ketika menerapkan algoritma PCA pada RPR metode PSD, dan 68% ketika menerapkan algoritma PCA pada fitur RPR metode STFT. Penerapan PCA pada fitur RPR menurunkan waktu pelatihan model sebesar 6.33% dengan metode PSD dan sebesar 42.56% dengan metode STFT. Performa model FNN lebih baik setelah penerapan PCA dibandingkan dengan menggunakan fitur RPR langsung ke dalam model FNN. Hal ini menunjukkan bahwa PCA memiliki potensi untuk menurunkan waktu pelatihan model FNN dengan tetap mempertahankan performa model FNN.

The extent of the negative impact of depressive disorder on a person’s life raises the urgency of the importance of an accurate and objective diagnostic method to quickly apply treatment steps for depressive patients. Diagnostic method that based on questionnaire and interview has the potential to be subjective, because the patient might be not fully explain his condition. EEG or Electroencephalography could be an alternative way to achieve the accurate and objective diagnostic. EEG signal has many features that can be extracted easily, for example the Relative Power Ratio. This research extracted RPR features from EEG signal by implementing two methods, STFT (Short-Time Fourier Transform) and PSD (Power Spectral Density) from 14 available EEG electrodes. The extracted RPR features will be reduced by using PCA algorithm to a lower dimension while still retaining 90% variance (information) from the features. ANN (Artificial Neural Network) with the type of FNN (Feedforward Neural Network) will be used to classify healthy patients with depressed patients. The effect of PCA algorithm will be seen on the FNN model’s performances and on the training duration of the FNN model. Model’s performances that will be measured are accuracy, sensitivity, and specificity. Model’s performances will be validated by using 10-Fold Validation which will be executed for 10 iterations. PCA managed to reduce 57.1% RPR features’ dimensions by using PSD method and 57.1% by using STFT method. The highest accuracy achieved by FNN model is 69.5% when implementing PCA algorithm to the RPR features from the PSD method, and 68% when implementing PCA algorithm to the RPR features from STFT method. The implementation of PCA to the RPR features managed to reduce 6.33% training duration of FNN model for the PSD method and 42.56% for the STFT method. Better FNN model’s performances are shown after the implementation of PCA algorithm compared to when using the RPR features directly to the FNN model. This shows that PCA has a potential of reducing the training duration of the FNN model while still retaining FNN model’s performances."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia;Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia;Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia;Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia;Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>