Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 12 dokumen yang sesuai dengan query
cover
Nina Sevani
"Transfer learning merupakan pengembangan dari pembelajaran mesin biasa (tradisional) yang dapat diterapkan pada cross-domain. Cross-domain adalah domain yang memiliki perbedaan pada feature space atau pada marginal dan conditional distribution, sehingga sulit ditangani dengan metode pembelajaran mesin biasa. Perbedaan ini banyak terjadi pada kasus computer vision atau pattern recognition seperti untuk mengenali korban bencana alam melalui foto yang diambil dari atas menggunakan drone atau helikopter. Terjadinya perbedaan feature space dan distribusi data ini karena adanya perbedaan sudut, cahaya, dan alat yang berbeda. Kondisi seperti ini semakin menyulitkan untuk dilakukannya klasifikasi gambar terlebih pada domain dengan keterbatasan label. Implementasi transfer learning terbukti dapat memberikan performance yang baik pada banyak kasus, termasuk kasus yang menggunakan dataset gambar.
Dalam transfer learning penting untuk menghindari terjadinya negative transfer learning, sehingga perlu dilakukan pengukuran kesamaan (similarity) antar domain. Penelitian ini menerapkan feature-representation-transfer dan menggunakan Maximum Mean Discrepancy (MMD) untuk mengukur jarak antar feature pada domain yang terlibat di transfer learning. Setelah mengukur kesamaan antar domain, maka akan dilakukan pemilihan feature berdasarkan jarak antar feature. Feature terpilih adalah feature yang mempunyai jarak kurang dari threshold yang ditentukan. Bobot akan diberikan kepada feature terpilih. Selain melakukan pemilihan feature berdasarkan kesamaan domain, metode ini juga melakukan pemilihan feature yang signifikan antar class label dan dalam class label dengan menggunakan ANOVA (Analysis of Variance). Hanya feature yang signifikan yang akan digunakan untuk proses prediksi.
Metode yang diusulkan juga menerapkan inter-cluster class label untuk memperkecil perbedaan conditional distribution. Prinsip kerja inter-cluster class label ini adalah menghitung jarak minimal dari instance pada domain target ke setiap center of cluster class label. Rumus jarak yang digunakan adalah Euclidean Distance. Properti statistik seperti rata-rata dan varians akan digunakan pada metode ini, untuk menggambarkan struktur data lokal dalam setiap domain. Penggunaan rata-rata digunakan untuk menentukan threshold dan pusat cluster class label, sedangkan varians digunakan untuk pemilihan feature yang signifikan. Proses prediksi label dilakukan berdasarkan feature terpilih yang telah diberi bobot dan jarak terpendek setiap instance ke salah satu class label.
Tidak terdapat parameter tambahan dalam fungsi pembelajaran yang diusulkan. Selain itu, proses penentuan label juga dilakukan tanpa iterasi, sehingga memungkinkan metode ini dapat dijalankan dengan keterbatasan resource. Hasil eksperimen menunjukkan bahwa metode yang diusulkan dapat memberikan performance sebesar 46,6%, pada saat menggunakan SVM sebagai classifier dan 51.7% pada saat menggunakan logistic regression. Akurasi yang didapat dengan SVM ini mengimbangi metode feature-representation-transfer sebelumnya. Namun akurasi dari logistic regression sudah dapat mengungguli metode sebelumnya. Hasil ini menunjukkan bahwa penggunaan metode feature selection menggunakan properti statistik yang dikombinasikan dengan pemberian bobot pada feature terpilih dan jarak minimal dapat memberikan hasil akurasi yang baik tanpa memerlukan resource yang besar.

Transfer learning is the extension of traditional machine learning in a cross-domain environment. Cross-domains are domains with different feature spaces or different marginal and conditional distributions. Many real-world cases of computer vision and pattern recognition, such as the surveillance of some victims of natural disasters from above using a drone or helicopter, have these differences. These conditons are difficult to handle with traditional machine learning methods. The differences in feature space or data distribution caused by the existence of different angles, different light, and different tools. All of these situation add difficulty to the classification process, especially in domains with limited labels. The implementation of transfer learning is proven to provide good performance in many cases of cross-domain learning, including cases that use image datasets.
In transfer learning, it is important to measure the similarity between domains to avoid negative transfer learning. This study applies feature-representation-transfer and uses Maximum Mean Discrepancy (MMD) to measure the distance between features in the cross-domains and reduce the domain discrepancy. After measuring the similarity between domains, a feature selection will be made based on the distance between the features. Selected features are features that have a distance less than the specified threshold. Weight will be given to the selected features. In addition to selecting features based on domain similarity, this method also selects significant features between class labels and within class labels using ANOVA (Analysis of Variance). Only significant features will be used for the prediction process.
The proposed method also applies an inter-cluster class label to minimize the difference in conditional distribution. The inter-cluster class label works by calculating the minimum distance from the instance in the target domain to each center of the cluster class label. The distance formula used is Euclidean distance. Statistical properties such as mean and variance will be used in this method to describe the local data structure in each domain. The average is used to determine the threshold and center of the cluster class label, while the variance is used to select significant features. The label prediction process is carried out based on the selected features that have been weighted and the shortest distance for each instance to one of the label classes.
There are no additional parameters in the proposed learning function. In addition, the process of determining the label is also carried out without iteration, thus allowing this method to be run with limited resources. The experimental results show that the proposed method can provide a performance of 46.6% when using SVM as a classifier and 51.7% when using logistic regression. The accuracy obtained from SVM offsets the previous feature-representation transfer learning. However, the accuracy of logistic regression has been able to outperform the previous method. These results indicate that the use of the feature selection method using statistical properties combined with assigning weights to selected features and a minimum distance can provide good accuracy without requiring large resources.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Indra Hermawan
"Kontaminasi derau pada sistem pemantauan EKG dapat mengakibatkan kesalahan analisis dan diagnosis. Kesalahan tersebut dapat mengakibatkan tingginya false alarm rate (FAR). Berbagai penelitian telah dilakukan untuk mengurangi bahkan menghilangkan derau pada sinyal EKG. Namun berbagai metode tersebut terkendala oleh karakteristik derau yang memiliki rentang frekuensi tumpang tindih dengan frekuensi sinyal EKG dan kemunculan derau secara acak dan sementara. Oleh sebab itu, mengakibatkan terjadinya shape alteration dan terjadinya amplitude reduction pada gelombang P dan R. Oleh karena itu, penelitian ini bertujuan untuk mengembangkan sebuah kerangka kerja metode penghilangan derau yang mampu menghilangkan derau yang memiliki frekuensi yang tumpang tindih dengan frekuensi sinyal EKG dan dengan kemunculan derau secara acak dan sementara. Dalam mengatasi tantangan tersebut, penulis mengusulkan metode penghilangan derau berbasiskan stationary wavelet transform dengan interval dependent thresholding yang ditentukan secara adaptif menggunakan metode change point detection. Dalam mengukur kinerja penghilangan derau dari kerangka kerja yang diusulkan, tiga matrik pengukuran yaitu signal to noise ration improvement (SNRimp), root mean square error (RMSE) dan percentage root mean square difference (PRD) digunakan. Selain itu, kerangka kerja yang diusulkan dibandingkan dengan metode terbaru yaitu stationary wavelet transform (SWT) standar. Selain itu, untuk mengukur tingkat keefektifan dari penghilangan derau, pada sinyal hasil penghilangan derau dilakukan pendeteksian QRS-complex menggunakan metode Pan and Tomkins. Parameter yang digunakan untuk mengukur kinerja pendeteksian QRS-complex adalah sensitivity dan predictive positivity. Pengukuran kinerja, baik penghilangan derau maupun pendeteksian QRS-complex dilakukan pada MITBIH arrythmia database dan noise stress test database. Berdasarkan hasil pengujian, metode yang diusulkan unggul dibandingkan metode SWT standar. Dengan nilai SNRimp yang lebih tinggi dan nilai RMSE dan PRD yang lebih rendah. Selain itu, pada pendeteksian QRS-complex metode yang diusulkan unggul dibandingkan metode SWT standar dengan nilai sensitivity 89,5% dan positive predictivity 86%. Hal tersebut menunjukkan bahwa metode yang diusulkan memiliki efektivitas yang lebih tinggi. Dengan adanya pengembangan kerangka kerja baru penghilangan derau pada sinyal EKG ini diharapkan dapat menjadi metode alternatif yang dapat digunakan para peneliti lain sebagai alternatif untuk digunakan dalam melakukan penghilangan derau pada sinyal EKG.

Noise contamination in ECG monitoring systems can lead to errors in analysis and diagnosis, resulting in a high false alarm rate (FAR). Various studies have been conducted to reduce or eliminate noise in EKG signals. However, existing methods face challenges due to the overlapping frequency characteristics of noise with EKG signals and the random and transient nature of noise. This often results in shape alterations and amplitude reduction in the P and R waves. Therefore, this research aims to develop a new framework for a noise removal capable of eliminating noise in noisy ECG signal. To address these challenges, the author proposes a noise removal method based on stationary wavelet transform with interval-dependent thresholding determined adaptively using change point detection. To measure the performance of the proposed framework in noise removal, three measurement matrices—signal-to-noise ratio improvement (SNRimp), root mean square error (RMSE), and percentage root mean square difference (PRD)—are used. Additionally, the proposed framework is compared with stationary wavelet transform (SWT). Furthermore, to assess the effectiveness of noise removal, QRS-complex detection is performed on the denoised signals using the Pan and Tomkins method. The parameters used to measure the performance of QRS-complex detection are sensitivity and predictive positivity. Performance measurements for both noise removal and QRS-complex detection are conducted on a MIT-BIH Arrhythmia database and a Noise Stress Test database. Based on the test results, the proposed method outperforms the standard SWT method with higher SNRimp values and lower RMSE and PRD values. In QRS-complex detection, the proposed method surpasses the standard SWT method with a sensitivity of 89.5% and positive predictivity of 86%. This indicates that the proposed method is more effective. The development of this new framework for EKG signal noise removal is expected to serve as an alternative method for researchers to use in addressing noise contamination in EKG signals."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Kusuma Ayu Laksitowening
"Penelitian sebelumnya menunjukkan bahwa peserta didik bervariasi dalam motivasi, gaya belajar, kemampuan pengetahuan, dan lain-lain. Dengan demikian, proses pembelajaran di setiap peserta didik bisa berbeda. Di sisi lain, pendidikan berbasis standar menuntut setiap peserta didik untuk memenuhi standar kompetensi yang ditetapkan. Dengan kata lain, setiap peserta didik dituntut untuk memenuhi target yang sama dalam pembelajaran dan pendidikan yang ditempuhnya. Untuk mencapai kompetensi yang diharapkan dan sekaligus mengakomodasi karakteristik individu, personalisasi e-Learning dapat menjadi solusi.
Dalam personalisasi e-Learning, strategi pembelajaran dapat disajikan dengan menyesuaikan pada tipe belajar setiap peserta didik dengan tujuan untuk memenuhi kompetensi yang ditetapkan. Dengan demikian, sistem personalisasi harus memiliki dua kemampuan, yaitu: mengidentifikasi tipe belajar peserta didik dan memberikan penanganan yang sesuai untuk setiap tipe belajar. Penelitian ini mengadaptasi Pendekatan Triple-Factor dalam mengidentifikasi tipe belajar peserta didik. Pendekatan Triple-Factor menganalisis peserta didik berdasarkan faktor gaya belajar, motivasi belajar, dan kemampuan pengetahuan. Faktor-faktor tersebut dapat dianalisis melalui aktivitas peserta didik dalam menggunakan e-Learning. Hasil analisis ini kemudian menjadi acuan personalisasi.
Tipe belajar peserta didik mengalami perubahan tergantung pada kondisi mereka sepanjang proses belajar. Untuk itu, analisis peserta didik perlu dilakukan secara periodik pula. Jika analisis hanya dilakukan satu kali, umumnya di awal pembelajaran, maka perkembangan dan perubahan perilaku sepanjang proses belajar tidak dapat diketahui. Dengan adanya perubahan tipe belajar peserta didik, strategi pembelajaran yang diberikan juga perlu disesuaikan. Personalisasi pembelajaran sebaiknya disajikan secara dinamis pula terhadap perubahan tipe belajar peserta didik.
Fokus pembahasan dalam penelitian ini adalah menyediakan proses belajar yang membantu peserta didik dalam mencapai kompetensi yang diharapkan, sekaligus adaptif terhadap keberagaman tipe belajar peserta didik dan dinamis terhadap perubahan tipe belajar yang terjadi pada setiap tahapan pembelajaran. Penelitian ini melakukan analisis peserta didik secara temporal dengan mengacu pada fitur-fitur pada Pendekatan Triple-Factor menggunakan Self-Organizing Map (SOM). Hasil analisis peserta didik kemudian menjadi acuan penyajian personalisasi pembelajaran. Dengan memanfaatkan ontologi, personalisasi disajikan dengan menghubungkan tipe belajar dengan jenis aktivitas yang sesuai dengan target kompetensi mata kuliah yang diambil peserta didik tersebut.
Usulan personalisasi diterapkan pada prototype sistem untuk kemudian dilakukan ujicoba. Ujicoba diterapkan secara eksperimental dengan menganalisis peserta didik yang memperoleh pembelajaran dengan personalisasi dan peserta didik yang mendapatkan pembelajaran tanpa personalisasi. Analisis juga dilakukan dengan membandingkan kondisi sebelum dan setelah pemberian personalisasi. Hasil ujicoba menunjukkan bahwa terdapat hubungan antara pemberian personalisasi berpengaruh baik pada kinerja pembelajaran maupun aktivitas pembelajaran peserta didik.

Previous studies have shown how learners vary in motivation, learning style, knowledge ability, and others. Accordingly, the learning process in each learner can be different. On the other hand, standard-based education requires learner to meet the specified competency standards. In other words, all learners are expected to accomplish the same targets in learning and education they are taking. To achieve the expected competencies while accommodating personal characteristics, e-Learning personalization can be a solution.
In e-Learning personalization, learning strategies can be adjusted with the aim of fulfilling specified competencies. Consequently, the personalization system must have two abilities: understanding learning types and providing appropriate scenario for each learning type. This research adapted the Triple-Factor Approach in identifying learners' learning type. The Triple-Factor Approach analyzes learners based on three factors: learning style, learning motivation, and knowledge ability. These factors can be analyzed through the activities of learners in using e-Learning. The results of the analysis were then become the reference of personalization.
Learners learning type change overtime. It depends on their condition during the learning process. Therefore, the learning type analysis should be conducted periodically as well. If the analysis is only done once, usually at the beginning of semester, the behavioral changes throughout the learning process cannot be described. With the change in the learning type of learners, the learning strategies also need to be adjusted. Learning personalization should also be presented dynamically due to changes that occur in the learning type analysis result.
This research aims to provide a learning process that helps learners achieve the expected competencies, while being adaptive to the variety of learning types and dynamic towards changes in learning types that occur at each stage of learning process. This research conducts learner analysis temporally by referring to the features of the Triple-Factor Approach using Self-Organizing Map (SOM). The results of the learner analysis then become the reference for learning personalization. By utilizing ontology, personalization was presented by linking the learning type with activity that matches courses target competencies.
Proposed personalized learning was applied to the prototype system as later for testing and evaluation. Testing are applied experimentally by analyzing learners who receive personalized learning and learners that use e-Learning without personalization. Analysis was also conducted by comparing conditions before and after personalization. The experiment results indicated that personalized learning effect significantly both to learning performance and learning activities improvement."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
D-Pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Agus Buono
"Suara merupakan suatu besaran yang memenuhi syarat sebagai ciri biometrik yang efektif dan efisien. Namun demikian, suara adalah fenomena yang merupakan perpaduan multidimensi serta dipengaruhi berbagai aspek, seperti karakteristik pembicara (dimensi titik artikularis, emosi, kesehatan, umur, jenis kelamin, dialek), bahasa, dan lingkungan (background dan media transmisi), sehingga sistem yang telah dikembangkan hingga sekarang belum bisa bekerja dengan baik pada situasi real. Hal inilah yang melatarbelakangi penelitian ini dilakukan.
Pada penelitian ini dilakukan kajian terhadap teknik higher order statistics (HOS) dan model Mel-Frequency Cepstrum Coefficients (MFCC) sebagai ekstraksi ciri yang diintegrasikan dengan Hidden Markov Model (HMM) sebagai pengenal pola untuk menghasilkan sistem identifikasi pembicara yang lebih robust terhadap noise, khususnya Gaussian Noise. Penelitian yang dilakukan lebih difokuskan pada bagian ekstraksi Ciri dari sistem identifikasi pembicara. Sementara ini, bagian pengenal pola menggunakan teknik yang telah banyak dikaji pada berbagai riset pemrosesan suara dan memberikan hasil yang baik, yaitu HMM. Strategi yang dilakukan adalah melalui pendekatan empiris untuk menunjukkan kegagalan teknik ekstraksi ciri konvensional, yaitu ID-MFCC yang berbasis power spektrum, pada lingkungan ber-noise, dilanjutkan dengan mengkaji permsalahannya, dan diusulkan teknik ekstraksi berbasis HOS untuk mengatasi pemasalahan tersebut. Berikutnya adalah melakukan serangkaian percobaan untuk menunjukkan efektifitas teknik yang diusulkan, studi komparasi dan mengajukan suatu usulan rancangan sistem.
Berdasar bukti empiris, terlihat bahwa permasalahan 1D-MFCC adalah pada inputnya, yaitu power spektrum yang bersifat tidak stabil terhadap noise. Pada penelitian ini diusulkan untuk mengganti power spektrum dengan bispektrum yang secara teori lebih robust terhadap noise. Teknik yang diusulkan adalah suatu metodologi untuk mengekstrak nilai bispektrum sinyal suara dengan MFCC dan diintegrasikan dengan HMM untuk membentuk sistem identitikasi pembicara. Oleh karena itu, pada penelitian ini dilakukan perluasan teknik ID-MFCC menjadi 2D-MFCC. Untuk meningkatkan efektifitas sistem, diusulkan teknik kuantisasi sebagai cara merepresentasikan nilai bispektrum sehingga distribusi spasialnya terakomodasi, dan dilanjutkan dengan transformasi wrapping dan kosinus seperti pada MFCC.
Hasil percobaan menunjukkan bahwa teknik konvensional yang berbasis pada power spektrum dapat menangkap ciri suara tanpa penambahan noise dengan baik dan jika dipadukan dengan Mel-Frequency Cepstrum Coefficients (MFCC) sebagai ekstraksi ciri dan HMM sebagai pengenal pola, maka akan menghasilkan sistem dengan akurasi di atas 98.8%. Namun demikian, dengan penambahan noise 20 dB, nilai power spektnlm mengalami perubahan secara nyata, sehingga akurasi sistem jatuh hingga level di bawah 50%. Teknik penghapusan noise secara adoptive mampu meningkatkan akurasi menjadi 77.7%, namun dengan noise yang lebih besar, teknik ini gagal bekeqia dengan baik.
Sistem yang dikembangkan dengan menggunakan bispektrum sebagai penentu ciri dipadukan dengan MFCC yang diperluas ke dua dimensi berhasil memberikan akurasi 99.9% untuk sinyal suara asli. Namun untuk sinyal dengan noise 20 dB, akurasi sistem menjadi sekitar 70%. Optimasi pada bentuk Elter pada proses MFCC dengan algoritma genetika mampu meningkatkan alcurasi menjadi 88.8% Akan tetapi dengan noise yang lebih tinggi, sistem gagal bekerja dengan baik.
Teknik kuantisasi skalar terhadap nilai bispektrum yang dilanjutkan dengan proses wrapping dan transfomasi kosinus seperti yang dilakukan pada MFCC mampu meningkatkan robustness sistem terhadap noise dengan akurasi 99.5% dan 83% masing-rnasing untuk sinyal asli dan sinyal dengan penambahan noise 20 dB. Namun untuk noise 10 dB, teknik ini gagal bekerja dengan baik. Dari percobaan dengan teknik kuantisasi velctor, terlihat bahwa rata-rata nilai bispektrum di atas kuartil tiga adalah penduga terbaik bagi nilai bispektrum setiap channel dengan jumlah 400 channel. Selain itu nilai parameter yang optimum pada proses ekstraksi ciri dengan kuantisasi vektor dilanjutkan dengan proses wrapping dan transformasi kosinus pada sinyal dengan penambahan noise adalah jarak filter linear 75, jarak Elter logaritma 1.06 dan proporsi filter linear dan legaritma 30:20. Kinerja sistem menunjukkan peningkatan yang berarti dengan akurasi 88% dan 75.5% masing-masing untuk sinyal dengan penambahan noise 20 dB dan 10 dB. Namun demikian untuk sinyal asli justru lebih rendah, yaitu dengan akurasi maksimum hanya 94.5%. Hal ini berarti bahwa teknik ekstraksi ciri yang efektif tergantung dari kualitas sinyal masukan. Oleh karena itu sistem yang dikembangkan sebaiknya dilengkapi di bagian awalnya dengan kemampuan untuk menduga kualitas sinyal masukan.
Dari studi eksploratif terhadap nilai autokorelasi dan ragam sinyal suara, diperoleh bahwa kualitas sinyal dapat diidentifikasikasi dengan besaran yang dirumuskan sebagai negatif dari logaritma perkalian nilai absolut autokerelasi dari lag 1 hingga lag 21. Nilai ambang untuk membedakan sinyal sesuai kualitasnya dengan besaran tersebut adalah di antara 7 hingga 15. Jika nilai besaran tersebut kecil, maka teknik 1D-MFCC lebih sesuai untuk diterapkan. Sedangkan untuk hal lainnya, disarankan menggunakan teknik kuantisasi vektor terhadap nilai bispektrum sebagai pengekstraksi ciri. Berdasar nilai ambang inilah disusun prototipe sistem identifikasi pembicara menggunakan software Matlab.

Mel-Frequency Cepstrum Coefficients (MFCC) as speech signal feature extraction technique and integrated with Hidden Markov Model (HMM) as classifier to form a speaker identification system that more robust to Gaussian Noise. The experiments is focused on the subsystem of feature extraction, whereas in the subsystem of classifier, we use the HMM. In this research, we show the ineffectiveness of lD-MFCC as feature extraction in the noisy environment empirically, analysis the problem and propose some techniques for feature extraction to handle the problem. Next, we conduct a series of experiments to show the effectiveness of the propose methods. Finally, we make a comparison among methods to capture the characteristics of each and propose a prototype of speaker identification system.
According to the result, the main problem with 1D-MFCC is in the aspect of its input, i.e. power spectrum. This quantity is not stable enough with existing noise. In this research we replace the power spectrum by bispectrum that more robust to noise. Then, the propose methods is focused on how to extract the bispectrum value and integrate with HMM to form the speaker identification system. Firstly, 1D-MFCC extended into 2D-MFCC, so the technique workable for bispectrum value as the input. In order to improve the system performance, we use scalar and vector quantization for bispectrum value representation and continue with wrapping and cosines transform prior to classifier process.
The experiments show that the conventional method based on power spectrum (ID-MFCC) gives a good result for signal without addition by Gaussian noise, with 98.8% of accuracy. Nevertheless, with noise only 20 dB, the system performance drop significantly with accuracy below 50%. The noise canceling technique can improve the accuracy up to 77.7%, but fails for noise more than 20 dB. The 2D-MFCC that developed using bispectrum as speech signal feature gives 99.9% of accuracy for original signal and 88.8% for signal corrupted by 20 dB of noise. Compare with ID-MFCC, this system performance is higher. Nevertheless, for noise more than 20 dB, the system fails.
In order to improve the system performance, we propose scalar and vector quantization for representation the bispectrum value, and continue with wrapping and cosines transform prior to classifier process. The vector quantization technique yield the system more stable with noise, and gives the highest recognition compare with others, especially for signal corrupted by noise. The accuracy for signal with addition by 20 dB and 10 dB of noise are 89% and 75.5%, respectively. But, for original signal, the accuracy is only around 90%. It means the effective technique for feature extraction depend on the quality of input signal.
According to the exploration of autocorrelation of speech signal, it is shown that the signal quality can be divided by the negative value of multiplication of absolute value of its autocorrelation from lag 1 until lag 21. The threshold lies between 7 and 15. If the value is small enough, it is better for use the lD-MFCC technique. Otherwise, we advise to use the system based on bispectrum represented by vector quantization and continue by the wrapping and cosines transform prior to the classifier process. By using this threshold, we propose a prototype for speaker identification system developed by Matlab software.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
D958
UI - Disertasi Open  Universitas Indonesia Library
cover
Asep Wahyudin
"Efektifitas sistem dan teknologi informasi dalam suatu organisasi tidak lagi hanya sebagai isu, tetapi sudah terbukti memiliki korelasi yang tinggi dengan performa organisasi bisnis. Disisi lain, proses perencanaan strategis sistem informasi (PSSI) tidaklah mudah untuk dilakukan karena merupakan kerja dengan latar belakang multidisiplin dalam keilmuan, teknis dan praktis. Tiga kategori dihasilkan dari penelitian awal terkait dengan klasifikasi proses PSSI. Kategori pertama adalah penyelarasan strategi dan dampak bisnis dengan fokus pada implementasi strategi bisnis untuk mencapai faktor kompetitif. Kategori kedua yaitu, pengembangan metode dan framework dengan fokus pada pengembangan metode dan teknik yang berhubungan dengan kebutuhan yang bersifat kekinian atas perkembangan organisasi bisnis dan teknologi. Kategori ketiga, evaluasi atas tingkat kematangan, kesiapan dan tingkat keberhasilan, dengan fokus perhatian pada usaha untuk meningkatkan performa organisasi dengan melakukan identifikasi atas faktor-faktor kesiapan dan keberhasilan implementasi. Analisis dari ketiga kategori ini menyimpulkan bahwa  proses perencanaan strategis sangat akan dipengaruhi oleh sumber daya manusia dengan pengetahuan dan partisipasinya, sementara metode yang tersedia belum cukup untuk menjelaskan secara holistik dan berkesinambungan tentang partisipasi aktif dari setiap stakeholder dalam proses PSSI. Pendekatan kolaboratif berkelanjutan yang mengintegrasikan strategi bisnis, strategi TI dan strategi inovasi layanan berbasis TI, diusulkan sebaga alternatif metodologi dalam PSSI. Pendekatan kolaboratif ini akan menekankan serta menguatkan penyelarasan strategi bisnis dan strategi sistem informasi secara berkelanjutan. Pendekatan mixed method, systematic literature review, grounded theory, expert judgment dan focus group discussion merupakan bagian dari pembangunan dan validasi terhadap framework. Melengkapi hasil evaluasi, dilakukan pengujian statistik untuk hasil kuesioner yang disebar kepada responden secara acak. Selanjutnya data dianalisis dengan teknik confirmatory factor analysis dan juga melalui analisis penilaian pakar, menghasilkan muatan faktor yang sebagian besar memiliki tingkat yang tinggi. Operasional framework dan implementation toolkit disusun untuk memudahkan pemanfaatannya. Sebagai implikasi penelitian,  penelitian ini juga menghasilkan definisi IS competency  yang merujuk pada sifat dan kemampuan, atau kompetensi unik yang dibutuhkan dalam PSSI berdasarkan proses kolaboratif berkelanjutan, klasifikasi penelitian bidang PSSI dan model asesmen untuk menentukan tingkat kematangan keselarasan bisnis-SI (strategic alignment maturity level model)  berdasarkan technology driver, business driver, dan management & customer driver sebagai faktor dinamis lingkungan organisasi.

The effectiveness of systems and information technology in an organization is no longer just an issue but has been proven to have a high correlation with the performance of business organizations. On the other hand, the Strategic Information Systems Planning (SISP) process not easy to do because it is a work with a multidisciplinary background in scientific, technical and practical. Three categories resulted from initial research related to the classification of the SISP process. The first category is the alignment of strategy and business impact with a focus on implementing business strategies to achieve competitive factors. The second category, namely, the development of methods and frameworks with a focus on developing methods and techniques related to the needs of the present nature of the development of business organizations and technology. The third category, evaluating the level of maturity, readiness, and level of success, with a focus of attention on efforts to improve organizational performance by identifying factors of readiness and successful implementation. Analysis of these three categories concludes that the strategic planning process will be strongly influenced by human resources with their knowledge and participation, while the available methods are not sufficient to explain holistically and continuously about the active participation of each stakeholder in the SISP process. A collaborative continuity approach that integrates business strategy, IT strategy, and IT-based service innovation strategy, is proposed as an alternative methodology in SISP. This collaborative continuity approach will emphasize and strengthen the sustainable alignment of business strategy and information systems strategy. Mixed-method, systematic literature review, grounded theory, expert judgment and focus group discussion approaches are part of the development and validation of the framework. Complementing the results of the evaluation, a statistical test was carried out for the results of the questionnaire distributed to respondents. Furthermore, the data is analyzed with confirmatory factor analysis and also through expert judgment analysis, resulting in a factor load that mostly has a high level. The operational framework and the implementation tools kit are compiled to facilitate their use. As a research implication, this study also yields a definition of IS competency that refers to the nature and abilities, or unique competencies needed in SISP based on continuity collaborative processes, classification of research in SISP and the strategic alignment maturity level model based on technology drivers, business drivers, and management & customer drivers as a dynamic factor in the organizational environment."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Achmad Fatchuttamam Abka
"Peringkasan lintas bahasa adalah sebuah proses menghasilkan ringkasan dalam bahasa target dari dokumen sumber berbahasa lain. Secara tradisional, peringkasan lintas bahasa dilakukan dalam skema pipeline yang melibatkan dua langkah, yaitu penerjemahan dan peringkasan. Pendekatan ini memiliki masalah, yaitu munculnya error propagation. Untuk mengatasi masalah tersebut, penelitian ini mengusulkan peringkasan lintas bahasa abstraktif end-to-end tanpa secara eksplisit menggunakan mesin penerjemah. Arsitektur peringkasan lintas bahasa yang diusulkan berbasis Transformer yang sudah terbukti memiliki performa baik dalam melakukan text generation. Model peringkasan lintas bahasa dilatih dengan 2-task learning yang merupakan gabungan peringkasan lintas bahasa dan peringkasan satu bahasa. Hal ini dilakukan dengan menambahkan decoder kedua pada Transformer untuk menangani peringkasan satu bahasa, sementara decoder pertama menangani peringkasan lintas bahasa. Pada arsitektur peringkasan lintas bahasa juga ditambahkan komponen multilingual word embeddings. Multilingual word embeddings memetakan kedua bahasa yang berbeda ke dalam ruang vektor yang sama sehingga membantu model dalam memetakan relasi antara input dan output. Hasil eksperimen menunjukkan model usulan mendapatkan kenaikan performa hingga +32,11 ROUGE-1, +24,59 ROUGE-2, +30,97 ROUGE-L untuk peringkasan lintas bahasa dari dokumen sumber berbahasa Inggris ke ringkasan berbahasa Indonesia dan hingga +30,48 ROUGE-1, +27,32 ROUGE-2, +32,99 ROUGE-L untuk peringkasan lintas bahasa dari dokumen sumber berbahasa Indonesia ke ringkasan berbahasa Inggris.

Cross-lingual summarization (CLS) is a process of generating summaries in the target language from source documents in other languages. Traditionally, cross-lingual summarization is done in a pipeline scheme that involves two steps, namely translation and summarization. This approach has a problem, it introduces error propagation. To overcome this problem, this study proposes end-to-end abstractive cross-lingual summarization without explicitly using machine translation. The proposed cross-lingual summarization architecture is based on Transformer which has been proven to have good performance in text generation. The cross-lingual summarization model is trained with 2-task learning, which is a combination of cross-lingual summarization and monolingual summarization. This is accomplished by adding a second decoder to handle monolingual summarization, while the first decoder handles cross-lingual summarization. The multilingual word embeddings component is also added to the cross-lingual summarization architecture. Multilingual word embeddings map both different languages into the same vector space so that it helps the model in mapping the relationship between input and output. The experimental results show that the proposed model achieves performance improvements of up to +32.11 ROUGE-1, +24.59 ROUGE-2, +30.97 ROUGE-L for cross-lingual summarization from English source documents to Indonesian summaries and up to +30,48 ROUGE-1, +27.32 ROUGE-2, +32.99 ROUGE-L for cross-lingual summarization from Indonesian source documents to English summaries."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Ario Yudo Husodo
"Perkembangan teknologi drone menyimpan beragam potensi bahaya bagi keamanan suatu wilayah. Dengan berkembangnya teknologi drone, sekelompok pihak dapat memantau secara ilegal atau bahkan melakukan penyerangan jarak jauh dengan mengendalikan drone menggunakan remote control maupun memprogram strategi pergerakan drone yang digunakan. Potensi bahaya teknologi drone menjadi semakin mengancam ketika drone yang digunakan untuk menyerang adalah bertipe drone berkelompok, yang memungkinkan terdapat sekelompok drone yang terkoordinasi secara sistematis untuk melakukan penyerangan terhadap suatu area.
Meskipun saat ini telah berkembang beberapa teknologi penangkal drone, teknologi yang ada cenderung difokuskan untuk menangkal satu drone tunggal. Belum terdapat publikasi mendalam yang membahas kerangka kerja penangkal serangan drone berkelompok. Pada penelitian ini, dikembangkan suatu strategi pertahanan penangkal drone berkelompok (drone swarm) menggunakan pasukan autonomous-drone penjaga keamanan wilayah. Konsep usulan yang diajukan adalah dengan cara mengembangkan algoritma koordinasi yang memungkinkan suatu pasukan autonomous-drone penjaga keamanan wilayah untuk melakukan penangkapan atau penghentian secara terorganisir terhadap kelompok drone penyerang.
Adapun dasar algoritma yang digunakan pada penelitian ini adalah Social Spider Optimization (SSO). Aspek utama kontribusi di dalam penelitian ini terdapat pada modifikasi algoritma SSO untuk mengatasi persoalan pencarian multi-target-bergerak berupa penangkapan atau penghentian serangan drone berkelompok. Penelitian ini telah diuji dalam simulator 3 dimensi, dengan konfigurasi pergerakan kelompok drone penyerang yang diujikan berbasis pendekatan penyerangan sekali jalan. Uji kinerja dilakukan dengan membandingkan kinerja usulan algoritma dengan 3 alternatif algoritma pergerakan kawanan drone pertahanan. Ketika dihadapkan dengan kelompok drone penyerang yang berkerumun, dibandingkan 3 alternatif algoritma pertahanan yang lain, usulan algoritma mampu mengurangi kerusakan hingga rasio 44% (terbaik), 67% (rata-rata), dan 97% (terburuk).

Nowadays, drone technology development brings many dangerous possibilities for the security of an area. Because of the advanced development, many villains can conduct illegal surveillance or even long-distance attack on an area by remote controlling a drone or programming the drone movement strategy. Meanwhile, the dangerous impact of drone technology usage becomes higher when the technology used to attack an area is the type of drone swarm technology. In this kind of technology, every drone can coordinate and communicate while striking an area.
Although there have been many anti-drone technologies developed at the moment, they tend to focus on targeting one single drone only. So far, no publication comprehensively proposes a framework to overcome the multi-drone attack. This research presents an anti-drone-swarm defense strategy to protect area safety by using the autonomous-drone unit. The proposed method concept is manifested by developing a coordination algorithm for an autonomous-drone army to communicate with each other while catching or stopping the invader drone swarm.
The foundation of this research algorithm is Social Spider Optimization (SSO). This research's main contribution lies in modifying the SSO algorithm to handle the moving multiple-target searching problem, in this case, by catching or stopping the drone-swarm attack. This research has been tested in a 3D simulation environment where invader drone-swarm movement is developed based on a one-way-ticket approach. Performance evaluation is conducted by comparing the proposed method result with 3 other multiple defender drone movement algorithms. When facing an invader drone swarm with crowded formation, compared to the other 3 algorithms, the proposed method produces damage ratios up to 44% (best), 67% (average), and 97% (worst).
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Sri Hartati Wijono
"Terjemahan mesin adalah program komputer yang menerjemahkan kata dari satu bahasa ke bahasa lain. Neural Machine Translation (NMT) merupakan salah satu jenis terjemahan mesin yang menggunakan hasil pelatihan corpus paralel untuk menerjemahkan kata. Proses NMT dengan pelatihan menggunakan corpus paralel dalam jumlah besar (high resource) dapat memberikan hasil terjemahan sangat baik. Tetapi proses NMT yang dilatih menggunakan corpus paralel dalam jumlah kecil (low-resource) tidak mampu memberikan penerjemahan kata dengan baik akibat adanya out-of-vocabulary (OOV). Salah satu cara mengurangi OOV pada low-resourse NMT adalah melatih NMT menggunakan subword dari hasil segmentasi kata. Canonical segmentation dipilih untuk mengsegmentasi kata bahasa Jawa dan bahasa Indonesia menjadi subword afiks dan subword root word yang mengalami alomorf. Hal ini dikarenakan kedua hasil subword tersebut memiliki makna linguistik yang dapat digunakan untuk mengurangi OOV. Proses canonical segmentation tersebut dilakukan menggunakan encoder-decoder Transformer dengan memanipulasi masukannya sebagai usulan dari penelitian. Penelitian ini juga mengembangkan algoritma untuk membuat dataset canonical segmentation bahasa Jawa yang digunakan untuk melatih Transformer. Manipulasi masukan Transformer tersebut berupa penggunaan tag fitur afiks dan root word atau tag fitur afiks dan urutan root word yang digabungkan ke setiap karakter masukan untuk membantu proses pembelajaran Transformer. Manipulasi usulan ini menghasilkan akurasi segmentasi sebesar 84,29% untuk semua kata, 69,82% untuk kata berimbuhan dan 56,09% untuk kata berimbuhan canonical. Nilai F1 yang dihasilkan 92,89% untuk semua kata, 98,69% untuk kata berimbuhan dan 96,81% untuk kata berimbuhan canonical. Subword hasil proses segmentasi ini selanjutnya digabung dengan tag fitur berupa afiks dan root word untuk menguji low-resource NMT. Metode ini dapat eningkatkan nilai BLEU sebesar +3,55 poin dibandingkan penggunaan kata tanpa segmentasi dan meningkat +2,57 poin dibandingkan penggunaan subword BPE yang banyak dipakai saat ini.

Machine translation is a machine that translates words from one language to another. Neural Machine Translation (NMT) is a type of machine translation that uses the results of parallel corpus training to translate words. The NMT process with training using a large number of the parallel corpus (high resource) can give excellent translation results. But the NMT process, which was trained using a parallel corpus in small numbers (low resources), could not provide good word translation due to out-of-vocabulary (OOV). One way to reduce OOV in low-resource NMT is to train NMT using subwords from word segmentation results. Canonical segmentation was chosen to segment Javanese and Indonesian words into affix and root word subwords that experience allomorphism. This segmentation method was chosen because the two subword results have linguistic meanings that can be used to reduce OOV. The canonical segmentation process is conducted using Transformer encoder-decoder by manipulating the input as a research proposal. This research also develops an algorithm to create a corpus parallel canonical segmentation in the Java language used to train Transformers. Manipulating the Transformer input uses affix and root word feature tags or affix and root word sequences concatenated with each input character to help the Transformer learning process. This proposed manipulation produces a segmentation accuracy of 84.29% for all words, 69.82% for affixed words and 56.09% for canonical affixed words. The resulting F1 value is 92.89% for all words, 98.69% for affixed words and 96.81% for canonical affixed words. The subwords resulting from the segmentation process are then combined with feature tags in the form of affixes and root words to test low-resource NMT. This method can increase the BLEU value by +3.55 points compared to using words without segmentation and +2.57 points compared to using BPE subwords which are widely used today."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Ario Yudo Husodo
"Perkembangan teknologi drone menyimpan beragam potensi bahaya bagi keamanan suatu wilayah. Dengan berkembangnya teknologi drone, sekelompok pihak dapat memantau secara ilegal atau bahkan melakukan penyerangan jarak jauh dengan mengendalikan drone menggunakan remote control maupun memprogram strategi pergerakan drone yang digunakan. Potensi bahaya teknologi drone menjadi semakin mengancam ketika drone yang digunakan untuk menyerang adalah bertipe drone berkelompok, yang memungkinkan terdapat sekelompok drone yang terkoordinasi secara sistematis untuk melakukan penyerangan terhadap suatu area.
Meskipun saat ini telah berkembang beberapa teknologi penangkal drone, teknologi yang ada cenderung difokuskan untuk menangkal satu drone tunggal. Belum terdapat publikasi mendalam yang membahas kerangka kerja penangkal serangan drone berkelompok. Pada penelitian ini, dikembangkan suatu strategi pertahanan penangkal drone berkelompok (drone swarm) menggunakan pasukan autonomous-drone penjaga keamanan wilayah. Konsep usulan yang diajukan adalah dengan cara mengembangkan algoritma koordinasi yang memungkinkan suatu pasukan autonomous-drone penjaga keamanan wilayah untuk melakukan penangkapan atau penghentian secara terorganisir terhadap kelompok drone penyerang.
Adapun dasar algoritma yang digunakan pada penelitian ini adalah Social Spider Optimization (SSO). Aspek utama kontribusi di dalam penelitian ini terdapat pada modifikasi algoritma SSO untuk mengatasi persoalan pencarian multi-target-bergerak berupa penangkapan atau penghentian serangan drone berkelompok. Penelitian ini telah diuji dalam simulator 3 dimensi, dengan konfigurasi pergerakan kelompok drone penyerang yang diujikan berbasis pendekatan penyerangan sekali jalan. Uji kinerja dilakukan dengan membandingkan kinerja usulan algoritma dengan 3 alternatif algoritma pergerakan kawanan drone pertahanan. Ketika dihadapkan dengan kelompok drone penyerang yang berkerumun, dibandingkan 3 alternatif algoritma pertahanan yang lain, usulan algoritma mampu mengurangi kerusakan hingga rasio 44% (terbaik), 67% (rata-rata), dan 97% (terburuk).

Nowadays, drone technology development brings many dangerous possibilities for the security of an area. Because of the advanced development, many villains can conduct illegal surveillance or even long-distance attack on an area by remote controlling a drone or programming the drone movement strategy. Meanwhile, the dangerous impact of drone technology usage becomes higher when the technology used to attack an area is the type of drone swarm technology. In this kind of technology, every drone can coordinate and communicate while striking an area.
Although there have been many anti-drone technologies developed at the moment, they tend to focus on targeting one single drone only. So far, no publication comprehensively proposes a framework to overcome the multi-drone attack. This research presents an anti-drone-swarm defense strategy to protect area safety by using the autonomous-drone unit. The proposed method concept is manifested by developing a coordination algorithm for an autonomous-drone army to communicate with each other while catching or stopping the invader drone swarm.
The foundation of this research algorithm is Social Spider Optimization (SSO). This research's main contribution lies in modifying the SSO algorithm to handle the moving multiple-target searching problem, in this case, by catching or stopping the drone-swarm attack. This research has been tested in a 3D simulation environment where invader drone-swarm movement is developed based on a one-way-ticket approach. Performance evaluation is conducted by comparing the proposed method result with 3 other multiple defender drone movement algorithms. When facing an invader drone swarm with crowded formation, compared to the other 3 algorithms, the proposed method produces damage ratios up to 44% (best), 67% (average), and 97% (worst).
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Ridwan Andi Kambau
"ABSTRAK
Sistem Temu Kembali Informasi (STKI) tradisional tidak cukup lagi untuk memenuhi kebutuhan informasi pengguna. Volume dan struktur informasi multimedia mengalami peningkatan yang tidak terpikirkan dan terdapat hubungan semantik antar-media. Untuk menemukan kembali informasi semantik antar-media adalah sebuah tantangan. Tulisan ini mengeksplorasi Sistem Temu Kembali Informasi Multimedia Terpadu Berbasis Konsep (STKIM-TBK). STKIM-TBK menggunakan hubungan semantik antar-media informasi dan teknik deep learning untuk mengungkap struktur informasi multimedia yang mungkin ada. Penelitian ini mengusulkan solusi untuk mengakses berbagai koleksi objek multimedia terdistribusi dan menyajikan secara komprehensif objek warisan budaya dalam empat jenis media, teks, gambar, audio, dan video yang direpresentasikan sebagai Konsep. STKIM-TBK menggunakan ontologi untuk menyediakan kosa kata, struktur informasi, dan membangun hubungan antar-konsep pada media yang berbeda. Koleksi objek warisan budaya digunakan sebagai domain penelitian ini. Relasi Ontologi STKIM-TBK memiliki tiga proses utama; Pertama adalah Proses Pengindeksan yang terdiri dari mengumpulkan objek multimedia, pembuatan dataset, mengekstraksi deskrispsi teks dan fitur multimedia dan mengklasifikasikan konsep-konsep dengan Convolutional Neural Network (CNN) dan Recurrent Neural Network (RNN). Objek-objek dalam Konsep terklasifikasi diindeks dan disimpan pada Objek Terindeks. Kedua adalah Pemrosesan Kueri yang terdiri dari penginputan objek multimedia dan mengenalinya sebagai objek dalam suatu konsep terklasifikasi. Ketiga adalah Proses Temu Kembali yang mencocokkan objek terklasifikasi dari input multimedia pada Pemrosesan Kueri dengan Objek-objek dalam Objek Terindeks menggunakan Skema Ontologi. Pengindeksan Terpadu membuat model pengklasifikasi multimedia untuk mengenali dan mengklasifikasi teks, citra, audio, dan video dengan melatih tiga lapisan arsitektur CNN dan 50 lapisan arsitektur RNN menggunakan dataset enam objek pada empat media dari tiga etnis di Indonesia. STKIM-TBK yang merepresentasi konsep dapat mewakili semua fitur dari empat media sekaligus. Skema Ontologi menggunakan teknik Desain Ontologi Sederhana untuk mengorganisasi konsep-konsep terkait dengan konsep yang lain pada etnis yang sama. Relasi Ontologi STKIM-TBK menunjukkan kemampuan sistem mengekstraksi fitur dari empat representasi media menjadi suatu Konsep dan meningkatkan fleksibilitas struktur klasifikasi warisan budaya UNESCO untuk mencari objek terkait yang lebih banyak.

ABSTRACT
Traditional Information Retrieval System is no longer sufficient to satisfy the information need of users. The volume and structure of multimedia information mounted unthinkable, and the semantic relationship among media exists. To retrieve information which semantically intact among media is a challenge. This study explores the Unified Concept-Based Multimedia Information Retrieval System (UCB-MIRS). The UCB-MIRS employs ontological relationship among media of information and deep learning technique to uncover the structure of multimedia information that may exist. It proposes a solution to access various distributed multimedia object collection and present comprehensive media of cultural heritage in four types of media, text, image, audio, and video that represent as a Concept. The UCB-MIRS use an ontology to provide vocabularies, information structure and create relationship among concepts at different media. The collection of cultural heritage object used as a domain research. Ontological relationship in UCB-MIRS has three main processes; the first is Indexing Process which consist of collecting multimedia object, creating a dataset, extracting multimedia textual description and features, then classifying concepts with Convolutional Neural Network (CNN) and Recurrent Neural Network (RNN). The object in the classified concepts are indexed and stored on Object Indexed. The second is Query Processing which consist of inputting multimedia object and recognizing it as an object in classified concepts. The third is Retrieval Process which is matching the the classified object of multimedia input on Query Processing and object in the Object Indexed using Ontology Schema. In Unified indexing, multimedia classifier model recognize and classify text, images, audio and video by training three layers of CNN architecture and 50 layers of RNN architecture using six objects dataset in four media from three ethnicities in Indonesia. UCB-MIRS can represent all features of four media. The ontology using Simple Design Ontology technique to organizes concepts related to another concept in the same ethnics. Ontological relationship in UCB-MIRS shows the capability of the system to extract features of four media representation to become a concept and increasing the flexibility structure of UNESCO cultural heritage classification to find the more related object."
2019
D2653
UI - Disertasi Membership  Universitas Indonesia Library
<<   1 2   >>