Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 16 dokumen yang sesuai dengan query
cover
Dina Chahyati
"Pelacakan orang banyak pada video berdasarkan hasil deteksi orang pada setiap frame merupakan problem yang menantang karena kompleksitas yang dimilikinya. Kesalahan deteksi orang pada setiap frame akan menyebabkan kesalahan pelacakan orang pada keseluruhan video. Pada penelitian ini, diusulkan metode pelacakan yang dapat meminimalkan propagasi kesalahan dari kesalahan deteksi dengan waktu pelacakan yang tidak terlalu lama. Penelitian ini menggunakan deep convolutional neural network (DCNN) seperti Faster-RCNN dan RetinaNet sebagai detektor objek dan algoritma Hungarian sebagai metode asosiasi antar orang-orang yang terdeteksi di setiap frame. Matriks masukan untuk algoritma Hungarian terdiri dari kedekatan vektor ciri DCNN yang dihasilkan oleh Siamese Network, jarak titik tengah bounding box, dan perbandingan irisan-gabungan (IoU) dari bounding box. Pada tahap akhir dilakukan interpolasi terhadap hasil pelacakan. Metode yang diusulkan menghasilkan MOTA 61.0 pada dataset benchmark pelacakan orang banyak MOT16.

Multiple object (human) tracking in video based on object detection in every frame is a challenging problem due to its complexity. Error in the detection phase will cause error in the tracking phase. In this research, a multiple human tracking method is proposed to minimize the error propagation. The method uses deep convolutional neural network (DCNN) such as Faster-RCNN and RetinaNet as object detector and Hungarian algorithm as association method among detected humans in consecutive frames. The input matrix for Hungarian algorithm consists of the similarity of DCNN feature vector resulted from Siamese network, the distance of bounding box centers, and bounding box intersection of union (IoU). In the last step, interpolation is applied to the tracking result. The proposed method achieves 61.0 MOTA in multiple object tracking benchmark MOT16."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Andie Setiyoko
"Penelitian ini bertujuan untuk menganalisis pendekatan aproksimasi minimax, LS-SVM, dan GPR untuk proses pemodelan semivariogram pada metode kriging. Proses ini adalah bagian tahap dalam operasi kriging yang biasanya dilakukan untuk proses interpolasi dan fusi. Kriging sendiri telah banyak digunakan untuk memprediksi nilai spasial yang terbukti lebih baik dalam memprediksi proses dibandingkan dengan metode deterministik, di mana kriging dikategorikan sebagai pada metode interpolasi stokastik. Pendekatan konvensional untuk proses pemodelan semivariogram menggunakan metode weighted least square dengan menggunakan fungsi tertentu. Fungsi yang tersedia untuk metode ini antar lain stable, exponential, spherical, dan lain-lain. Beberapa pembaharuan untuk kasus pemodelan semivariogram saat ini telah dibuat dengan menggunakan teknik regresi seperti LS-SVM. Selain itu sebagai bagian dari kebaruan, pendekatan aproksimasi minimax, LS-SVM, dan GPR yang diusulkan untuk kasus ini dapat meningkatkan akurasi pada hasil interpolasi, dalam hal ini diimplementasikan pada metode ordinary kriging. Pendekatan baru, yang dapat disebut sebagai minimax kriging ini dapat mengurangi eror. Minimax berkontribusi pada prediksi bobot nilai semivariogram lebih baik daripada weighted least square dan proses komputasi yang lebih cepat daripada metode berbasis SVM dan GPR.

This study aims to analyze the approach of Minimax, LS-SVM, and GPR approximation for the semivariogram modeling process in the kriging method. This process is part of the stage in kriging operations that are usually carried out for interpolation and fusion processes. Kriging itself has been widely used to predict spatial values which are proven to be better in predicting processes compared to deterministic methods, where kriging is categorized as a stochastic interpolation method. The conventional approach to the semivariogram modeling process uses the weighted least square method using certain functions. Functions available for this method include stable, exponential, spherical, and others. Several updates to the case of semivariogram modeling have now been made using regression techniques such as LS-SVM. Apart from that as part of the novelty, the proposed Minimax, LS-SVM, and GPR approximation approaches for this case can improve the accuracy of the interpolation results, in this case implemented in the ordinary kriging method. This new approach, which can be called minimax kriging, can reduce errors. Minimax contributes to the predicted weighting of semivariogram values better than weighted least square and faster computing processes than SVM and GPR-based methods."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
D-Pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Harwikarya
"Telah dilakukan penelitian metodologi segmentasi dan klasiiikasi citra synthetic aperture radar (SAR) bcrdasarkan Pulse Coupled Neural Networks (PCNN) dikombinasilcan dengan ciri teksturf Langkah awal penelitian ialah mencari variabel optimal pada persamaan PCNN. Segmentasi citra dilakukan menggunakan tiga macam metoda yang diusulkan yaitu pertama berdasarkan PCNN yang variabelnya telah dibuat optimal, kedua yaitu berdasarkan modiiikasi proses iterasi PCNN dan ketiga berdasarkan mod'kasi persamaan PCNN. Hasil segmentasi tiga teknik ini dapat memisahkan wilayah sesuai ground truth, tetapi pada jumlah iterasi tertentu masih telj adi tumpang tindih. Klasiikasi berdasarkan PCNN dilakukan dua tahap yaitu pertama mengelmraksi ciri tekstur citra. Ekstraksi ciri ini menggunakan perhitungan Grey Level Co-occurrence Matrix (GLCM). Dipilih tiga macam ciri yaitu diss|'m1`!arity, correlation dan angular second moment. Tiga ciri ini menjadi masukan pada PCNN untuk diiterasi. Hasil yang sangat menonjol dari rangkaian elcsperimcn. ini ialah didapatkannya variabel optimal persamaan PCNN yang tegar, metoda modiiikasi iterasi persamaan PCNN yang dapat menghlndari terjadinya tumpang tindih pada dua kelas wilayah hasil segmentasi, modiiikasi persamaan PCNN menjadi empat pereamaan yang dapat mempercepat segmentasi, dan hasil yang menonjol lainnya ialah dapat digunakannya PCNN ini untuk klasiftkasi ciua SAR yang bertekstur dan multi wilayah setelah dikombinasikan dengan ciri tekstur dan ketepatan klasifilasi berdasarkan PCNN yang diusulkan mencapai 91,58$% untuk pita L, 88, 31% untuk pita C dan 85,33%, untuk pita P.

The new methodology on segmentation and classification of Synthetic Aperture Rofar (SAR) based on Pulse Coupled Neural Networks (PCNN) and features texture was proposed in this dissertation. The tirst step of this research is timing the variables of the PCNN. The segmentation is based on new methods which proposed in this dissertation. First by iterating the images used optimal PCNN, the second method by modifying the iteration of the PCNN, and the third method by modilymg the equations of the PCNN. The results of these experiments are good enough, but in one of some iterations the result was overlap, in this case two area of the image were appeared in the binary image. The classification based on PCNN would be in two steps, Erst was the features extraction. The features were extracted by using the Gray Level Co-occurrence Matrix (GLCM). Three features, dissimilarity, correlation and angular second moment were selected to be processed by the PCCNN. The significant results of the experiments are, optimal variables of the PCNN which are robust, the new method of iteration of the PCNN which be able to avoid over lapping in segmentation, the new method of modification PCNN equation could increases the speed of segmentation and classification, and new method the application of PCNN in the segmentation and classification ofthe textural and multi region SAR images. Total accuracy for L band is 9l,58%, C band is 88,31% and'P band is 85, 33%."
Depok: Universitas Indonesia, 2009
D968
UI - Disertasi Open  Universitas Indonesia Library
cover
Sani Muhamad Isa
"penelitian ini diusulkan implementasi 2D dan 3D Set Partitioning In Hierarchical Trees (SPIHT) coding pada kompresi data ECG multi-lead. Implementasi SPIHT mereduksi tiga jenis redundansi yang umumnya terdapat pada sinyal electrocardiogram (ECG), yaitu redundansi intra-beat, inter-beat, dan inter-lead. Kami juga mengusulkan tiga teknik optimisasi untuk meningkatkan kinerja kompresi lebih lanjut dengan mengelompokkan sinyal ECG yang berasal dari beberapa lead, menyusun kembali posisi ECG cycle pada 2D ECG array (beat reordering), dan menormalisasikan amplitudo dari 2D ECG array dengan residual calculation. Beat reordering menyusun posisi beat pada 2D ECG array berdasarkan kemiripannya dengan beat terdekat. Penyusunan ini mengurangi variasi antar beat-beat yang berdekatan sehingga 2D ECG array mengandung lebih sedikit komponen frekuensi tinggi. Residual calculation mengoptimalkan penggunaan ruang penyimpanan lebih lanjut dengan meminimalkan variasi amplitudo dari 2D ECG array.
Hasil eksperimen terhadap sejumlah record pada St Petersburg INCART 12-lead Arrhythmia Database menunjukkan bahwa metode yang diusulkan menghasilkan distorsi rendah pada rasio kompresi 8 dan 16. Hasil eksperimen juga memperlihatkan bahwa pendekatan 3D SPIHT memiliki kinerja kompresi yang lebih baik dibanding 2D SPIHT. Untuk mengevaluasi kualitas sinyal hasil rekonstruksi pada permasalahan klasifikasi, pada penelitian ini kinerja dari metode kompresi sinyal ECG dianalisis dengan cara membandingkan sinyal asli dengan sinyal hasil rekonstruksi pada dua permasalahan; pertama, klasifikasi sleep stage berdasarkan sinyal ECG; kedua, klasifikasi arrhythmia. Hasil eksperimen menunjukkan bahwa akurasi dari klasifikasi sleep stage dan klasifikasi arrhythmia menggunakan sinyal hasil rekonstruksi sebanding dengan menggunakan sinyal input. Metode yang diusulkan dapat mempertahankan karakteristik sinyal pada kedua permasalahan klasifikasi tersebut.

In this study we proposed the implementation of 2D and 3D Set Partitioning In Hierarchical Trees (SPIHT) coding to a multi-lead ECG signal compression. The implementation of SPIHT coding decorrelates three types of redundancy that typically found on a multi-lead electrocardiogram (ECG) signal i.e. intra-beat, inter-beat, and inter-lead redundancies. We also proposed three optimization techniques to improve the compression performance further by grouping the ECG signal from precordial and limb leads, reordering the ECG cycles position in the 2D ECG array, and normalizing the amplitude of 2D ECG array by residual calculation. Beat reordering rearranged beat order in 2D ECG array based on the similarity between adjacent beats. This rearrangement reduces variances between adjacent beats so that the 2D ECG array contains less high frequency component. The residual calculation optimizes required storage usage further by minimizing amplitude variance of 2D ECG array.
Our experiments on selected records from St Petersburg INCART 12-lead Arrhythmia Database show that proposed method gives relatively low distortion at compression rate 8 and 16. The experimental results shows that 3D SPIHT approach gives better compression performance than 2D SPIHT. To evaluate the quality of reconstructed signal for classification task, we analyzed the performance of electrocardiogram (ECG) signal compression by comparing original and reconstructed signal on two problems. First, automatic sleep stage classification based on ECG signal; second, arrhythmia classification. Our experimental results showed that the accuracy of sleep stage classification and arrhythmia classification using reconstructed ECG signal from the proposed method is comparable to the original signal. The proposed method preserved signal characteristics for the automatic sleep stage and arrhythmia classification problems.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2014
D1963
UI - Disertasi Membership  Universitas Indonesia Library
cover
Katmoko Ari Sambodo
"Disertasi ini membahas suatu metodologi alternatif untuk mengklasifikasi secara tidak terbimbing (unsupervised classification) data polarimetrik-SAR. Pada tahap permulaan dua metode pengekstraksian fitur diterapkan untuk mengeksploitasi secara optimal berbagai informasi yang terkandung dalam data polarimetrik-SAR tersebut. Metode pengekstraksi yang pertama didasarkan atas penurunan berbagai litur dari representasi matriks kovarian polarimetrik (totalnya terdapat sembilan parameter yang merepresentasikan masing-masing power kanal polarisasinya, koherensi polarimetriknya, dan perbedaan tase polarimetriknya), dan metode yang kedua didasarkan atas dekomposisi polarimetrik Cloude (totalnya terdapat tiga parameter yang memberikan informasi mengenai karakteristik hamburan balik sinyal radar atas berbagai target yang berbeda-beda). Selanjutnya suatu teknik penyeleksian (pereduksian) titur bardasarkan transformasi marimum noise fraction (MNF) diaplikasikan pada fitur-fitur tersebut untuk mendapatkan informasi-informasi yang paling berguna dan mengurangi informasi lain yang sifatnya redundan ataupun informasi yang tidak terkait Iainnya.
Tahapan klasifikasi kemudian dilakukan dengan algoritma klustering fuzzy maximum likelihood estimation (FMLE). Algoritma FMLE tersebut memungkinkan pembentukan kluster-kluster yang berbentuk clips dalam sembarang arah sehingga lebih fleksibel dibandingkan dengan algoritma klustering fuzzy K-means yang standar. Namun demikian, algoritma dasar FMLE semata-mata hanya menggunakan informasi spektral (alan intensitas) dari masing-masing vektor piksel dan informasi spasial-kontekstual tidak ikut diperhitungkan dalam proses klustering. Oleh karena itu, hasil klasifikasi yang kurang bagus (ber-noise) biasanya akan didapatkan apabila diterapkan pada data SAR sebagai akibat keberadaan noise speckle. Pada penelitian ini diajukan suatu metode baru yang mengintegrasikan antara hasil klustering FMLE (yang berbasis piksel per piksel) dngan informasi spasial-kontekstual yang dieksploitasi dengan analisa statistikal atas informasi kelas piksel-piksel yang bersebelahan dan informasi spasial-kontekstual tambahan yang diperoleh dari hasil analisa klustering menggunakan fitur-fitur hasil dekomposisi wavelet.
Metodologi yang diajukan tersebut telah diujicoba dengan menggunakan data polarimetrik E-SAR yang diakuisisi di daerah Penajam, Kalimantan Timur dan data polarimetrik ALOS-PALSAR yang diakuisisi di daerah Lumajang, Jawa Timur, Indonesia. Dari hasil-hasil eksperimen dapat disimpulkan bahwa hasil klasifikasi yang diperoleh lebih meningkatkan performansi pembedaan berbagai objek tutupan lahan, lebih homogen pada area yang bersifat homogen, dan tetap mempertahankan batas-batas objek dan struktur-struktur detail lainnya.

This dissertation shows a study on an altemative method for unsupervised classification of polarimetric-SAR data. First, two feature extraction methods are performed in order to exploit the information of fully polarimetric-SAR data properly. One is based on derivation of features from polarimetric covariance matrix (totally nine parameters which represent each polarisation power, polarimetric coherence, and polarimetric phase difference), and other is based on Cloude?s polarimetric decomposition (totally three parameters which characterize the target?s backscattering mechanism). A feature reduction technique based on maximum noise fraction (MNF) transformation is then applied to these features to obtain most pertinent information and remove any redtmdant and other irrelevant information.
Classification stage is then performed using fuzzy maximum likelihood estimation (FMLE) clustering algorithm. FMLE algorithm allows for ellipsoidal clusters of arbitrary extent and is consequently more flexible than standard fuzzy K-means clustering algorithm. However, basic FMLE algorithm makes use exclusively the spectral (or intensity) properties of the individual pixel vectors and spatial-contextual information of the image was not taken into account. Hence, poor (noisy) classification result is usually obtained liom SAR data due to t.he presence of speckle noise. In this study, we propose a modified FMLE which integrate basic FMLE (pixel-by-pixel basis) clustering result with spatial-contextual information by statistical analysis of local neighborhoods and additional context-depend support information exploited using clustering result analysis of wavelet-based decomposed feature images.
The proposed method has been tested on E-SAR polarimetric data acquired on the area of Penajam, East Kalirnantan and ALOS-PALSAR polarimetric data acquired on the area of Lumajang, East Java, Indonesia. Results obtained show classified images improving land-cover discrimination perfomiance, exhibiting homogeneous region, and preserving edge and other fine structures.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
D989
UI - Disertasi Open  Universitas Indonesia Library
cover
Alexander Agung Santoso Gunawan
"ABSTRAK
Pelacakan objek secara visual adalah proses melokalisasi terus menerus entitas visual pada suatu urutan video. Disertasi ini menyelidiki masalah short-term model-free tracking yang mempunyai tujuan utama untuk melacak sembarang objek berdasarkan satu kotak anotasi dari objek dan oleh karena itu disebut sebagai model-free. Short-term di sini berarti bahwa pelacak tidak melakukan deteksi ulang setelah target menghilang dalam pelacakan. Banyak faktor yang mempengaruhi kinerja algoritma pelacakan. Dalam Visual Tracker Benchmark, terdapat sebelas tantangan dalam pelacakan objek, yaitu: variasi iluminasi, variasi skala, oklusi, deformasi, blur, gerakan yang cepat, in-plane rotation, out-of-plane rotation, keluar dari pandangan, latar belakang yang kusut, dan resolusi yang rendah. Selama ini belum ada satu pelacak yang berhasil menangani semua skenario tersebut dengan kokoh robust . Selain itu, implementasi dari pelacak ini harus cukup cepat fast agar berguna dalam aplikasi nyata. Disertasi ini mengusulkan algoritma pelacakan yang baru dalam kerangka Bayesian. Algoritma yang diusulkan dikonstruksi dengan memecahkan optimal particle filter OPF secara efisien menggunakan metode spektral. Oleh karena itu, pelacak yang dikonstruksi disebut sebagai spectral tracker ST . Walaupun pelacak ini dapat melakukan komputasi posisi secara efisien, tetapi tidak dapat mengestimasi skala dan rotasi. Untuk mengatasi kelemahan ini, diusulkan penggunaan banyak titik observasi sekaligus dan menggunakan informasi pergerakan titik-titik observasi ini untuk mengestimasi skala dan rotasi. Selanjutnya dilakukan eksperimen untuk melihat pengaruh pra-pemrosesan citra meliputi warna, tekstur dan saliensi pada kinerja pelacakan dengan membangun 6 variasi model observasi dari pelacak ST. Akhirnya, kinerja variasi pelacak ST ini dibandingkan dengan 9 pelacak pembanding yang relevan pada 100 himpunan data. Hasil secara keseluruhan terdapat sebuah peningkatan unjuk kerja terutama dalam hal kekokohan dan kecepatan. Tetapi pada evaluasi yang lebih rinci dalam menghadapi 11 tantangan, ternyata pendekatan yang berbeda dari setiap pelacak ternyata menghasilkan unjuk kerja yang berlainan dalam menghadapi setiap tantangan tersebut.

ABSTRACT
Visual object tracking is the process of continuously localizating a visual entity or visual entities in a video sequence. This dissertation investigates short term model free tracking which the main purpose is tracking of arbitrary objects based on a single bounding box annotation of the object, which then called as model free. The short term tracking means that the tracker does not perform re detection after the target is lost. Numerous factors affect the performance of a tracking algorithm. In Visual Tracker Benchmark, there are eleven main tracking challenges, including illumination variation, scale variation, occlusion, deformation, motion blur, fast motion, in plane rotation, out of plane rotation, out of view, background clutters, and low resolution. There exists no single robust tracker that successfully handles all scenarios nowadays. Moreover, the implementation of tracker should be fast enough to be useful in real applications. We propose a novel algorithm based on Bayesian paradigm that works in frequency domain and exploits spectral method for solving optimal particle filter scheme in Bayesian framework. Therefore the tracker is called as spectral tracker ST . In order to able to estimate scaling and rotation, we modify the tracker to use multiple observation points. Futhermore, several experiments is done to see impact of observation model by manipulating image in color, texture and saliency. As result, we design six variation of spectral tracker based on the observation model. Finally, the performance of the tracker is compared with other relevant trackers on benchmark dataset sequences. An improvement over state of the art methods is achieved, in term of robustness and speed. Nevertheless, the evaluation of eleven tracking challenges shows that different approaches of tracker have unique performance in each challenge. "
2016
D-Pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Erdefi Rakun
"ABSTRAK
SIBI merupakan bahasa isyarat resmi bagi penyandang tunarungu di Indonesia. Dalam pembentukan isyarat, SIBI mengikuti aturan tata bahasa Indonesia. Untuk membentuk isyarat kata berimbuhan, maka isyarat imbuhan awalan, akhiran dan partikel ditambahkan ke isyarat kata dasar. Karena banyak isyarat SIBI merupakan isyarat kata berimbuhan dan belum ada penelitian tentang kata tersebut, maka penelitian ini fokus pada membangun sistem penerjemah kata berimbuhan SIBI ke teks. Gerakan isyarat ditangkap oleh kamera Kinect yang menghasilkan data color, depth dan skeleton. Data Kinect ini diolah menjadi fitur yang dipakai oleh model untuk mengenali gerakan. Sistem penerjemah memerlukan teknik ekstraksi fitur, yang dapat menghasilkan sebuah feature vector set dengan ukuran yang minimal. Penelitian ini berusaha untuk dapat memisahkan isyarat imbuhan dan kata dasar pada isyarat kata berimbuhan. Dengan kemampuan ini, sistem penerjemah menghasilkan 3 feature vector set: kata dasar, awalan dan akhiran. Tanpa pemisahan, feature vector set yang harus disediakan adalah sebanyak perkalian cartesian dari ketiga feature vector set tersebut. Perkalian ketiga set ini tentunya akan menghasilkan feature vector set total yang berukuran sangat besar. Model yang dicoba pada penelitian ini adalah Conditional Random Fields, Hidden Markov Model, Long Short-Term Memory Neural Networks LSTM dan Gated Recurrent Unit. Akurasi yang terbaik yang dicapai oleh untuk LSTM 2-layer 77.04 . Keunggulan dari LSTM terletak pada inputnya yang berupa sequence-of-frames dan setiap frame direpresentasi oleh fitur lengkap, bukan fitur hasil clustering. Model sequence-of-frames lebih cocok untuk SIBI, karena gerakan isyarat SIBI memiliki long-term temporal dependencies. Error hasil prediksi banyak terjadi pada kelompok awalan dan akhiran. Hal ini karena miripnya gerakan pada isyarat-isyarat imbuhan SIBI tersebut. LSTM 2-layer yang dipakai untuk mengenali kata dasar saja memberikan akurasi yang tertinggi 95.4 .

ABSTRACT
SIBI is the official sign language system for the Indonesian language. The formation of SIBI gestures follow Indonesian grammar rules, including inflectional words. Inflectional words are root words with prefixes, infixes, and suffixes, or a mix of the three. Inflectional gestures are made from root word gestures, with prefix, suffix and particle gestures added in the order in which they appear, all of which is unique to SIBI. This research aims to find a suitable model that can quickly and reliably perform SIBI to text translation on inflectional word gestures. The hand movement of the signer is captured by a Kinect camera. The Kinect data was then processed to yield features for the models to use recognize the gestures. Extant research have been able to translate the alphabet, root words, and numbers from SIBI to text, but none has been able to translate SIBI inflectional word gestures. In order for the translation system to work as efficiently as possible, this research developed a new method that splits an inflectional word into three feature vector sets root, prefix, suffix . This ensures that a minimally descriptive feature sets are used. Without using this, the feature sets would otherwise be as big as the Cartesian product of the prefixes, suffixes and root words feature sets of the inflectional word gestures. Four types of machine learning models were tested Conditional Random Fields, Hidden Markov Model, Long Short Term Memory Net, dan Gated Recurrent Unit. The 2 layer LSTM, with an accuracy of 77.04 , has been proven to be the most suitable. This model 39 s performance is due to the fact that it can take entire sequences as input and doesn 39 t rely on pre clustered per frame data. The 2 layer LSTM performed the best, being 95.4 accurate with root words. The lower accuracy with inflectional words is due to difficulties in recognizing prefix and suffix gestures."
2016
D2244
UI - Disertasi Membership  Universitas Indonesia Library
cover
Laode Mohammad Rasdi Rere
"ABSTRAK
Dalam beberapa tahun terakhir, Deep Learning DL telah menarik banyak perhatian dalam penelitian pemelajaran mesin. Metode ini telah berhasil dipakai untuk berbagai aplikasi pada pemrosesan suatu, robotika, pengenalan fonetik, pencarian informasi dan bahkan analisa molekul. Meskipun DL telah berhasil sukses untuk diterapkan dalam berbagai bidang aplikasi, training yang diperlukan pada metode ini tidaklah mudah. Sejumlah cara telah diusulkan untuk membuat proses training DL menjadi lebih optimal, beberapa diantanya dengan menambahkan proses pre-training, memutuskan beberapa jaringan dalam lapisan, ataupun mengganti fungsi aktivasi dan metode gradien standar yang dipergunakan. Disertasi ini menggunakan pendekatan lain dalam optimasi DL, yaitu memakai algoritme metaheuristik. Secara umum disertasi ini dibagi dalam dua bagian besar. Bagian pertama adalah studi awal penelitian yang difokuskan pada beberapa eksperimen yang berkaitan dengan algoritme metaheuristik dan aplikasi DL dalam klasifikasi citra. Bagian kedua dari disertasi berkaitan dengan penerapan algoritme metaheuristik dalam DL. Hasil pada bagian ini misalnya untuk optimasi metode Convolutional Neural Nework CNN menggunakan dataset CIFAR10, diperoleh untuk Top-1 error pada validasi adalah 99,05 . Hasil ini lebih baik dari nilai akurasi CNN asli sebesar 88,21 , fine-tuning CNN menggunakan Harmony Search yang diusulkan G. Rosa dkk sebesar 78,28 , dan bahkan State of the art saat ini sebesar 96,53 dengan Fractional Max-Pooling.

ABSTRACT
In recent years, deep Learning DL has drawn many attention in machine learning research. This method has been successfully used in various applications, such as sound process, robotics, phonetic identification, information retrieval, and even molecule analysis. Although DL has been successful to be applied in many fields, it is difficult to train in this method. Various attempts and methods has been proposed to make the DL training process become more optimum, some of them are by adding pre training process, drop out some networks in the layer, or by replacing activation function and standard gradient method being used. This dissertation takes another way to optimize a DL, i.e. using metaheuristic algorithms. Overall, this dissertation will be divided into two main parts. The first part is a preliminary study of research, focusing on several experiments which were related to the metaheuristic algorithm and DL application in image classification. The second part of this dissertation is related to application of metaheuristic algorithm in DL. The results in this part, for example, the optimization of CNN method using CIFAR10 dataset for Top 1 error in validation is 99.05 . This result is higher than the accuracy level from original CNN 88,21 , fine tuning CNN using Harmony Search suggested by G. Rossa et.al 78.28 , and even ldquo State of the art rdquo right now using Fractional Max Pooling 96.53 "
2017
D-Pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Intan Nurma Yulita
"ABSTRAK
Kurangnya melatonin pada anak-anak dengan Autisme menyebabkan mereka sulit tidur dibandingkan dengan anak-anak lain. Akibatnya, masalah gangguan tidur ini meningkatkan perilaku menyimpang anak-anak dengan autisme. Polisomnografi menjadi salah satu alternatif yang dapat dilakukan untuk mendiagnosis gangguan tidur mereka. Untuk mengatasi masalah ini, kami mengembangkan sistem yang dapat secara otomatis mengklasifikasikan tahap tidur. Penelitian ini juga mengusulkan metode baru untuk klasifikasi tahap tidur, yang disebut metode FastConvolutional. Metode yang diusulkan dievaluasi terhadapdataset yang dikumpulkan di Rumah Sakit Mitra Keluarga Kemayoran, Indonesia. Berdasarkan penelitian yang telah dilakukan, FastConvolutional memiliki kinerja terbaik dibandingkan dengan semua classifier untuk dataset Autisme. F-measure -nya adalah 51,33 . Metode FastConvolutional bekerja dengan baik pada dataset yang diuji. Metode ini mencapai hasil dengan F-measure yang tinggi dan running time yang efisien. Dengan demikian, metode ini dapat menjadi classifier yang menjanjikan untuk klasifikasi tahap tidur.

ABSTRACT
A lack of the melatonin in children with Autism causes them difficult to sleep compared with other children. As a result, the sleep disorder increases the deviant behavior of children with Autism. Polysomnography becomes one of the alternatives that can be done to diagnose their sleep disorders. To overcome this problem, we developed a system that can automatically classify sleep stages. This study also proposes a new method for sleep stage classification, called the FastConvolutional method. The proposed method was evaluated against a sleep datasets that were collected in Mitra Keluarga Kemayoran. Based on research that has been done, the FastConvolutional had the best performance compared to all the classifier for Autism dataset. Its F-measure was 51.33 . The FastConvolutional method worked well on the tested datasets. It achieved a high F-measure result and an efficient running time. Thus, it can be considered a promising tool for sleep stage classification. "
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2018
D2489
UI - Disertasi Membership  Universitas Indonesia Library
cover
Derwin Suhartono
"ABSTRAK
Argumentation mining merupakan bidang penelitian yang berfokus pada kalimat dengan tipe argumentasi. Kalimat argumentasi sering digunakan pada komunikasi sehari-hari serta memiliki peran penting pada setiap proses pengambilan keputusan atau kesimpulan. Tujuan penelitian ini adalah untuk melakukan observasi mengenai pemanfaatan deep learning dengan mekanisme atensi pada anotasi dan analisa kalimat argumentasi.Anotasi argumentasi merupakan pengelompokan komponen argumen dari sebuah wacana ke dalam beberapa kelas. Kelas didefinisikan menjadi 4, yaitu major claim, claim, premise dan non-argumentative. Analisa argumentasi mengarah kepada karakteristik dan validitas argumentasi yang tersusun pada topik tertentu. Salah satu bentuk analisa adalah penilaian apakah argumentasi yang dibentuk sudah terkategori sufficient atau belum. Dataset yang digunakan untuk anotasi dan analisa argumentasi adalah 402 esai persuasif. Dataset ini juga ditranslasikan ke dalam Bahasa Indonesia untuk memberikan gambaran bagaimana model bekerja pada bahasa lain.Beberapa model deep learning, diantaranya CNN Convolutional Neural Network , LSTM Long Short-Term Memory , dan GRU Gated Recurrent Unit digunakan untuk anotasi dan analisa argumentasi sedangkan HAN Hierarchical Attention Network hanya digunakan untuk analisa argumentasi. Mekanisme atensi ditambahkan pada model sebagai pemberi weighted access untuk performa yang lebih baik. Classifier yang digunakan adalah fully connected layer dan XGBoost.Dari eksperimen yang dilakukan, integrasi deep learning dengan mekanisme atensi untuk anotasi dan analisa kalimat memberikan hasil yang lebih baik dari penelitian sebelumnya.

ABSTRACT
Argumentation mining is a research field which focuses on sentences in type of argumentation. Argumentative sentences are often used in daily communication and have important role in each decision or conclusion making process. The research objective is to do observation in deep learning utilization combined with attention mechanism for argument annotation and analysis.Argument annotation is argument component classification from discourse to several classes. Classes include major claim, claim, premise and non-argumentative. Argument analysis points to argumentation characteristics and validity which are arranged in one topic. One of the analysis is how to assess whether an established argument is categorized as sufficient or insufficient. Datased used for argument annotation and analysis is 402 persuasive essays. This data is translated to Bahasa as well to give overview about how does it work with other language.Several deep learning models such as CNN Convolutional Neural Network , LSTM Long Short-Term Memory , and GRU Gated Recurrent Unit are utilized for argument annotation and analysis while HAN Hierarchical Attention Network is utilized only for argument analysis. Attention mechanism is combined with the model as weighted access setter for a better performance. The classifiers are fully connected layer and XGBoost.From the whole experiments, deep learning and attention mechanism integration for argument annotation and analysis arrives in a better result compared with previous research."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2018
D2502
UI - Disertasi Membership  Universitas Indonesia Library
<<   1 2   >>