Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 25 dokumen yang sesuai dengan query
cover
Amalia Zahra
Abstrak :
Dengan adanya internet, media televisi, dan radio, data yang tersedia sangat banyak, termasuk data suara. Oleh karena itu, dibutuhkan suatu cara untuk mengorganisasikannya, yakni dengan mengubah data suara menjadi teks terlebih dahulu. Pengolahan selanjutnya cukup dilakukan terhadap teks. Proses konversi data suara menjadi teks inilah yang dikenal dengan sistem pengenalan suara (SPS) otomatis. Saat ini, SPS untuk berbagai bahasa di dunia telah berkembang pesat, seperti Bahasa Inggris, Perancis, Jepang, Thai, dan lain-lain, sedangkan penelitian SPS untuk Bahasa Indonesia sudah dimulai, namun masih dalam tahap awal. Adanya kebutuhan akan SPS dan perkembangan SPS bahasa lain yang pesat memotivasi penulis untuk melakukan penelitian SPS untuk Bahasa Indonesia. Fokus penelitian ini adalah pembuatan model akustik yang berkaitan erat dengan kamus fonetik yang digunakan. Oleh karena itu, penulis melakukan eksperimen menggunakan enam jenis kamus fonetik, yaitu IPA, SAMPA, ARPABET, Lestari [LEST06], Sakti [SAKT08], dan kamus yang dikembangkan oleh penulis (kamus Zahra). Eksperimen terbagi menjadi dua proses besar, yaitu pelatihan, dengan menggunakan 1.000 data suara rekaman telepon, dan pengujian terhadap 250 data suara rekaman telepon. Hasil eksperimen menunjukkan bahwa akurasi SPS tertinggi diperoleh saat menggunakan kamus Zahra, yakni sebesar 73,5%. Dengan menggunakan kamus fonetik yang sama, pengujian terhadap 100 berkas rekaman berita RRI menghasilkan akurasi maksimum sebesar 71,6% dengan OOV (Out of Vocabulary) sebesar 8,92%. Kamus tersebut merupakan kamus fonetik yang paling tepat untuk mendefinisikan bunyi dalam Bahasa Indonesia, dengan total simbol yang digunakan adalah 33 simbol.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2008
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Yogi Kurnia
Abstrak :
Algoritma data mining membutuhkan sumber data yang berkualitas untuk mendapatkan hasil yang optimal. Kualitas sumber data dapat ditingkatkan kualitasnya dengan menggunakan teknik preprosessing data yang tepat. Kemampuan dalam menampilkan output dari proses data mining yang mudah dimengerti sangat penting untuk mendapatkan pengetahuan. Penelitian ini bertujuan untuk mengembangkan aplikasi yang bisa menjawab kebutuhan dari algoritma data mining. Hasil dari penelitian ini adalah aplikasi yang dapat melakukan keseluruhan proses baik preprocessing data dalam hal pemilihan data dan pengolahan data awal, penyediaan metadata, sampai dengan analisis data menggunakan algoritma data mining. Sehingga, analisis jumlah data yang besar dapat dilakukan dengan efisien dan efektif, tetapi hasil prediksi yang didapatkan tetap optimal.
Data mining algorithms require high quality data sources to obtain optimal results. Quality of data sources can be enhanced by using appropriate data preprocessing techniques. Ability to display easily understood output of the data mining process is essential to gain knowledge. This study aims to develop applications that can address the needs of data mining algorithms. The results of this study is an application that can do the whole steps from data preprocessing until data analysis using data mining algorithms. Data processing itself includes data and preliminary data processing and provision of metadata.. So, analyzing large amount of data can be done in efficient and effective fashion without disregarding necessary need of optimal prediction result.
Depok: Universitas Indonesia, 2012
S43461
UI - Skripsi Open  Universitas Indonesia Library
cover
Ary Noviyanto
Abstrak :
Masalah identifikasi hewan merupakan masalah yang penting untuk melakukan fungsi registrasi dan traceability demi keamanan dan ketahanan produk hewani. Penggunaan penanda buatan untuk hewan merupakan langkah paling mungkin untuk saat ini walaupun disisi lain telah dibuktikan bahwa memiliki banyak keterbatasan. Penggunaan Biometrik hewan memberikan solusi terhadap batasan-batasn tersebut. Investigasi telah dilakukan beberapa peneliti terhadap metode identifikasi berbasis biometrik hewan walaupun masih ada kekurangan-kekurangan. Biometrik hewan yang digunakan adalah citra pola moncong dan wajah. Biometrik pola moncong dan wajah telah didapatkan dari Sapi Bali dan Sapi Peranakan Ongole. Pemilihan biometrik ini didasarkan pada peluang penelitian dan pengambilan data yang terbilang murah. Pendekatan SIFT pada data pola moncong pada kertas menghasilkan performa yang secara signifikan lebih baik dibandingkan dua penelitian sebelumnya dan metode perbaikan pencocokan yang diusulkan telah dapat meningkatkan performa dari hasil identifikasi menggunakan original SIFT. Pendekatan SURF dengan pengukuran kecocokan yang diusulkan pada data foto pola monconng menghasilkan hasil yang stabil dan lebih baik dari pada pendekatan sebelumnya. Penggunaan metode penggabungan dua sumber ciri biometrik dengan memperhatikan nilai derajat kepercayaan dan nilai voting meningkatkan performa dari sistem biometrik bersumber tunggal. Berdasarkan hasil eksperimen yang telah didapatkan, penggunaan biometrik hewan sebagai alat identifikasi otomatis sangat menjanjikan walaupun masih banyak hal yang harus diteliti dan dikembangkan.
The cattle identification problem is an important issue in a cattle registration and traceability in order to fulfill the security and resilience cattle's products. The usage of artificial marker was a feasible mean for identification although it had a several limitations. The animal biometric gives the solution of this limitations. Several investigations related with issues of identification based on biometric have been done although still have problems. The biometrics used in this research are muzzle pattern and face photo. The muzzle and face biometric of cattle have been collected from Balinese Cow and Hybrid Ongole Cow. The choice of muzzle and face biometric is because of the research opportunities and a relatively cheap way in the data gathering. The SIFT approach in the muzzle pattern lifted on paper data has shown a significantly better performance than the two previous research and the proposed matching refinement has increased the performance of the identification result. The SURF approach using proposed similarity measurement in the muzzle pattern photo has provided a stable result and also a better result than the previous approach. The proposed biometric fusion using the degree of confidence and voting value has increased the performance of the unimodal biometric system. Based on the experiment results, the automatic identification based on animal biomatrics has a promising result although there are many things that have to be investigated and developed next.
Depok: Universitas Indonesia, 2013
T32135
UI - Tesis Membership  Universitas Indonesia Library
cover
Andry Sunandar
Abstrak :
Telah dilakukan penelitian terhadap pengembangan algoritma FNGLVQ sehingga memiliki karakteristik adaptif terhadap data input sehingga besaran perubahan vektor referensi memiliki besaran nilai yang adaptif. Karakteristik adaptif didapatkan dengan melakukan modifikasi terhadap perubahan update bobot dengan melakukan penurunan fungsi keanggotaan fuzzy tidak hanya terhadap parameter mean (yang dilakukan pada FNGLVQ awal) namun penurunan dilakukan terhadap kedua nilai min dan max sehingga besaran perubahan nilai min dan max akan bervariasi (tidak konstan seperti FNGLVQ) yang tergantung dari besaran input yang digunakan. Karakteristik ini dapat meningkatkan akurasi dalam percobaan dalam ketiga jenis data, yakni data EKG Aritmia, data pengenalan Aroma dengan 3 campuran, serta data Sleep secara keseluruhan, namun perbedaan nilai akurasi terbesar didapatkan dari pengujian data pengenalan aroma 3 campuran. Pengembangan karakteristik adaptif terhadap algoritma FNGLVQ dilakukan dengan kedua jenis fungsi keanggotaan yakni fungsi keanggotaan segitiga dan fungsi keanggotaan PI, dan FNGLVQ adaptif dengan fungsi keanggotaan PI sedikit lebih baik dibandingkan FNGLVQ adaptif dengan fungsi keanggotaan segitiga. ......This research has been conducted on the development of FNGLVQ algorithms which have adaptive characteristics to the input data so that the amount of change in the reference vector has a magnitude of adaptive value. Adaptive characteristics are obtained by modifying the update changes the weight by doing a fuzzy membership function derivation. This is not only performed on the parameters of the mean (which is done at the beginning FNGLVQ) but they are derivated to both min and max values so that the amount of change in the weight and is continued with min and max values will vary (not constant as in the case of FNGLVQ) which in turn depends on the amount of inputs used. These characteristics may increase the accuracy of the experiment in all three types of data, including data Arrhythmia ECG, data recognition Aroma with 3 mix, as well as overall Sleep data, but the biggest difference is the accuracy of values which have obtained from the test for 3 mixed aroma data recognition. Development of adaptive characteristics of the algorithm FNGLVQ has been performed with both types of membership functions namely triangular membership functions and PI membership functions, and FNGLVQ PI adaptive membership functions has been found to be slightly better than FNGLVQ adaptive triangular membership functions.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2013
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
I Putu Satwika
Abstrak :
Alat Ultrasonografi (USG) merupakan alat yang paling sering digunakan untuk melakukan pemeriksaan janin dalam kandungan. Hal ini dikarenakan selain mampu memberikan gambaran terhadap keadaan janin dengan baik, alat ini bebas dari radiasi ionisasi sehingga tergolong aman. Penelitian ini bertujuan untuk mengembangkan metode yang mampu melakukan proses deteksi dan pengukuran biometri janin secara otomatis khususnya biometri kepala janin. Adapun biometri tersebut adalah head circumference (HC) dan biparietal diameter (BPD) yang merupakan salah satu parameter yang sering digunakan oleh dokter untuk mengetahui umur serta pertumbuhan janin dalam kandungan. Kedua biometri ini dapat diukur dengan melakukan aproksimasi terhadap bentuk elips. Untuk melakukan proses ini maka diperlukan tahapan dimulai dengan melakukan segmentasi citra dengan teknik thresholding. Selanjutnya dilakukan proses deteksi menggunakan metode Particle Swarm Optimization (PSO) dengan memanfaatkan fitness function yang diperoleh dari hasil vote menggunakan metode Randomized Hough Transform (RHT). Hasil pengukuran oleh sistem dibandingkan dengan hasil pengukuran secara manual oleh pakar. Uji coba juga dilakukan terhadap data sintetis dengan density noise 0,1 hingga 0,7. Dari hasil eksperimen diperoleh bahwa metode yang dikembangkan lebih baik daripada metode RHT, IRHT dan mEPSOHT untuk melakukan deteksi elips pada citra tersebut. Hasil eksperimen terhadap data sebenarnya yaitu USG 2D kepala janin diperoleh hasil rata-rata nilai hit dari metode yang dikembangkan lebih tinggi daripada metode lainnya namun hasil interrun dan interobserver variation tidak lebih baik dari metode lainnya. Hal ini dikarenakan metode yang dikembangkan lebih cenderung untuk terjebak pada local best dan tidak selalu tepat untuk melakukan deteksi pada citra kepala janin. ...... The application in ultrasonography (USG) is a tool that most often used to examine fetus in the womb. At this study will perform image processing on biomedical images especially for fetus in the womb using two dimensional ultrasound device (USG 2D). The aim of this study is to develop a system that is capable to perform detection and measurement of fetal biometry automatically. The biometric used in this research consists of head circumference (HC) and biparietal diameter (BPD) analysis. BPD and HC are parameters which are often used by doctors to determine the state of the fetus in the womb. Both biometric parameters can be measured by performing an approximation of the elliptical shape. To do this process, it is necessary to start from segmentation images by thresholding techniques. After preprocessing is completed then the next stage of the detection process is carried out by using Particle Swarm Optimization (PSO). PSO fitness function is obtained from voting in Randomized Hough Transform (RHT) method. The measurement results by proposed method are then compared with the results obtained manually by experts. A trial has also been conducted on the synthetic data with noise density 0.1 to 0.7. Experiment results show that the proposed method is better than the other methods e.g. RHT, mEPSOHT and IRHT in detecting ellipse. Further trials have been conducted on actual data i.e. 2D ultrasound fetal head data. From the experiement we have found that the average hit value of our proposed method is higher than other methods. However, the results of interrun and interobserver variation are not better than others. This is because our developed method is more likely to be trapped in local best and doest not always correctly detect ellipse of the fetal head images.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Teny Handhayani
Abstrak :
Integrasi data gene expression dan DNA copy number berbasis kernel digunakan untuk menganalisis pola gen pada penyakit kanker payudara cell line. Clustering pada data integrasi dilakukan tanpa adanya informasi jumlah k cluster, teknik ini disebut fully unsupervised clustering. Pada penelitian ini, intelligent kernel K-Means dikembangkan dengan menggabungkan teknik intelligent K-Means dan kernel K-Means. Berdasarkan hasil eksperimen, nilai pada kernel RBF mempengaruhi jumlah cluster yang ditemukan. Hasil clustering dievaluasi menggunakan nilai R, global silhouette, indeks Davies-Bouldien, akurasi LS-SVM dan visualisasi. Hasil esperimen terbaik yaitu 3 cluster yang memperoleh akurasi LS-SVM sebesar 97.3% dengan standar deviasi 0.2%.
In this thesis, kernel based data integration of gene expression and DNA copy number would be utilized to analyze pattern of genes in breast cancer cell line. The cluster analysis on the integrated data will be conducted with has no prior information with regards the number of k clusters which is called fully unsupervised clustering technique. In this work, intelligent kernel K-Means is proposed by combining intelligent K-Means and kernel K-Means. From the experiments, the value of of Radial Basis Function (RBF) has important role for finding the optimal of number of cluster. The clusters those to be found will be evaluated based on global silhouette, Davies-Bouldien Index, LS-SVM accuracy and visualization. The experiment result show that three clusters are successfully to be found. Those clusters produce average accuracy of LS-SVM around 97.3 % with standard deviation 0.2 %.
Depok: Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Eka Puji Widiyanto
Abstrak :
ABSTRAK
Elektrokardiogram (EKG) merupakan mekanisme yang dipergunakan untuk melakukan pemeriksaan kondisi jantung. EKG menghasilkan sinyal listrik yang menggambarkan aktivitas jantung. Penelitian ini akan melakukan pengolahan data EKG yang diambil secara langsung dari pasien sehingga siap untuk ditransmisikan. Untuk mengoptimalkan prosesnya maka data yang dikirimkan dikompresi sedemikian rupa tanpa mendistorsi informasi aslinya. Penelitian sebelumnya mengindikasikan bahwa untuk mencapai rasio kompresi optimal maka sinyal harus disusun sedemikian rupa sehingga menghasilkan regularitas yang tinggi. Akuisisi data dilakukan dengan ADC 24 bit, dilanjutkan penghilangan derau dan ekstraksi beat menggunakan teknik Multi Resolution Wavelet Analysis dengan Lifting Scheme dan normalisasi data. Pengurutan berbasis normalized cross correlation dilakukan sehingga diperoleh data dengan koefisien wavelet yang regularitasnya optimal. Hasil pengujian pada 10 record dari St. Petersburg INCART 12-lead Arrhythmia Database (incartdb) – PhysioNet menunjukkan bahwa penggunaan metode sorting ini dapat menurunkan distorsi sinyal hasil kompresi dengan rerata 3,76% dan perbedaan amplitudo sebesar 0,03mV dibandingkan tanpa sorting pada kompresi sinyal yang tinggi. Simplisitas metode yang dikembangkan memungkinkan implementasi pada platform embedded dengan kapabilitas komputasi yang terbatas.
ABSTRACT
Electrocardiogram (ECG) is common mechanism to monitor heart activity in form of electrical waveform. This research will process ECG signal directly from patient and process it to be ready for transmission. For optimum transmission, signal compression must be done with minimum original information distortion. And to achieve optimum compression rate, high signal regularity is a must. Data acquisition for the system is realized with 24 bit high resolution ADC, continued with noise elimination and beat extraction using Multi Resolution Wavelet Analysis with Lifting Scheme to achieve fast operation cycle. Periode normalization is implemented to the clean signal. Clean normalized signal is sorted using normalized cross correlation method to achieve optimum regularity signal in its wavelet coefficient. Test result on 10 records from St. Petersburg INCART 12-lead Arrhythmia Database (incartdb) – PhysioNet shows that the implemented sorting method can decrease reconstructed signal distortion by mean of 3.76% with amplitude difference of 0.03mV compare to its unsorted form in high compression ratio. The method simplicity offering efficient implementation on embedded system with minimum computation and resources capability.
2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Derry Alamsyah
Abstrak :
ABSTRAK
Pada penelitian ini, penulis mencoba merealisasikan sistem pelacakan ujung-ujung jari yang diperuntukan untuk interaksi yang lebih baik antara manusia dan komputer serta untuk membantu penangkapan gerak jemari tangan guna pembuatan animasi 3D. Pelacakan posisi ujung-ujung jari dilakukan dalam dua proses terpisah yakni: (1) pelacakan posisi dua dimensi (2D) vertical dan horizontal atau posisi (, ) dari citra RGB (red, green, blue); (2) pelacakan dimensi ketiga yaitu () dari citra kedalaman atau depth images yang dikalibrasi, yang kemudian disatukan kedalam pelacakan posisi tiga dimensi (, , ) menggunakan Particle Filter (PF). Posisi 2D atau (, ) ditemukan dengan cara menghitung Convex Hull 2D dari citra hasil binerisasi citra asli. Sedangkan posisi 3D ditentukan menggunakan metode Stephane-Magnenat dari citra kedalaman. Setelah itu, masing-masing ujung jari dilacak oleh beberapa pelacak PF secara simultan dengan teknologi multithreading. Untuk menguji efektifitas sistem yang dikembangkan penulis membuat modul grafika tangan 3D untuk mensimulasikan gerakan tangan hasil pelacakan. Hasil pelacakan ujung-ujung jari ini kemudian juga digunakan untuk mensimulasikan kontrol pembesaran (zoom-in) dan pengecilan (zoom-out) yang banyak dilakukan pada interaksi manusia dengan televisi maupun perangkat tablet melalui pembesaran dan pengecilan objek sederhana seperti bola dengan gerakan jemari tangan. Selain itu, penulis juga mengukur tingkat akurasi, overhead waktu komputasi, dan kemampuan untuk beradaptasi terhadap halangan atau occlusion dalam beberapa skenario eksperimen. Penanganan occlusion dilakukan dengan memprediksi gerakan jari menggunakan suatu model linier. Hasil dari penelitian ini menunjukan bahwa PF merupakan metode yang baik dalam melacak yaitu ditunjukan dengan rata-rata error yang rendah, kurang dari 2. Kemudian untuk penangan occlusion didapat rata-rata error kurang dari 3. Selain itu, Kemampuan sistem baik, yaitu dalam merealisasikan informasi pelacakan ujung jari kedalam animasi tangan 3D dan antar muka alami sederhana sebagai uji kasus ditunjukan dengan kemampuan menirukan gerakan tangan dan dalam mengontrol operasi zoom in/out.
ABSTRACT
This research tried to realize a fingertips tracking system for better interaction between human and computer as well as to assist fingers motion capture for 3D animation building. Fingertips tracking performed in two separate ways, they are: (1) fingertips tracking in 2D horizontal and vertical (x, y) position in RGB (red, green, blue) image. (2) tracking in 3rd dimension (z) from calibrated depth image, then incorporated in 3D using particle filter (PF). 2D position is found by computing 2D convex hull from extracted binary image. other, found by Stephane Magnenat approach in depth image. After that, each fingertips is tracked by several PF at once with multithreading technology. To test the effectiveness of developed system, 3D hand graphic module is applied to simulate tracked hand motion. Then, tracked fingertips is applied to simulate scale control such as zoom in/out process commonly done in interaction between human and television or tablet through simple scaling object at ball using fingertips. In addition, accuracy, time overhead and occlusion handling is added in several scenario. Occlusion handling is performed by predicting fingertip motion in linier model. The result, PF is reliable method in tracking shown at low average error, less from 2. Then in occlusion handling, obtained average error less from 3. Moreover, System ability is reliable in realizing fingertips tracking information into 3D hand animation and simple natural user interface (NUI) as case study in this research, shown by proper system motion copy and scaling object abilities.
2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Indra Hermawan
Abstrak :
Tidur merupakan suatu kondisi istirahat alami yang dialami tubuh yang sangat penting bagi kesehatan. Dengan waktu tidur yang tercukupi maka kondisi tubuh akan selalu segar karena pada saat tidur tubuh kita melakukan regenerasi terhadap sel-sel tubuh yang telah rusak ataupun mati. Namun hal tersebut tidak akan tercapai apabila kualitas tidur tidak baik. Penelitian pengenai pengukuran kualitas tidur hingga kini masih dilakukan. Salah satunya adalah penelitian yang dilakukan tim peneliti dari Fakultas Ilmu Komputer, Universitas Indonesia. Pengukuran kualitas tidur dilakukan dengan melakukan pengenalan tahapan tidur berdasarkan sinyal Elektrokardiogram (EKG). Karakteristik data yang overlaping dan distribusi data yang menyebar masih mejadi permasalahan utama pada pengenalan tahapan tidur. Dalam penelitian ini, dikembangkan sebuah algoritma Adaptive Multi Codebook Fuzzy Neuro Generalize Learning Vector Quantizatio (AMFNGLVQ) untuk mengatasi data yang overlaping dan distribusi yang menyebar. Berdasarkan hasil pengujian, metode yang diusulkan memiliki tingkat akurasi dan nilai kappa yang lebih baik. Berdasarkan hasil pengujian, metode yang diusulkan mampu memperbaiki tingkat pengenalan dengan kenaikan 2% hingga 3 % untuk data Mitra dan 0.5% hingga 1.5% untuk data MIT-BIH. Sedangkan untuk pengujian menggunakan seluruh data Mitra kenaikan rata-rata tingkat akurasi mencapai 3% hingga 7%.
Sleep is a natural experienced condition by the body for relaxation, that is very essential for health. If the sleep time has been adequate, the body condition will always be fresh because our body can regenerate the body cells to maintain health. However, that condition will not be achieved if the quality of our sleep is not good. Research on sleep quality measurement is still progressing. One study is by a team of researchers from the Faculty of Computer Science, University of Indonesia. In this study, an Adaptive Neuro Fuzzy Multi Codebook Generalized Learning Vector Quantization (AMFNGLVQ) algorithm has been developed to overcome the data overlapping and distribution spread problems. Sleep quality measurement is done by identifying sleep stages based on electrocardiogram (ECG) signal. Data Overlapping and distribution spreads are still the main problems in identifying sleep stages. Based on experiment results, the proposed method has an accuracy rate and kappa values better than previous algorithm. Based on the results of testing the proposed method can improve the recognition rate with an increase of 2% to 3% for Mitra data and 0.5% to 1.5% for the MIT-BIH data. As for the test using the entire data Mitra average increase in accuracy rate reaches 3% to 7%.
Depok: Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Zaki Imaduddin
Abstrak :
Ultrasonografi (USG) merupakan alat diagnostik pencitraan yang berguna untuk mendeteksi dan menganalisis struktur organ yang ada di dalam tubuh manusia, salah satuya mendeteksi atau menganalisis biometri janin. Penelitian ini bertujuan untuk mendeteksi dan mengukur biometri janin dari citra hasil scanning alat USG. Citra janin yang dideteksi dan diukur meliputi besar diameter kepala dan panjang tulang paha. Proses deteksi dan pengukuran dilakukan melalui beberapa tahap yaitu cropping objek dan non-objek, ekstraksi fitur, seleksi fitur, dan pengukuran besaran dari organ janin. Untuk ekstraksi fitur menggunakan Haar-like Feature, untuk pendeteksian menggunakan Adaboost Classifier, dan untuk metode pengukuran biometri menggunakan Randomized Hough Transform. Pada penelitian ini, digunakan 300 data citra biparietal kepala dan 200 data citra tulang paha. Dari hasil pengolahan data, didapatkan hasil deteksi biparietal kepala janin sebanyak 44 gambar dengan error rata-rata sebesar 0,0388 dan correlation coefficient yang dihasilkan sebesar 0,984. Sementara hasil untuk deteksi tulang paha janin sebanyak 18 dengan error rata-rata sebesar 0,554 dan correlation coefficient yang dihasilkan sebesar 0,788. Dengan metode yang diajukan pada penelitian ini, diperlukan adanya pengembangan metode yang lebih optimal sehingga tahapan dalam pengintegrasian sistem ke dalam sebuah alat pengukuran organ janin dapat diaktualisasikan. Tentunya dengan sistematika pemakaian alat yang lebih sederhana dan harga yang lebih terjangkau. ...... Ultrasonography (USG) is a diagnostic tool for detecting and analyzing organ structure in human body. One of the example usage of USG is to detect and analyze biometric features of a fetus. This study aims to detect and measure features of fetus from scanned image offetalhead (biparietal diameter) and femur length using ultrasound equipment. The detection and measurement process have several steps. It consists of cropping object and non-object, extracting features, selecting features, and measuring the fetal organs sizes. In this study, Haar-like feature is used to extract the feature meanwhile AdaBoost classifier is used for object detection and Randomized Hough Transform is applied for biometry measurement. In this research, we used 300 biparietal head image data and 200 image data of femur. After the data processing stage, we obtained the detection of biparietal as many as 44 images with an average error of 0.0388 and Correlation Coefficient result of 0,984, while the results for the detection of fetal femur error as many as 18 with an average of 0,554 and Correlation Coefficient result of 0,788. The result of this research can be optimized further to realize a fully integrated system that can detect and measure fetal organ with usable user interaction and affordable price.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3   >>