Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 26 dokumen yang sesuai dengan query
cover
Muhammad Hanif Fahreza
Abstrak :

Aksara Pegon adalah sistem penulisan berbasis Arab yang digunakan untuk menulis bahasa Jawa, Sunda, Madura, dan Indonesia. Karena berbagai alasan, aksara ini telah diturunkan ke ranah kolektor naskah sejarah dan pesantren, sehingga perlu dilestarikan. Salah satu metode pelestarian ini adalah melalui digitalisasi; lebih tepatnya dengan mentranskripsikan isi dari naskah-naskah yang ada ke dalam bentuk teks machine encoded, dimana proses tersebut jika dilakukan secara otomatis disebut juga sebagai OCR, atau Pengenalan Karakter Optik. Sampai saat ini belum ada literatur yang dipublikasikan mengenai sistem OCR untuk aksara ini. Oleh karena itu, penelitian ini bertujuan untuk menjembatani kesenjangan tersebut dengan menyediakan OCR untuk subset tertentu dari naskah Pegon, yaitu naskah Pegon yang dicetak. Penelitian ini memperkenalkan dataset yang disintesis dan yang dianotasi untuk pengenalan teks Pegon cetak. Dataset-dataset ini kemudian digunakan untuk mengevaluasi sistem OCR Arab konvensional yang sudah ada pada domain Pegon, baik versi asli maupun yang dimodifikasi, serta sistem berbasis teknik deep learning yang lebih baru dalam literatur. Hasilnya menunjukkan bahwa teknik deep learning mengungguli teknik konvensional, di mana teknik konvensional gagal mendeteksi teks Pegon sama sekali, sementara sistem yang diusulkan, khususnya menggunakan YOLOv5 untuk segmentasi baris dan arsitektur CTC-CRNN untuk pengenalan teks baris, mencapai nilai F1 sebesar 0,94 untuk segmentasi dan CER 0,03 untuk pengenalan teks. ......The Pegon script is an Arabic-based writing system intended for writing the Javanese,
Sundanese, and Indonesian languages. Due to various reasons, this script has been
relegated to the domain of historical manuscript collectors and private Islamic boarding
schools or pesantren, presenting a need for preservation. One of these methods of
preservation is through digitization; more specifically, by transcribing the content of
these existing manuscripts into machine-encoded text, the automated process of which is
referred to as OCR. There has been heretofore no published literature on OCR systems
for this specific script. Hence, this research aims to bridge that gap by providing a
foray into the OCR of a specific subset of Pegon manuscripts, namely of printed Pegon
manuscripts. This research evaluates existing and modified versions of conventional
Arabic OCR systems on the domain of Pegon, as well as the more recent deep learning
techniques in the literature, along with introducing new datasets for use in developing
with said deep learning techniques. The results show the outperformance of these deep
learning techniques over the conventional techniques and with which components of a
Pegon OCR system is proposed.

Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Tumbuan, Ahmad Irfan Luthfi
Abstrak :
Salah satu analisis yang dapat dilakukan untuk mendeteksi adanya gangguan perkembangan anak adalah dengan membandingkan umur skeletal dengan umur nyata dari anak. Umur skeletal dapat dicari dengan melihat umur tulang tangan. Metode penilaian umur tulang dapat dilakukan dengan pendekatan artificial intellgence. Dengan adanya AI diharapkan dapat mengotomatisasi perhitungan umur tulang berdasarkan citra X-Ray tulang tangan anak. Salah satu metode yang dapat digunakan untuk melakukan prediksi umur tulang adalah deep learning menggunakan arsitektur Convolutional Neural Network (CNN). Model CNN dapat melakukan berbagai hal, seperti segmentasi semantik, key point detection dan regresi. Hasil pengujian menunjukkan bahwa dengan menggunakan preprocessing berupa segmentasi semantik, key point detection dan transformasi z-score terhadap umur tulang berhasil mendapatkan nilai RMSE 10.076 bulan dan MAE 7.735 bulan, lebih kecil jika dibandingkan dengan human-level performance yang memiliki MAE 8.76 bulan ......One method of analysis that can be done to detect growth hormone deficiency is to compare the skeletal age to the real age of the child. The skeletal age of a subject can be found by estimating the hand bone age. The estimation of hand bone age can be done using artificial intelligence approach. With the presence of AI, we can automate the estimation of bone age using X-Ray images of a child’s hand. One method that we can use to estimate bone age is deep learning using Convolutional Neural Network (CNN) architecture. CNN can do many things, such as semantic segmentation, key point detection, and regression. We found that using preprocessing such as semantic segmentation, key point detection and z-score transformation of the bone age can achieve 10.076 months RMSE and 7.735 months MAE, that is lower than the human-level performance which has 8.76 months MAE.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nadhifah Hanan
Abstrak :
Peta telah menjadi salah satu alat yang digunakan masyarakat unutk menunjukkan lokasi dari sebuah tempat. Informasi pada sebuah peta tentunya membantu pengguna untuk mendapatkan pemahaman lebih mengenai tempat tersebut. Penggabungan kedua elemen tersebut akan menciptakan sebuah sistem yang dapat membantu pengguna untuk mendapatkan informasi sederhana yang ada pada sebuah lokasi tertentu. Penyajian peta informasi dalam bentuk digital dapat menjadi solusi unutk menyediakan fasilitas peta informasi bagi pengguna. Tempat yang membutuhkan peta informasi biasanya memiliki wilayah yang cukup luas. Salah satu tempat atau organisasi yang membutuhkan peta informasi diantaranya adalah universitas. Melalui penelitian ini, dikembangkan aplikasi peta informasi digital untuk wilayah Universitas Indonesia berbasis web yang diharapkan dapat membantu pengunjung Universitas Indonesia untuk menemukan lokasi yang ingin dituju serta mendapatkan informasi sederhana mengenai lokasi tersebut. Fitur-fitur yang disediakan pada aplikasi seperti fitur geolocation yang dapat memperlihatkan posisi pengguna, fitur untuk menampilkan lokasi beserta informasinya pada sebuah kategori, serta fitur unutk menampilkan semua tempat dan informasi pada sebuah kategori. Pengembangan aplikasi dilengkapi dengan tahapan evaluasi secara kualitatif dan kuantitatif. Evaluasi secara kualitatif dilakukan dengan menggunakan task scenario-usability testing, sementara evaluasi kuantitatif dilakukan dengan menggunakan metode System Usability Scale (SUS). Berdasarkan hasil evaluasi, didapatkan skor SUS 80,88 dengan grade A (Excellent). Adapun secara kualitatif, diperlukan perbaikan pada desain interaksi dan tambahan fitur untuk memenuhi kebutuhan pengguna. ......Maps have become one of the tools used by the community to indicate the location of a place. Information on a map certainly helps users to get a better understanding of the place. Combining these two elements will create a system that can help users to get simple information that is in a particular location. Presentation of information map in digital form can be a solution to provide map information facilities for users. Places that require information map usually have a fairly large area. One of the places that need information map facilities is the university. Through this research, a web-based digital information map application was developed for the Universitas Indonesia region which is expected to help Universitas Indonesia visitors to find the location they want to go to and get simple information about that location. The features provided in the application such as geolocation feature that can show the user's position, features to display location and information in a category, as well as features to display all places and information in a category. Application development is complemented by qualitative and quantitative evaluation stages. Qualitative evaluation uses task scenario-usability testing, while quantitative evaluation uses the System Usability Scale (SUS) method. Based on the evaluation results, SUS score of 80.88 was obtained with grade A (Excellent). Qualitatively, improvements are needed to the interaction design and additional features to meet user needs.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Yumna Pratista Tastaftian
Abstrak :
Speech Emotion Recognition adalah teknologi yang mampu bisa mendeteksi emosi lewat data suara yang diproses oleh sebuah mesin. Media yang sering digunakan untuk menjadi media interaksi antara 2 orang atau lebih yang saat ini sedang digunakan oleh banyak orang adalah Podcast, dan Talkshow. Seiring berkembangya SER, penelitian terakhir menunjukkan bahwa penggunaan metode Deep Learning dapat memberikan hasil yang memuaskan terhadap sistem SER. Pada penelitian ini akan diimplementasikan model Deep Learning yaitu dengan Recurrent Neural Network (RNN) variasi Long Short Term Memory (LSTM) untuk mengenali 4 kelas emosi (marah, netral, sedih, senang). Penelitian ini menguji model yang digunakan untuk mengenali emosi dari fitur akustik pada data secara sekuensial. Skenario training dan testing dilakukan dengan metode one-against-all dan mendapatkan hasil (1) Dataset talkshow mengungguli dataset podcast untuk tipe 1 dan 2 dan untuk semua emosi yang dibandingkan; (2) Untuk dataset podcast pada emosi marah, senang, dan sedih didapatkan akurasi optimal pada dataset tipe 1 yaitu 67.67%, 71.43%, dan 68,29%, sedangkan untuk emosi netral didapatkan akurasi terbaik pada dataset tipe 2 dengan 77.91%; (3) Untuk dataset talkshow pada emosi marah, netral, dan sedih didapatkan akurasi terbaik pada dataset tipe 2 yaitu 78.13%, 92.0%, dan 100%. Dapat disimpulkan bahwa dataset talkshow secara garis besar memberikan hasil yang lebih optimal namun memiliki variasi data yang lebih sedikit dari dataset podcast. Dari sisi panjang data, pada penelitian ini didapatkan akurasi yang lebih optimum pada dataset dengan tipe 2. ......Speech Emotion Recognition is a technology that is able to detect emotions through voice data that is processed by a machine. Media that is often used to be a medium of interaction between two or more people who are currently being used by many people are Podcasts, and Talkshows. As SER develops, recent research shows that the use of the Deep Learning method can provide satisfactory results on the SER system. In this study a Deep Learning model will be implemented, this study uses Long Short Term Memory (LSTM) as one of the variation of Recurrent Neural Network (RNN) to recognize 4 classes of emotions (angry, neutral, sad, happy). This study examines the model used to recognize emotions from acoustic features in sequential data. Training and testing scenarios are conducted using the one-against-all method and get results (1) The talkshow dataset outperforms the podcast dataset for types 1 and 2 and for all emotions compared; (2) For the podcast dataset on angry, happy, and sad emotions, the optimal accuracy in type 1 dataset is 67.67%, 71.43%, and 68.29%, while for neutral emotions the best accuracy is obtained in type 2 dataset with 77.91%; (3) For the talkshow dataset on angry, neutral, and sad emotions the best accuracy is obtained for type 2 datasets, namely 78.13%, 92.0%, and 100%. It can be concluded that the talkshow dataset in general gives more optimal results but has fewer data variations than the podcast dataset. In terms of data length, this study found more optimum accuracy in dataset with type 2.
Depok: Fakultas Ilmu Kompter Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Millenio Ramadizsa
Abstrak :
Ketidakseimbangan pengetahuan merupakan fenomena yang semakin menonjol seiring berjalannya waktu, teurtama dengan perkembangan Articial Intelligence dan Data Science. Salah satu open knowledge base yang mengalami fenomena ini adalah Wikidata. Ketidakseimbangan pengetahuan dapat menyebabkan banyak hal negatif, contohnya adalah data yang tidak akurat dan kesimpulan yang bias. Untuk membantu mengatasi ketidakseimbangan pengetahuan kami mengusulkan sebuah solusi menggunakan association analysis. Kami menyediakan framework yang dapat mengidentifikasi gap properties, yang dapat digunakan untuk mengidentifikasi akar dari ketidakseimbangan pengetahuan di dalam Wikidata class (e.g. computer scientists, sovereign states). Melalui gap property ratio, kami dapat menghitung level ketidakseimbangan pengetahuan dalam Wikidata class. Semakin tinggi gap property ratio maka semakin tinggi tingkat ketidakseimbangan pengetahuan dalam suatu kelas. Untuk memvalidasi framework yang kami buat, kami melakukan analisis ketidakseimbangan pengetahuan di 20 kelas Wikidata. Kami harap hasil dari riset ini dapat membantu kontributor Wikimedia dalam menyelesaikan fenomena ketidakseimbangan pengetahuan lebih cepat dan akurat. ......Knowledge imbalances are a phenomenon that has become more and more prominent over the years, especially with the growth of AI and data science. Wikidata is one of the open knowledge bases having this phenomenon. The growing number of items in Wikidata is not followed by an even distribution to every group and community. This phenomenon may have multiple negative implications, such as data inaccuracy and biased conclusions. In order to help in addressing knowledge imbalances in Wikidata we propose an approach using association analysis. We provide a framework that can identify gap properties, useful to pinpoint the root causes of knowledge imbalances in Wikidata classes (e.g., computer scientists, sovereign states). Furthermore, through the gap property ratio, we can quantify the knowledge imbalance level within Wikidata classes. The higher the gap property ratio, the larger the knowledge imbalance is for that class. To further validate our framework we conduct a knowledge imbalance analysis on 20 Wikidata classes. We hope that the result of this research can help Wikimedia contributors in addressing the knowledge imbalance phenomenon in Wikidata more swiftly and accurately.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Oemar Syarief Wibisono
Abstrak :
Beras merupakan makanan pokok mayoritas masyarakat Indonesia. Jika dibandingkan dengan konsumsi tahun 2019, konsumsi beras nasional meningkat sekitar 4,67 persen pada tahun 2021. Hal ini menunjukan bahwa setiap tahun konsumsi beras nasional akan meningkat karena seiring dengan pertumbuhan jumlah penduduk Indonesia. Sehingga dibutuhkan data produksi beras yang akurat dan tepat waktu untuk dapat menjaga ketersediaan stok beras nasional. Data citra satelit bisa menjadi alternatif untuk memprediksi produksi padi dikarenakan kekurangan yang dimiliki oleh metode survei yang dilakukan oleh BPS yaitu biaya yang cukup tinggi dan terdapat tenggang waktu diseminasi data. Gabungan citra SAR dan Optik dapat meningkatkan akurasi dari model yang dibangun. Selain itu penggunaan model deep learning memiliki akurasi yang lebih baik jika dibandingkan metode machine learning konvensional salah satunya kombinasi CNN dan Bi-LSTM yang mampu mengekstraksi fitur serta memiliki kemampuan untuk memodelkan data temporal dengan baik. Output yang diperoleh dengan menggunakan metode CNNBiLSTM untuk mengklasifikasikan fase pertumbuhan padi, menghasilkan akurasi yang terbaik dengan nilai akurasi 79,57 pada data testing dan 98,20 pada data training serta F1-score 79,78. Dengan menggunakan kombinasi data citra sentinel 1 dan 2 akurasi dari model LSTM dapat ditingkatkan. Selanjutnya akurasi yang didapatkan untuk model regresi produktivitas padi masih kurang baik. Akurasi terbaik dihasilkan oleh model random forest dengan nilai MAPE 0.1336, dan RSME 0,6871. ......Rice is the staple food of the majority of Indonesian people. When compared to consumption in 2019, national rice consumption will increase by around 4.67 percent in 2021. This shows that every year rice consumption will increase in line with the growth of Indonesia's population. So that accurate and timely rice production data is needed to be able to maintain the availability of national rice stocks. Satellite imagery data can be an alternative for predicting rice production due to the drawbacks of the survey method conducted by BPS, which relatively high cost and the time span for data dissemination. The combination of SAR and Optical images can increase the accuracy of the model built. In addition, the use of deep learning models has better accuracy when compared to classical machine learning methods, one of them is the combination of CNN and Bi-LSTM which are able to extract features and have the ability to model temporal data properly. The output obtained using the CNNBiLSTM method to classify rice growth phases, produces the best accuracy with an accuracy value of 79.57 on testing data and 98.20 on training data and an F1-score of 79.78. By using a combination of sentinel 1 and 2 image data, the accuracy of the LSTM model can be improved. Furthermore, the accuracy obtained for the rice production regression model is still not good. The best accuracy was produced by the random forest model with a MAPE value of 0.1336 and RSME of 0.6871.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Sengli Egani
Abstrak :
Kecanggihan dalam bidang pengenalan wajah berbasis deep learning semakin berkembang dan telah menjadikannya salah satu teknik biometrik yang paling dapat diandalkan. Namun, penggunaan masker penutup mulut dan hidung akibat pandemi COVID-19 membuat model pengenalan wajah kehilangan sekitar setengah dari informasi biometrik yang berguna dan mengakibatkan penurunan tingkat akurasi. Penelitian ini bertujuan untuk mengajukan model pengenalan wajah bermasker alternatif berakurasi tinggi. Untuk mengembangkan Convolutional Neural Networks (CNNs) sebagai ekstraktor fitur dari pengenalan wajah bermasker, tiga hal yang paling berkontribusi ialah data latih yang besar, arsitektur jaringan dan fungsi kerugian (loss function). Model yang diajukan berasal dari hasil modifikasi arsitektur ResNet dengan menyisipkan blok RepMLP. Kemudian, membandingkan hasil pelatihan tersebut menggunakan fungsi kerugian terbaik saat ini, ArcFace loss dan CurricularFace loss. Model dilatih menggunakan data latih MS1M-V3. Model terbaik yang dapat diajukan dari penelitian ini berhasil memperoleh nilai akurasi 77,8% saat diuji menggunakan data MFR2. Nilai akurasi tersebut 2,3% lebih tinggi dibandingkan dengan model baseline (ResNet-50) yang digunakan dalam penelitian ini. Selain berhasil memperoleh nilai akurasi yang lebih baik, model yang dijukan memiliki jumlah parameter yang lebih sedikit dibandingkan model baseline. ......Sophistication in deep facial recognition is still growing and has made it one of the most reliable biometric techniques. However, using masks covering the mouth and nose due to the COVID-19 pandemic has caused facial recognition models lose about half of the useful biometric information and decreased the accuracy. This study aims to propose a high-accuracy alternative masked facial recognition model. The success of Convolutional Neural Networks (CNNs) on face recognition mainly contributed by enormous training data, network architectures, and loss functions. The proposed model comes from a modification of the ResNet architecture by inserting RepMLP blocks. Then, compares the training results using the current best loss function, ArcFace loss and CurricularFace loss. The model was trained using the MS1M-V3 training data. The best model that can be proposed from this study managed to obtain an accuracy value of 77.8% when tested using the MFR2 dataset. This accuracy value is 2.3% higher than the baseline model (ResNet-50) which used in this study. Besides being successful in obtaining better accuracy values, the proposed model has fewer parameters than the baseline model.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Rahmat Rizkiyanto
Abstrak :
Awan merupakan salah satu objek dalam citra satelit penginderaan jauh sensor optis yang keberadaanya sering kali mengganggu proses pengolahan citra penginderaan jauh. Deteksi awan secara akurat merupakan tugas utama dalam banyak aplikasi penginderaan jauh. Oleh karena itu, deteksi awan secara tepat khususnya pada citra satelit optis resolusi sangat tinggi merupakan suatu pekerjaan yang sangat menantang. Penelitian ini bertujuan untuk mendeteksi objek awan pada data citra satelit penginderaan jauh resolusi sangat tinggi. Penelitian ini menggunakan algoritma deep learning yaitu Convolutional Neural Network (CNN) dan segmentasi Simple Linear Iterative Clustering (SLIC) superpixel untuk mendeteksi objek awan pada citra satelit penginderaan jauh. Penelitian ini menggunakan SLIC untuk mengelompokkan citra ke dalam superpiksel. Penelitian ini juga merancang CNN untuk mengekstrak fitur dari citra dan memprediksi superpiksel sebagai salah satu dari dua kelas objek yaitu awan dan bukan awan. Penelitian ini menggunakan data citra satelit resolusi sangat tinggi Pleiades multispectral dengan resolusi 50 cm. Deteksi awan dilakukan dengan berbagai macam skenario. Hasilnya, metode yang diusulkan mampu mendeteksi objek awan dengan performa akurasi sebesar 91.33%. ......Clouds are one of the objects in optical sensor remote sensing satellite images whose presence often interferes with the remote sensing image processing process. Accurate cloud detection is a key task in many remote sensing applications. Therefore, precise cloud detection, especially in very high-resolution optical satellite imagery, is a very challenging task. This study aims to detect cloud objects in very high-resolution remote sensing satellite imagery data. This study uses a deep learning algorithm, namely Convolutional Neural Network (CNN) and Simple Linear Iterative Clustering (SLIC) superpixel segmentation to detect cloud objects in remote sensing satellite images. This study uses SLIC to group images into superpixels. This study also designed a CNN to extract features from the image and predict the superpixel as one of two classes of objects, namely cloud, and non-cloud. This study uses very high-resolution Pleiades multispectral satellite imagery data with a resolution of 50 cm. Cloud detection is carried out in various scenarios. As a result, the proposed method can detect cloud objects with an accuracy performance of 91.33%.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Asep Haryono
Abstrak :
Sebagian besar pendeteksian objek menggunakan horizontal anchor untuk menemukan horizontal bounding box (HBB). Hal ini menjadi masalah ketika sebagian besar citra berupa background dan jarak antara objek sangat rapat sehingga mengakibatkan misallignment pada bounding box. Horizontal anchor perlu diganti dengan rotation anchor dengan tambahan nilai sudut untuk menemukan oriented bounding box (OBB). Melalui proses dua tahap untuk menemukan HBB dan OBB menjadi tidak efisien dan menambah biaya komputasi yang tinggi. Salah satu metode untuk mengatasinya adalah box boundary-aware vector berbasis satu tahap menggunakan ResNet. Kelemahan ResNet memiliki sequential layer yang kurang efektif mengekstraksi fitur saat down-sampling. Pada penelitian ini diusulkan modifikasi pada pada encoder dengan mengganti menggunakan ResNext101. Selain itu juga diusulkan adanya penambahan Residual Unit pada blok dasar. Adanya kardinalitas dengan desain homogen dan arsitektur multi-branch dengan sedikit hyper-parameter, ResNext lebih efektif menangkap informasi dibandingkan dengan Resnet. Eksperimen yang dilakukan terbukti menghasilkan performa yang lebih baik dengan nilai mAP dan F1-Score berturut-turut 89,45 % dan 88,10 % untuk dataset HRSC serta 83,89 % dan 95,97 % untuk dataset UCAS-AOD ......Most object detection uses horizontal anchors to find horizontal bounding boxes (HBB). This becomes a problem when most of the image is in the form of background and the distance between objects is very tight, resulting in misalignment on bounding box. The horizontal anchor needs to be replaced with a rotation anchor with an additional angle value to find the oriented bounding box (OBB). Going through a two-stage process of finding HBB and OBB becomes inefficient and adds high computational costs. One method to overcome this is a one-stage based box boundary-aware vector using ResNet. The weakness of ResNet is that it has a sequential layer which is less effective at extracting features during down-sampling. In this study, it is proposed to modify the encoder by replacing it with ResNext101. In addition, it is also proposed to add Residual Units to the base block. Due to cardinality with a homogeneous design and a multi-branch architecture with few hyper-parameters, ResNext captures information more effectively than Resnet. The experiments have been proven to produce better performance with mAP and F1- Score values of 89.45% and 88.10% for the HRSC dataset and 83.89% and 95.97% for the UCAS-AOD dataset, respectively.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Fityan Azizi
Abstrak :
Penyakit kardiovaskular merupakan penyakit dengan angka kematian tertinggi di dunia. Fungsi jantung perlu diperiksa secara akurat dan efisien agar penyakit kardiovaskular dapat terdeteksi dengan baik. Penilaian fungsi jantung umumnya dilakukan dengan memberi tanda ventrikel kiri secara manual. Hal tersebut memiliki kekurangan karena dapat memakan waktu, rawan kesalahan karena resolusi citra yang rendah, dan memiliki perbedaan hasil yang bervariasi antar pemeriksa. Oleh karena itu, penandaan ventrikel kiri secara otomatis dengan segmentasi sangat penting agar pemeriksaan fungsi jantung dapat dilakukan lebih efektif dan efisien. Dalam penelitian ini, dilakukan pengembangan model deep learning untuk pekerjaan segmentasi ventrikel kiri pada citra ekokardiografi menggunakan encoder yang dimiliki U-Net, ditambahkan dengan modul Atrous Spatial Pyramid Pooling dan decoder yang dimiliki DeeplabV3+. Selanjutnya, ditambahkan Coordinate Attention pada tahap akhir dalam encoder untuk penyempurnaan fitur. Dilakukan uji pada dataset Echonet-Dynamic, Hasil penelitian menunjukkan bahwa melakukan penggabungan antara encoder yang dimiliki U-Net dan decoder yang dimiliki DeeplabV3+ mampu memberikan peningkatan performa dibandingkan model U-Net dan DeeplabV3+, juga memberikan hasil yang lebih baik dibandingkan penelitian sebelumnya, dengan menghasilkan nilai dice similiarity coefficient sebesar 92.91%. ......Cardiovascular disease is a disease with the highest mortality rate in the world. Heart function needs to be checked accurately and efficiently so that cardiovascular disease can be detected properly. Assessment of cardiac function is generally done by marking the left ventricle manually. This has the drawbacks of being time-consuming, error-prone due to low image resolution, and have inter-observer variability. So that automatic marking of the left ventricle with segmentation is very important so that the examination of cardiac function can be carried out more effectively and efficiently. In this study, a deep learning model was developed for left ventricle segmentation on echocardiographic images using an encoder in U-Net, added with the Atrous Spatial Pyramid Pooling module and an decoder in DeeplabV3+. Furthermore, the Coordinate Attention Module was added at the final stage in the encoder for feature enhancements. Tests were carried out using the Echonet-Dynamic dataset. The results showed that combining the encoder in U-Net and the decoder in DeeplabV3+ was able to provide increased performance compared to the U-Net and DeeplabV3+ models, also gives better results than previous research, by producing a dice similarity coefficient of 92.91%.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3   >>