"Penyakit kardiovaskular merupakan penyakit dengan angka kematian tertinggi di dunia. Fungsi jantung perlu diperiksa secara akurat dan efisien agar penyakit kardiovaskular dapat terdeteksi dengan baik. Penilaian fungsi jantung umumnya dilakukan dengan memberi tanda ventrikel kiri secara manual. Hal tersebut memiliki kekurangan karena dapat memakan waktu, rawan kesalahan karena resolusi citra yang rendah, dan memiliki perbedaan hasil yang bervariasi antar pemeriksa. Oleh karena itu, penandaan ventrikel kiri secara otomatis dengan segmentasi sangat penting agar pemeriksaan fungsi jantung dapat dilakukan lebih efektif dan efisien. Dalam penelitian ini, dilakukan pengembangan model deep learning untuk pekerjaan segmentasi ventrikel kiri pada citra ekokardiografi menggunakan encoder yang dimiliki U-Net, ditambahkan dengan modul Atrous Spatial Pyramid Pooling dan decoder yang dimiliki DeeplabV3+. Selanjutnya, ditambahkan Coordinate Attention pada tahap akhir dalam encoder untuk penyempurnaan fitur. Dilakukan uji pada dataset Echonet-Dynamic, Hasil penelitian menunjukkan bahwa melakukan penggabungan antara encoder yang dimiliki U-Net dan decoder yang dimiliki DeeplabV3+ mampu memberikan peningkatan performa dibandingkan model U-Net dan DeeplabV3+, juga memberikan hasil yang lebih baik dibandingkan penelitian sebelumnya, dengan menghasilkan nilai dice similiarity coefficient sebesar 92.91%.Cardiovascular disease is a disease with the highest mortality rate in the world. Heart function needs to be checked accurately and efficiently so that cardiovascular disease can be detected properly. Assessment of cardiac function is generally done by marking the left ventricle manually. This has the drawbacks of being time-consuming, error-prone due to low image resolution, and have inter-observer variability. So that automatic marking of the left ventricle with segmentation is very important so that the examination of cardiac function can be carried out more effectively and efficiently. In this study, a deep learning model was developed for left ventricle segmentation on echocardiographic images using an encoder in U-Net, added with the Atrous Spatial Pyramid Pooling module and an decoder in DeeplabV3+. Furthermore, the Coordinate Attention Module was added at the final stage in the encoder for feature enhancements. Tests were carried out using the Echonet-Dynamic dataset. The results showed that combining the encoder in U-Net and the decoder in DeeplabV3+ was able to provide increased performance compared to the U-Net and DeeplabV3+ models, also gives better results than previous research, by producing a dice similarity coefficient of 92.91%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership Universitas Indonesia Library
"Pemantauan area pascaâkebakaran menggunakan citra satelit merupakan langkah krusial dalam mengurangi risiko kebakaran hutan dan merencanakan restorasi ekosistem. Penelitian ini mengembangkan model hybrid yang mengintegrasikan encoder ASPP dari DeepLabv3+ dan decoder dari U-Net disertai spatial attention gate pada skip connection dengan memanfaatkan data Sentinel-1 (polarisasi VV+VH) dan Sentinel-2 (kanal 2, 3, 4, 8, 12) pada resolusi spasial 10 m. Data citra diambil dari area Tanjung Jabung Barat untuk lahan gambut serta dari Bromo dan Magepanda untuk lahan savana. Teknik augmentasi seperti random flip horizontalvertikal, rotasi sudut acak, dan penyesuaian brightness-contrast diterapkan pada tahap preprocessing sehingga menghasilkan 411 triplet citra. Hasil evaluasi menunjukkan bahwa model hybrid mencapai nilai Intersection over Union (IoU) tertinggi untuk area terbakar, yaitu 0,8263, dengan akurasi keseluruhan 91,49%, mengungguli DeepLabv3+ (IoU 0,8165 dan akurasi 91,07%) dan Spatial Attention U-Net (IoU 0,8031 dan akurasi 89,17%). Dari sisi Dice coefficient, model hybrid juga memimpin dengan skor 0,9064, melampaui DeepLabv3+ dengan 0,8990 dan Spatial Attention U-Net dengan 0,8933. Temuan ini menegaskan model hybrid sebagai solusi optimal untuk aplikasi yang menuntut akurasi tertinggi.Monitoring postâfire areas using satellite imagery is a crucial step in reducing wildfire risk and planning ecosystem restoration. This study develops a hybrid model integrating the Atrous Spatial Pyramid Pooling (ASPP) encoder from DeepLabv3+ with the U-Net decoder, augmented by spatial attention gates on each skip connection using Sentinel-1 data (VV+VH polarizations) and Sentinel-2 data (bands 2, 3, 4, 8, and 12) at 10 m spatial resolution. Image data were acquired from Tanjung Jabung Barat for peatland and from Bromo and Magepanda for savanna. Augmentation techniques such as random horizontal-vertical flips, random rotations, and brightness–contrast adjustments were applied during preprocessing, resulting in 411 image triplets. Evaluation results show that the hybrid model achieved the highest Intersection over Union (IoU) for burned areas at 0.8263 with an overall accuracy of 91.49%, outperforming DeepLabv3+ (IoU 0.8165, accuracy 91.07%) and Spatial Attention U-Net (IoU 0.8031, accuracy 89.17%). In terms of Dice coefficient, the hybrid model also leads with a score of 0.9064, surpassing DeepLabv3+ (0.8990) and Spatial Attention U-Net (0.8933). These findings confirm the hybrid model as the optimal solution for applications demanding the highest segmentation accuracy. "
Depok: Fakultas Teknik Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
"Di era perkembangan teknologi ini, sains data menjadi kebutuhan dalam pekerjaan manusia, sehingga peneliti mengembangkan Lumba.ai untuk memudahkan masyarakat umum mengakses teknologi data science dan computer vision, khususnya fitur semantic object segmentation, tanpa memerlukan pemahaman mendalam tentang IT. Penelitian ini berfokus pada pengembangan fitur semantic object segmentation pada Lumba.ai dengan memanfaatkan model Convolutional Neural Network seperti Fully Convolutional Networks (FCN) dan DeepLabv3. Proses implementasinya meliputi pemrosesan data, pemodelan, dan evaluasi model menggunakan metrik, serta komparasi model dengan menggunakan weighted binary cross entropy. Hasil menunjukkan komparasi metrik pada model-model machine learning yang diuji menunjukkan FCN dan DeepLabv3 merupakan dua model dengan performa terbaik dengan mendapatkan skor IoU dan Recall tertinggi yang didukung ResNet101 sebagai backbone serta diterapkan W-BCE. Dalam pengembangannya, penulis mengimplementasi task queueing dan monitoring GPU guna memproses request pengguna dengan optimal saat melakukan training. Dari penelitian ini, didapat hasil yang cukup baik dengan melakukan konfigurasi satu celery worker dan jumlah concurrency yang dinamis bergantung kepada jumlah GPU yang available dari proses monitoring GPU.In this era of technological development, data science has become essential in human work, prompting researchers to develop Lumba.ai to facilitate public access to data science and computer vision technology, particularly the feature of semantic object segmentation, without requiring deep IT knowledge. This research focuses on developing the semantic object segmentation feature on Lumba.ai by utilizing Convolutional Neural Network models such as Fully Convolutional Networks (FCN) and DeepLabv3. The implementation process includes data processing, modeling, and model evaluation using metrics, as well as model comparison using weighted binary cross entropy. The results show that the comparison of metrics on the tested machine learning models indicates that FCN and DeepLabv3 are the two best-performing models, achieving the highest IoU and Recall scores, supported by ResNet101 as the backbone and applying W-BCE. During development, the author implemented task queuing and GPU monitoring to optimally process user requests during training. The research produced satisfactory results by configuring a single celery worker and dynamic concurrency depending on the number of GPUs available from the GPU monitoring process."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
"Di era perkembangan teknologi ini, sains data menjadi kebutuhan dalam pekerjaan manusia, sehingga peneliti mengembangkan Lumba.ai untuk memudahkan masyarakat umum mengakses teknologi data science dan computer vision, khususnya fitur semantic object segmentation, tanpa memerlukan pemahaman mendalam tentang IT. Penelitian ini berfokus pada pengembangan fitur semantic object segmentation pada Lumba.ai dengan memanfaatkan model Convolutional Neural Network seperti Fully Convolutional Networks (FCN) dan DeepLabv3. Proses implementasinya meliputi pemrosesan data, pemodelan, dan evaluasi model menggunakan metrik, serta komparasi model dengan menggunakan weighted binary cross entropy. Hasil menunjukkan komparasi metrik pada model-model machine learning yang diuji menunjukkan FCN dan DeepLabv3 merupakan dua model dengan performa terbaik dengan mendapatkan skor IoU dan Recall tertinggi yang didukung ResNet101 sebagai backbone serta diterapkan W-BCE. Dalam pengembangannya, penulis mengimplementasi task queueing dan monitoring GPU guna memproses request pengguna dengan optimal saat melakukan training. Dari penelitian ini, didapat hasil yang cukup baik dengan melakukan konfigurasi satu celery worker dan jumlah concurrency yang dinamis bergantung kepada jumlah GPU yang available dari proses monitoring GPU.In this era of technological development, data science has become essential in human work, prompting researchers to develop Lumba.ai to facilitate public access to data science and computer vision technology, particularly the feature of semantic object segmentation, without requiring deep IT knowledge. This research focuses on developing the semantic object segmentation feature on Lumba.ai by utilizing Convolutional Neural Network models such as Fully Convolutional Networks (FCN) and DeepLabv3. The implementation process includes data processing, modeling, and model evaluation using metrics, as well as model comparison using weighted binary cross entropy. The results show that the comparison of metrics on the tested machine learning models indicates that FCN and DeepLabv3 are the two best-performing models, achieving the highest IoU and Recall scores, supported by ResNet101 as the backbone and applying W-BCE. During development, the author implemented task queuing and GPU monitoring to optimally process user requests during training. The research produced satisfactory results by configuring a single celery worker and dynamic concurrency depending on the number of GPUs available from the GPU monitoring process."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
"Di era perkembangan teknologi ini, sains data menjadi kebutuhan dalam pekerjaan manusia, sehingga peneliti mengembangkan Lumba.ai untuk memudahkan masyarakat umum mengakses teknologi data science dan computer vision, khususnya fitur semantic object segmentation, tanpa memerlukan pemahaman mendalam tentang IT. Penelitian ini berfokus pada pengembangan fitur semantic object segmentation pada Lumba.ai dengan memanfaatkan model Convolutional Neural Network seperti Fully Convolutional Networks (FCN) dan DeepLabv3. Proses implementasinya meliputi pemrosesan data, pemodelan, dan evaluasi model menggunakan metrik, serta komparasi model dengan menggunakan weighted binary cross entropy. Hasil menunjukkan komparasi metrik pada model-model machine learning yang diuji menunjukkan FCN dan DeepLabv3 merupakan dua model dengan performa terbaik dengan mendapatkan skor IoU dan Recall tertinggi yang didukung ResNet101 sebagai backbone serta diterapkan W-BCE. Dalam pengembangannya, penulis mengimplementasi task queueing dan monitoring GPU guna memproses request pengguna dengan optimal saat melakukan training. Dari penelitian ini, didapat hasil yang cukup baik dengan melakukan konfigurasi satu celery worker dan jumlah concurrency yang dinamis bergantung kepada jumlah GPU yang available dari proses monitoring GPU.In this era of technological development, data science has become essential in human work, prompting researchers to develop Lumba.ai to facilitate public access to data science and computer vision technology, particularly the feature of semantic object segmentation, without requiring deep IT knowledge. This research focuses on developing the semantic object segmentation feature on Lumba.ai by utilizing Convolutional Neural Network models such as Fully Convolutional Networks (FCN) and DeepLabv3. The implementation process includes data processing, modeling, and model evaluation using metrics, as well as model comparison using weighted binary cross entropy. The results show that the comparison of metrics on the tested machine learning models indicates that FCN and DeepLabv3 are the two best-performing models, achieving the highest IoU and Recall scores, supported by ResNet101 as the backbone and applying W-BCE. During development, the author implemented task queuing and GPU monitoring to optimally process user requests during training. The research produced satisfactory results by configuring a single celery worker and dynamic concurrency depending on the number of GPUs available from the GPU monitoring process."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership Universitas Indonesia Library