Diagnosis COVID-19 dapat dilakukan dengan berbagai metode, salah satunya dengan interpretasi citra medis rongga dada menggunakan machine learning. Namun, metode ini memiliki memerlukan waktu dan biaya yang besar, tidak ada standar dalam pengambilan gambar citra medis, dan pelindungan privasi pada data pasien. Model yang dilatih dengan dataset publik tidak selalu dapat mempertahankan performanya. Diperlukan metode pengklasifikasi berbasis multicenter yang dapat memiliki performa optimal pada dataset yang berbeda-beda. Skenario pertama dengan melatih model menggunakan arsitektur VGG-19 dan ConvNeXt dengan gabungan seluruh data dan masing-masing data. Lalu dilakukan fine tuning terhadap model yang dilatih pada gabungan seluruh data. Skenario kedua dengan Unsupervised Domain Adaptation berbasis maximum mean discrepancy dengan data publik sebagai source domain dan data privat sebagai target domain. Metode transfer learning dengan fine-tuning model pada arsitektur VGG-19 menaikkan train accuracy pada data Github menjadi 95% serta menaikkan test accuracy pada data Github menjadi 93%, pada data Github menjadi 93%, pada data RSCM menjadi 72%, dan pada data RSUI menjadi 75%. Metode transfer learning dengan fine-tuning model pada arsitektur ConvNeXt menaikkan evaluation accuracy pada data RSCM menjadi 73%. Metode unsupervised domain adaptation (UDA) berbasis maximum mean discrepancy (MMD) memiliki akurasi sebesar 89% pada dataset privat sehingga merupakan metode yang paling baik. Berdasarkan GRAD-CAM, model sudah mampu mendeteksi bagian paru-paru dari citra X-Ray dalam memprediksi kelas yang sesuai.
Diagnosis of COVID-19 can be done using various methods, one of which is by interpreting medical images of the chest using machine learning. However, this method requires a lot of time and money, there is no standard in taking medical images, and protecting patient data privacy. Models that are trained with public datasets do not always maintain their performance. A multicenter-based classification method is needed that can have optimal performance on different datasets. The first scenario is to train the model using the VGG-19 and ConvNeXt architecture by combining all data and each data. Then, the model trained using combined data is fine tuned. The second scenario uses Unsupervised Domain Adaptation based on maximum mean discrepancy with public data as the source domain and private data as the target domain. The transfer learning method with the fine-tuning model on the VGG-19 architecture increases train accuracy on Github data to 95% and increases test accuracy on Github data to 93%, on Github data to 93%, on RSCM data to 72%, and on data RSUI to 75%. The transfer learning method with the fine-tuning model on the ConvNeXt architecture increases the evaluation accuracy of RSCM data to 73%. The unsupervised domain adaptation (UDA) method based on maximum mean discrepancy (MMD) has an accuracy of 89% in private dataset making it the best method. Based on GRAD-CAM, the model has been able to detect parts of the lungs from X-Ray images in predicting the appropriate class.