Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 58 dokumen yang sesuai dengan query
cover
Sean Zeliq Urian
"Coronavirus Disease 2019 (COVID-19) merupakan sebuah penyakit yang disebabkan oleh novel coronavirus SARS-CoV-2. Penyakit yang berasal dari Provinsi Hubei di China ini sudah menyebar ke seluruh dunia, menjangkiti banyak hingga seluruh negara di dunia. Sudah menginfeksi kurang lebih 400 juta jiwa di seluruh dunia pada pertengahan kuartal pertama tahun 2022. Mencegah penyebaran COVID-19 merupakan tindakan yang harus segera dilakukan, salah satu caranya adalah dengan pendeteksian sedini mungkin. Pendeteksian COVID-19 selain menggunakan metode kedokteran, dapat dipertimbangkan mengenai penggunaan artificial intelligence. Penelitian mengenai metode pendeteksian COVID-19 menggunakan citra X-Ray yang telah dilakukan oleh Dhita menuai hasil yang cukup sukses. Menambahkan penelitian tersebut, kami melakukan metode pendeteksian menggunakan citra CT Scan. Beberapa penelitian mengenai pendeteksian COVID-19 menggunakan citra CT Scan seperti Tang et al. meneliti mengenai segmentasi citra CT Scan terhadap daerah local lesi terindikasi COVID-19 atau Pneumonia. Rahimzadeh, Attar, and S. M. Sakhaei juga melakukan penelitian sebelumnya mengenai pengklasifikasian pasien COVID-19 menggunakan citra CT Scan dengan mendapatkan hasil 90% akurasi dengan menggunakan metode FPN.

Coronavirus Disease 2019 (COVID-19) is a disease caused by the novel coronavirus SARS-CoV-2. This disease which originates from the Hubei Province in China has already spread throughout the world, reaching many if not all countries in the world. There have been more than 400 million people infected across the globe as of the first quarter of 2022. Prevention of the spreading of the disease is very important, and one of the best ways to do so is to detect its infection as soon as possible. Aside from asking a doctor, the task of detecting COVID-19 using artificial intelligence has been considered. The research done by Dhita to detect COVID-19 using X-ray images has been seen as a success. Adding to that, we attempt to detect COVID-19 using CT Scan images. A couple research papers about detecting COVID-19 using CT Scan images such as the ones done by Tang et al. tried to segment CT Scan images related to the lesions that indicate COVID-19 or Pneumonia. Rahimzadeh, Attar, and S. M. Sakhaei also conducted research related to classifying COVID-19 patients using CT Scan images and found success at 90% accuracy with an FPN model."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Naufal Ihsan Pratama
"Seiring berkembangnya teknologi informasi yang mulai merambah ke sektor ekonomi menyebabkan banyak bermunculan penyedia layanan dompet digital di Indonesia. DOKU sebagai salah satu penyedia layanan dompet digital ingin terus berinovasi untuk meningkatkan kepuasan pelanggan. Proses verifikasi data diri yang membutuhkan waktu lama karena harus dilakukan secara manual kini menjadi persoalan. Fokus penelitian ini adalah untuk mengembangkan sebuah aplikasi mobile cross platform yang dapat
digunakan untuk mengekstrak data dari gambar kartu idenitas pengguna DOKU agar proses verifikasi data dapat dilakukan secara otomatis.
Arsitektur dari aplikasi terdiri dari aplikasi mobile menggunakan Flutter dan webservice menggunakan Flask. Proses ekstraksi data dari gambar kartu identitas dilakukan menggunakan Tesseract-OCR. Hasil ekstraksi data akan diprediksi menggunakan model LSTM untuk dapat dilakukan verifikasi lanjutan. Hasil eksperimen menunjukkan akurasi pengenalan karakter dari gambar kartu identitas sebesar 77.45% dan akurasi prediksi kategori sebesar 88%. Dengan demikian aplikasi ini dapat digunakan
untuk menyelesaikan masalah verifikasi data pengguna.

The development of information technology has penetrated the economic sector causing many digital wallet service providers to appear in Indonesia. DOKU as one of the digital wallet service providers wants to innovate to increase customer satisfaction. The process of verifying personal data which takes a long time because it has to be done manually is now a problem. The focus of this research is to develop cross-platform mobile applications that can be used to extract data from DOKU user identity card images so that the data verification process can be done automatically. The application architecture consists of mobile applications using Flutter and web services using Flask. The data extraction process from the identity card image is done using Tesseract-OCR. The results of data extraction will be predicted using the LSTM model for the further verification process. The experimental results show that the accuracy of character recognition from the identity card images is 77.45% and the category prediction accuracy is 88%. Thus this application can be used to resolve user data verification issues."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ibnu Sofian Firdaus
"

Transaksi kartu kredit yang semakin meningkat yang diikuti dengan maraknya tindak kecurangan memicu penelitian mengenai pengembangan model prediksi transaksi kartu kredit fraud. Data transaksi kartu kredit Doku digunakan menjadi sumber data pada penelitian. Penelitian ini melakukan pengembangan model prediksi serta webservice prediksi transaksi kartu kredit fraud. Fitur yang digunakan dalam pembuatan model adalah amount, payment bank issuer, payment bank acquirer, payment brand, payment 3D secure ECI, payment type, payment bank issuer country, dan hour. Model Decision Tree memberikan hasil terbaik dalam aspek precision dan F1-score dengan nilai 97.2% dan 96.8%. Model XGBoost memberikan hasil terbaik dalam aspek recall dan FP-rate dengan nilai 96.4% dan 3%. Kedua model tersebut sama-sama memperoleh nilai accuracy terbaik yaitu 96.7%. Dalam aspek webservice, model XGBoost memiliki performa terbaik dengan rata-rata throughput 77 request per detik.


The increasing amount of credit card transaction followed by fraudulent transaction becoming more rampant provokes many studies in fraud credit card transaction prediction model. Doku credit card transaction is used as data source for this study. This study experiments on developing model and webservice to predict fraud credit card transaction. Features used in builiding the model are amount, payment bank issuer, payment bankacquirer, payment brand, payment 3D secure ECI, payment type, payment bank issuer country, and hour. Decision Tree model achieves best precision and F1-score with 97.2% and 96.8% score. XGBoost model achieves best recall and FP-rate with 96.4% and 3% score. Both said model achieves same best accuracy with 96.7% score. In regards of the webservice, XGBoost achieves best performance with average throughput reaching 77 request per second.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia , 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Aji Inisti Udma Wijaya
"Sistem rekomendasi dan pemelajaran mesin berbasis graf adalah bidang ilmu yang sedang berkembang dan populer. Sistem rekomendasi telah banyak digunakan sebagai alat yang dapat memberikan rekomendasi produk kepada pengguna. Sistem rekomendasi dapat digunakan untuk melakukan prediksi produk perbankan yang akan disarankan kepada pengguna, sehingga memudahkan pengguna untuk memilih produk perbankan yang tepat dan sudah dipersonalisasi. Perkembangan pemelajaran mesin berbasis graf dapat diimplementasikan dalam segala hal yang dapat direpresentasikan dalam bentuk graf. Rekomendasi produk perbankan dapat diterapkan dalam bentuk graf yaitu dengan menghubungkan nasabah yang pernah membeli produk ataupun nasabah yang memiliki profil yang mirip. Dari graf yang telah dibentuk, akan dilakukan prediksi sehingga nasabah baru dapat diklasifikasikan sebagai direkomendasikan dengan menghubungkan nasabah tersebut kedalam graf. Dalam penelitian ini, diterapkan tiga model rekomendasi berbasis graf dan tiga model rekomendasi berbasis pohon. Model berbasis graf yang digunakan adalah GraphSAGE, GAT dan GCN. Model berbasis pohon yang digunakan adalah Random Forest, LightGBM dan XGBoost. Dari keenam model yang dibuat, dilakukan perbandingan terhadap performa dan waktu inferensi. Hasil eksperimen menunjukkan bahwa model rekomendasi berbasis graf menghasilkan nilai AUC tertinggi 0,974 sedangkan untuk model rekomendasi berbasis pohon mendapatkan nilai AUC tertinggi 0,863 yang menunjukan bahwa model berbasis graf memiliki performa yang lebih baik dibandingkan model berbasis pohon. Pada penelitian ini juga didapatkan bahwa waktu inferensi dari model berbasis pohon lebih cepat 900 kali lipat dibandingkan waktu inferensi model berbasis graf.

Recommendation systems and graph-based machine learning are growing and popular fields nowadays. Recommendation system has been widely used as a tool that can provide product recommendations to users. Recommendation system can be used to predict banking products that will be suggested to users, making it easier for users to choose the right and personalized banking products. The development of graph-based machine learning can be implemented in everything that can be represented in the form of a graph. Recommendations for banking products can be applied in the form of graphs with connecting customers who have purchased the product or customers who have a similar profile to customers who have purchased the product. From the graph that has been formed, predictions will be made so that new customers can be classified as recommended by connecting these customers to the graph. In this study, three graph-based recommendation models and three tree-based recommendation models were applied. The graph-based models used are GraphSAGE, GAT and GCN. The tree-based models used are Random Forest, LightGBM and XGBoost. Comparison was made on the performance and inference time from the six models that have been made. The experiment results show that the graph-based recommendation model get highest AUC score 0.974 and tree-based recommendation model get highest AUC score 0.863 which indicates that graph-based recommendation model get better performace than tree-based recommendation model. It also fount that time inference of the tree-based model is 900 times faster than the inference time of the graph-based model."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Devin Winardi
"Skripsi ini membahas tentang implementasi text sequence classification menggu- nakan data pesan pengguna asli dari perusahaan e-commerce Indonesia, untuk meningkatkan performa chatbot perusahaan dalam memprediksi intent. Problem yang menjadi fokus dalam skripsi ini adalah bagaimana cara untuk menggunakan konteks-konteks yang ada pada pesan pengguna di awal sesi untuk memprediksi intent dari pesan pengguna yang ada di akhir sesi. Skripsi ini bekerja sama dengan salah satu perusahaan ecommerce di Indonesia dan menggunakan data dari percaka- pan antara pengguna dan chatbot yang dimiliki perusahaan. Setelah eksplorasi data dilakukan, ditemukan bahwa terdapat ketidakseimbangan pada data sehingga di- gunakan focal loss agar model dapat memprediksi dengan baik intent-intent yang memiliki data sedikit. Selain itu, data juga diaugmentasi, yakni pesan-pesan peng- guna dalam sesi percakapan yang sama digabungkan agar konteks pada pesan per- tama dapat digunakan untuk memprediksi intent pada pesan selanjutnya. Penelitian ini juga bereksperimen dengan model LSTM dan Bi-LSTM, serta menggunakan attention layer untuk memilih data yang lebih penting daripada yang lain. Hasil penelitian menunjukkan bahwa model yang diajukan pada akhir penelitian berhasil menyaingi model perusahaan yang sebelumnya. Selain itu, penulis juga melakukan analisis kesalahan dan menemukan bahwa model memiliki performa yang rendah ketika memprediksi beberapa intent, hal ini disebabkan oleh adanya kesamaan kan- dungan kata pada intent-intent tersebut, sehingga model mengalami kesulitan mem- bedakan intent-intent tersebut.

This thesis talks about the implementation of text sequence classification on real user message data of an e-commerce company in Indonesia. It aims in improving the company’s chatbot performance in predicting intents. The problem that is the main focus of this thesis is how to use the contexts in the user’s message at the beginning of the session to predict the intent of the user’s message at the end of the session. This thesis collaborates with an e-commerce company in Indonesia and uses data from conversations between users and the company’s chatbot. After exploring the data, it was found that there is an imbalance in the data so that focal loss is used so that the model can predict well the intents that have little data. In addition, the data is also augmented, where user messages in the same conversation session are combined so that the context of the first message can be used to predict the intent of the next message. This work also includes experiments on the use of LSTM and Bi-LSTM models, and used the attention layer to select data that are more important than others. The experiment result shows that the proposed model is successful in competing with the company’s past model. In addition, the author also conducted an error analysis where it was found that the model has low performance when predicting a number of particular intents, this is due to the similarity of the wording of the intents and because of that, the model has difficulty in distinguishing the intents."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Aldo Bima Syahputra
"SHACL constraints checking merupakan proses validasi suatu RDF data graph terhadap suatu SHACL shapes graph. Pengembangan SHACL constraints checking pada umumnya menggunakan rule engine yang tertanam di dalam inti implementasinya. Penelitian ini bertujuan untuk menginvestigasi apakah program SHACL constraints checking dapat dibangun di atas rule engine yang independen. Penelitian ini dilakukan dengan melakukan implementasi pembuatan program SHACL constraints checking yang dibangun di atas rule engine Vertical Datalog (VLog). Program yang diimplementasikan pada penelitian ini dibangun menggunakan bahasa pemrograman Java serta menggunakan library Rulewerk dan Apache Jena. Berdasarkan implementasi yang telah dilakukan, program SHACL constraints checking dapat dibangun di atas rule engine VLog dengan melakukan serangkaian transformasi SHACL shapes graph dan RDF data graph menjadi rule syntax. Namun, pada penelitian ini program SHACL constraints checking yang dibangun hanya dapat memvalidasi SHACL Constraint sh:class, sh:datatype, sh:nodeKind,sh:minCount, sh:maxCount, sh:equals, sh:disjoint, sh:not, sh:and, sh:or, sh:xone, sh:node, sh:property. SHACL constraint lainnya tidak dapat diimplementasikan karena membutuhkan operasi regex dan perbandingan antar literal yang sulit untuk ditranslasi menjadi rule syntax.

SHACL constraints checking is a process to validate an RDF data graph againts a SHACL shapes graph. The development of SHACL constraints checking program usually use rule engine embedded on its own implementation. This research was aimed to investigate whether SHACL constraints checking program can be built on top of independent rule engine or not. This research will conduct the implementation of building SHACL constraints checking program on top of VLog Rule Engine. The program implemented in this research was built in Java programming language and was using Rulewerk and Apache Jena library. According to the implementation conducted in this research, SHACL constraints checking program can be built on top of VLog rule engine by transforming SHACL shapes graph and RDF data graph into rule syntax. But, the program can only validate SHACL constraint as follows: sh:class, sh:datatype, sh:nodeKind,sh:minCount, sh:maxCount, sh:equals, sh:disjoint, sh:not, sh:and, sh:or, sh:xone, sh:node, sh:property. Other SHACL constraints cannot be implemented in this research because those SHACL constraints requires regex operation and literal comparation which hard to be transformed into rule syntax."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Bariqi Abdillah
"ABSTRAK
Pelacakan multi objek merupakan salah satu topik penting pada bidang ilmu komputer yang memiliki banyak aplikasi, diantaranya adalah sebagai sistem pengawasan, navigasi robot, analisis bidang olahraga, autonomous driving car, dan lain-lain. Salah satu permasalahan utama pelacakan multi objek adalah oklusi. Oklusi adalah objek yang tertutupi oleh objek lainnya. Oklusi dapat menyebabkan ID antar objek tertukar. Penelitian ini membahas oklusi pada pelacakan multi objek serta penyelesaiannya dengan Network Flow. Diberikan data deteksi objek-objek pada setiap frame-nya, tugas pelacakan multi objek adalah mengestimasi pergerakan setiap objek kemudian menghubungkan objek-objek hasil estimasi dengan objek-objek pada frame berikutnya yang bersesuaian atau yang lebih dikenal dengan asosiasi data. Pandang setiap objek pada sebuah frame sebagai node, kemudian ada edge yang menghubungkan setiap node pada frame satu dengan frame lainnya, arsitektur seperti ini pada teori graph dikenal dengan Network Flow. Kemudian cari himpunan edge yang memberikan peluang terbesar transisi dari suatu frame ke frame berikutnya, atau pada dunia optimisasi lebih dikenal dengan max-cost network flow. Edge pada kasus ini berisikan informasi seberapa besar peluang suatu node berpindah ke node pada frame setelahnya. Perhitungan peluang berdasarkan jarak posisi dan kemiripan fitur, fitur yang digunakan adalah fitur CNN. Penulis memodelkan max-cost network flow sebagai permasalahan maximum likelihood yang kemudian diselesaikan dengan algoritme Hungarian. Data yang digunakan pada penelitian ini adalah 2DMOT2015. Hasil evaluasi performa menunjukkan sistem yang dibangun memberikan akurasi 20.1% dengan ID yang tertukar sebanyak 3084 dan pemrosesan frame yang cepat, mencapai 215.8 frame/second.

ABSTRACT


Multi object tracking is one of the most important topics of computer science that has many applications, such as surveillance system, navigation robot, sports analysis, autonomous driving car, and others. One of the main problems of multi-object tracking is occlusion. Occlusion is an object that is covered by other objects. Occlusion may cause the ID between objects to be switched. This study discusses occlusion on multi-object tracking and its completion with network flow. Given objects detection on each frame, the task of multi object tracking is to estimate the movement of objects and then connect the estimation objects corresponding to the objects in the next frame or well known as the data association. Notice that each object on a frame as a node, then there is an edge connecting each node on a frame with other frames, this architecture in graph theory is known as network flow. Then find the set of edges that provide the greatest probaility of transition from one frame to the next, or to the optimization problem well known as max-cost network flow. Edge contains information on how probabiltity a node moves to the node in the frame afterwards. This probability calculation is based on position distance and similarity feature between frames, the feature used is CNN feature. We modeled max-cost network flow as the maximum likelihood problem which was then solved with the Hungarian algorithm. The data used in this research is 2DMOT2015. Performance evaluation results show that the system built gives accuracy 20.1% with the ID switch is 3084 and fast computational process on 215.8 frame/second.

"
2018
T52044
UI - Tesis Membership  Universitas Indonesia Library
cover
Kerenza Doxolodeo
"Konstruksi dataset QA membutuhkan akses ke sumber daya dan finansial yang tidak kecil, sehingga dataset untuk bahasa-bahasa yang kurang dipelajari seperti Ba- hasa Indonesia minim. Studi ini mengkonstruksi dataset QA Indonesia yang dibuat secara otomatis dari awal hingga akhir. Proses dimulai dengan mengambil tripel dari Wikidata dan mengkonversikan tripel tersebut menjadi pertanyaan menggu- nakan CFG. Teks konteks dicari dari korpus Wikipedia Bahasa Indonesia dengan heuristik untuk mencari teks yang sesuai. Pertanyaan-pertanyaan tersebut dival- idasi dengan model M-BERT yang fungsinya sebagai proxy model yang menilai kelayakan pertanyaan. Dataset terdiri dari 134 ribu baris pertanyaan simpel dan 60 ribu pertanyaan kompleks yang menggandung dua buah fakta dalam satu per- tanyaan. Untuk pertanyaan simpel dataset mendapatkan evaluasi yang mirip oleh manusia (72% AC-IQuAD vs 67% SQuAD terjemahan) dan model QA Indonesia yang terbaik adalah yang menggabungkan dataset SQuAD Inggris dan AC-IQuAD (F1 57.03 terhadap dataset TydiQA).

Construction of QA datasets requires access to considerable resources and fi- nance, so datasets for less-learned languages such as Indonesian are scarce. This study constructs an Indonesian QA dataset that is generated automatically end- to-end. The process begins by taking triples from Wikidata and converting those triples into questions using CFG. The context text is searched from the Indonesian Wikipedia corpus with heuristics to find the appropriate text. These questions were validated with the M-BERT model which functions as a proxy model that assesses the feasibility of questions. The dataset consists of 134 thousand lines of simple questions and 60 thousand complex questions containing two facts in one ques- tion. For simple queries the datasets received similar evaluations by humans (72% AC-IQuAD vs 67% translated SQuAD) and the best Indonesian QA model was the one combining English SQuAD and AC-IQuAD datasets (F1 57.03 against TydiQA dataset)."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Faraya Agatha Putri
"

Karya sastra merupakan hal yang perlu dilestarikan, karena melestarikan karya sastra juga berarti melestarikan bahasa. Upaya pelestarian dapat dilakukan dengan berbagai cara, salah satunya dengan memanfaatkan teknologi. Implementasi upaya yang dapat dilakukan dengan memanfaatkan teknologi adalah dengan melakukan ekstraksi entitas karya sastra secara otomatis. Dari data ekstraksi tersebut dapat dibangun knowledge base agar informasi menjadi lebih terstruktur dan dapat diatur dengan mudah. Penelitian ini menggunakan sumber data dari 435 halaman sastrawan Indonesia pada Wikipedia berbahasa Indonesia. Terdapat dua proses ekstraksi pada penelitian ini, yaitu ekstraksi daftar dan ekstraksi tabel. Pada akhir penelitian ini, diperoleh 4953 entitas karya sastra yang terpetakan ke dalam 14 kategori karya sastra. Kualitas hasil ekstraksi pada penelitian ini diukur dengan nilai precision dan recall. Nilai precision dan recall didapatkan dari hasil perbandingan data hasil ekstraksi dengan data golden result yang merupakan data yang disusun secara manual dari halaman-halaman sastrawan Indonesia. Nilai precision dan recall pada penelitian ini adalah 0.608 untuk precision dan 0.571 untuk recall.


Literature work needs to be preserved because it also means preserving a language. There are many preserving methods, one of them is using technology. The implementation of using technology as a preserving method is by automatically extracting the literature work entities. From that data extraction, a knowledge base can be built to make the information more structured and easy to manage. This research used 435 Wikipedia pages about Indonesian litterateur as a source of data extraction. Two extraction processes have been implemented, which are list extraction and table extraction. At the end of this research, 4953 literature work entities that mapped into 14 literature work categories were obtained. The quality of the data extraction results in this research was measured by precision and recall value. The precision and recall value was obtained from comparing the data extraction result with the golden result which is data that was organized manually from Wikipedia pages about Indonesian litterateur. The precision and recall value of this research are 0.608 for precision value and 0.571 for recall value.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ratna Mufidah
"ABSTRAK
Analisis citra pap smear merupakan salah satu cara yang cukup aman, efektif, dan banyak digunakan untuk deteksi dini kanker leher rahim. Namun, analisis citra pap smear secara manual berdasarkan pengamatan mikroskopis dapat menghasilkan diagnosis yang tidak konsisten karena sebagian besar kriteria yang digunakan dalam pengamatan manual untuk membedakan sebuah sel normal atau tidak normal bersifat deskriptif dan relatif subyektif. Selain itu, pengamatan manual juga memerlukan waktu yang cukup lama dan rawan terjadi kesalahan. Beberapa penelitian terkait analisis citra pap smear secara otomatis telah dilakukan untuk menghemat waktu dan menghindari subyektifitas, diantaranya adalah segmentasi dan klasifikasi otomatis citra pap smear. Namun demikian, analisis pada citra pap smear berkualitas rendah dan citra pap smear multi-cell masih menjadi tantangan tersendiri. Untuk itu diperlukan sebuah metode yang mampu menghasilkan high level features karena high level features cenderung lebih konsisten dan tahan terhadap ganggguan yang terjadi pada citra. Pada penelitian ini, penulis mengusulkan metode Stacked Sparse Autoencoder SSAE sebagai salah satu pendekatan deep learning DL untuk memperoleh high level features dari low level features pada citra pap smear. High level fetaures yang dihasilkan oleh SSAE inilah yang nantinya menjadi fitur pembeda antar kelas. Sedangkan untuk citra multi-cell, penulis menerapkan teknik segmentasi yang menggabungkan teknik Maximally Stable Extremal Region MSER dengan Discrete Wavelet Transform DWT dan morphological operations untuk melakukan ekstraksi nukleus. Berdasarkan berbagai eksperimen yang dilakukan, hasil segmentasi pada kanal intensity dengan dimensi citra 72 72 mampu memperoleh hasil klasifikasi terbaik pada arsitektur SSAE 5184-324-162-2 yang dilatih menggunakan 10 epoch dengan nilai parameter sparsity 0.25. Dimana rata-rata nilai akurasi yang didapatkan sebesar 65,13 .

ABSTRACT
Analysis of pap smear image is a safe, effective and widely used method for early detection of cervical cancer. However, pap smear image analysis manually based on microscopic observation can produce an inconsistent diagnosis because most of the criteria used in the manual observation to distinguish a normal or abnormal cells are descriptive and relatively subjective. In addition, manual observation also require considerable time and error prone. Several studies concerning automatically pap smear image analysis has been done in order to save time and avoid subjectivity, such as automatic segmentation and classification of pap smear image. However, analysis of the low quality image and the multi cell image remains a challenge. Therefore, a capable method for generating high levels features is required because high level features tend to be more consistent and resistant to the disruption that occurs in the image. In this research, the authors propose Sparse Stacked Autoencoder SSAE method as an approach of deep learning DL to obtain a high level features from low level features of cytology image. High level fetaures generated by SSAE is will be the distinguishing feature between classes. As for the multi cell images, the author apply segmentation techniques that incorporate Maximally Stable Extremal Region MSER techniques with Discrete Wavelet Transform DWT and morphological operations to extract nuclei. Based on various experiment, the results of segmentation on the intensity channel with dimensions 72 72 able to obtain the best classification results on SSAE architecture 5184 324 162 2 trained using 10 epoch with sparsity parameter value 0.25. The best accuracy achieves 65.13 . "
2018
T51318
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6   >>