Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 42508 dokumen yang sesuai dengan query
cover
Ranni Kusumawardhani
"Perkembangan teknologi basis data, khususnya data mining saat ini sangat pesat. Oleh karena itu, dibutuhkan suatu sarana untuk dapat mempelajari dan membandingkan metode-metode yang terdapat di dalam data mining. University of Waikato telah memiliki data mining tools yang disebut sebagai WEKA yang berisi koleksi berbagai algoritma
di dalam data mining. Akan tetapi, WEKA tidak memiliki algoritma klasifikasi data mining yang telah dikenal secara umum. Fokus utama dari bagian ini adalah pengembangan algoritma teknik classification pada data mining. Laporan Tugas Akhir ini akan membahas hasil analisis dua algoritma teknik classification data mining yang merupakan bagian dari data mining tools yang sedang dikembangkan, yaitu CMAR (Classification Based on Multiple Association Rules ) dan CSFP(Classi cation Based on Strong Frequent Pattern ). Selain analisis, di dalam tugas akhir juga dilakukan implementasi algoritma CMAR. Kedua algoritma tersebut menggunakan prinsip association rules dalam proses meng hasilkan rules. Uji coba CMAR dilakukan terhadap satu data set kecil dan data set besar. Selain itu, uji coba juga dilakukan dengan membandingkan hasil CSFP dan CMAR pada kedua data set tersebut.
Algoritma CMAR pernah dikembangkan sebelumnya di Liverpool. Akan tetapi, algoritma tersebut hanya dapat diuji coba dengan meng gunakan data yang telah disediakan oleh pembuat, sehingga algoritma ini tidak dapat diuji coba dengan menggunakan data set lain.
Berdasarkan uji coba yang telah dilakukan, tingkat confidence sangat menentukan banyak rules yang dihasilkan. Walaupun CSFP dan CMAR menggunakan prinsip association rules, terdapat perbedaan pada rata-rata jumlah rules yang dihasilkan dan akurasi terhadap data set. Secara umum, algoritma CSFP lebih unggul dari CMAR dalam hal rules yang dihasilkan dan akurasi. Kata kunci: CFP-Tree, classification"
Depok: Universitas Indonesia, 2007
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ranni R.
"Perkembangan teknologi basis data, khususnya data mining saat ini sangat pesat. Oleh karena itu, dibutuhkan suatu sarana untuk dapat mempelajari dan membandingkan metode-metode yang terdapat di dalam data mining. University of Waikato telah memiliki data mining tools yang disebut sebagai WEKA yang berisi koleksi b'rbagaialgoritma di dalam data mining. Akan tetapi, WEKA tidak memiliki algoritma klasifikasi data mining yang telah dikenal secara umum. Fokus utama dari bagian ini adalah pengembangan algoritma teknik classi cation pada data mining. Laporan Tugas Akhir ini akan membahas hasil analisis dua algoritma teknik classification data mining yang merupakan bagian dari data mining tools yang sedang dikembangkan, yaitu CMAR (Classification Based on Multiple Association Rules ) dan CSFP(Classification Based on Strong Frequent Pattern ). Selain analisis, di dalam tugas akhir juga dilakukan implementasi algoritma CMAR. Kedua algoritma tersebut menggunakan prinsip association rules dalam proses menghasilkan rules. Uji coba CMAR dilakukan terhadap satu data set kecil dan data set besar. Selain itu, uji coba juga dilakukan dengan membandingkan hasil CSFP dan CMAR pada kedua data set tersebut. Algoritma CMAR pernah dikembangkan sebelumnya di Liverpool. Akan tetapi, algoritma tersebut hanya dapat diuji coba dengan menggunakan data yang telah disediakan oleh pembuat, sehingga algoritma ini tidak dapat diuji coba dengan menggunakan data set lain.
Berdasarkan uji coba yang telah dilakukan, tingkat confidence sangat menentukan banyak rules yang dihasilkan. Walaupun CSFP dan CMAR menggunakan prinsip association rules, terdapat perbedaan pada rata-rata jumlah rules yang dihasilkan dan akurasi terhadap data set. Secara umum, algoritma CSFP lebih unggul dari CMAR dalam hal rules yang dihasilkan dan akurasi.
Kata kunci: CFP-Tree, classi cation, classifier, CMAR, CSFP, FP-Tree, "
Depok: Universitas Indonesia, 2007
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Pandapotan, Adolf
"Tujuan Tugas Akhir ini adalah mengimplementasikan algoritma clustering (sebagai bagian dari Data Mining Algorithms Collection) menggunakan bahasa pemrograman C++. Ada 2 algoritma clustering yang diimplementasikan yaitu Cobweb dan Iterate. Uji coba dilakukan dengan membandingkan kecepatan eksekusi dari implementasi Cobweb dengan Cobweb pada WEKA dan implementasi Iterate, serta membandingkan kualitas partisi implementasi Cobweb dengan Cobweb pada WEKA dan implementasi Iterate. Ada 2 jenis data uji coba yaitu dataset kecil dan dataset besar. Hasil uji coba menunjukan algoritma Cobweb pada WEKA bukan algoritma Cobweb murni, waktu eksekusi Cobweb implementasi lebih cepat dari WEKA namun lebih lambat dari Iterate implementasi, urutan data berpengaruh terhadap hasil Cobweb, dan kualitas Iterate lebih baik dari Cobweb. Kata kunci: clustering, Cobweb, data mining, dataset, Iterate.
The purpose of this mini thesis is to implement clustering algorithms (as part of Data Mining Algorithms Collection) using C++. There are two clustering algorithms that are implemented, that are Cobweb and Iterate. The experiment is done by comparing the execution speed of Cobweb implementation with Cobweb in WEKA and Iterate implementation, also comparing the partition quality of Cobweb implementation with Cobweb in WEKA and Iterate implementation. There are two kinds of experiment data, which are small dataset and large dataset. The test results show that Cobweb algorithm in WEKA is not pure Cobweb algorithm, the execution time of Cobweb implementation is faster than WEKA but slower than Iterate implemetation, the data sorted affected to the Cobweb result and the quality of Iterate is better than Cobweb."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2008
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Yogi Kurnia
"Algoritma data mining membutuhkan sumber data yang berkualitas untuk mendapatkan hasil yang optimal. Kualitas sumber data dapat ditingkatkan kualitasnya dengan menggunakan teknik preprosessing data yang tepat. Kemampuan dalam menampilkan output dari proses data mining yang mudah dimengerti sangat penting untuk mendapatkan pengetahuan. Penelitian ini bertujuan untuk mengembangkan aplikasi yang bisa menjawab kebutuhan dari algoritma data mining. Hasil dari penelitian ini adalah aplikasi yang dapat melakukan keseluruhan proses baik preprocessing data dalam hal pemilihan data dan pengolahan data awal, penyediaan metadata, sampai dengan analisis data menggunakan algoritma data mining. Sehingga, analisis jumlah data yang besar dapat dilakukan dengan efisien dan efektif, tetapi hasil prediksi yang didapatkan tetap optimal.

Data mining algorithms require high quality data sources to obtain optimal results. Quality of data sources can be enhanced by using appropriate data preprocessing techniques. Ability to display easily understood output of the data mining process is essential to gain knowledge. This study aims to develop applications that can address the needs of data mining algorithms. The results of this study is an application that can do the whole steps from data preprocessing until data analysis using data mining algorithms. Data processing itself includes data and preliminary data processing and provision of metadata.. So, analyzing large amount of data can be done in efficient and effective fashion without disregarding necessary need of optimal prediction result."
Depok: Universitas Indonesia, 2012
S43461
UI - Skripsi Open  Universitas Indonesia Library
cover
Ismail
"

Kanker adalah penyakit yang disebabkan akibat pertumbuhan (pembelahan) tidak normal dari sel jaringan tubuh. Kanker dapat menyebar ke jaringan lain yang terdekatnya. Menurut World Health Organization (WHO), tercatat pada tahun 2018 ada sebanyak 9,6 juta jiwa yang meninggal pada tahun 2018. Biasanya untuk dapat mengetahui sesorang terjangkit kanker atau tidak, ahli medis akan melakukan biopsi apabila disarankan oleh dokter. Namun, sekarang terknologi semakin berkembang, para saintis menggunakan metode komputasi dalam pendekatan pengolahan citra untuk meningkatkan penilaian histopatologis. Penelitian – penelitian sebelumnya telah menunjukan bagaimana machine learning dapat membantu pendeteksian kanker salah satunya mengguakan metode data scaling. Penelitian ini membahas algoritma data scaling membantu meningkatkan akurasi dalam proses klasifikasi kanker usus besar menggunakan Support Vector Machine. Hasil dari penelitian ini, algoritma data scaling memiliki nilai akurasi yang lebih tinggi dibandingkan dengan yang tidak menggunakannya.

 


Cancer is a disease caused by abnormal growth (division) of body tissue cells. Cancer can spread to other tissues closest to it. According to the World Health Organization (WHO), it was noted that in 2018 there were 9.6 million people who dies in 2018. Usually to be able to find out if someone has contracted cancer, a medical expert will do a biopsy if advised by a doctor. However, now that technology is growing, scientists use computational methods in image processing approaches to improve histopathological assessment. Previous studies have shown how machine learning can help detect cancer, one of which uses the method of data scaling. This study discusses the data scaling algorithm help to improve accuracy in the process of classification of colon cancer using Support Vector Machine. The result of this study, the data scaling algorithm has a higher accuracy than those who did not use it.

"
2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Kusrini
Yogyakarta: Andi Yogyakarta, 2009
005.1 KUS a
Buku Teks SO  Universitas Indonesia Library
cover
Dimas Syuman Gritosandiko
"Malware merupakan suatu hal yang dapat merusak maupun menganggu aktivitas dari suatu jaringan ataupun komputer, untuk mencegah semakin tersebarnya Malware maka dibutuhkan pendeteksi untuk malware disuatu jaringan maka dapat ditempatkan suatu Honey Pot ataupun DNS Sinkhole untuk memantau adanya penyerangan terhadap jaringan tersebut ataupun ada malware yang berusaha masuk pada jaringan tersebut, data ndash; data malware yang telah dikumpulkan selanjutnya dapat diolah dengan menggunakan data mining, dengan menggunakan data mining, hasil pengolahan data tersebut dapat dijadikan sebagai parameter bagaimana aktivitas malware yang sering masuk kedalam jaringan dan jenis malware apa saja yang ada dijaringan tersebut. Dengan menggunakan Oracle Data Miner dapat dikatakan untuk tipe data malware yang digunakan untuk data mining adalah Naive Bayes dan Support Vector Machine SVM dimana menunjukkan untuk tipe data seperti ini algoritma Naive Bayes lebih berfungsi dengan baik dibandingkan dengan SVM terlihat dari presentase keberhasilan pengolahan datanya dimana Naive Bayes memiliki 76 keberhasilan sedangkan SVM hanya 32 keberhasilan.

Malware are something that can damage or disrupt activities of a network or computer. To prevent spreading of a malware, it is required a detection or a protection system in a network. Honey Pot and DNS Sinkhole are the two kinds of malware detection system that can detect and monitoring network activities and capture or prevent any malware attack that can happens inside the network or computer. Malware datas that already been gathered and collected then will be processed using data mining. With data mining, the mining result will be used as a parameter in how malware activities inside a network and what kind of malware that actived inside a network. Using Oracle Data Miner with data that consist of malware type can be done using Naive Bayes and Support Vector Machine SVM . With this kind of data Naive Bayes perform better than the other algorithm SVM judging by the completion percentage of data mining process for Naive Bayes are 76 and SVM are 32.
"
Depok: Fakultas Teknik Universitas Indonesia, 2016
S66468
UI - Skripsi Membership  Universitas Indonesia Library
cover
Filda Maharani Hasanah
"Telemedicine merupakan solusi ideal untuk menjadi layanan kesehatan di era COVID-19. Halodoc merupakan salah satu aplikasi telemedicine terbaik di Indonesia. Sejak tahun 2022, Halodoc sudah mempunyai lebih dari 15.000.000 pengguna sehingga perlu mengganti fokus bisnisnya dari product oriented menjadi customer oriented. Halodoc perlu melakukan analisis customer segmentation untuk mengetahui karakteristik pengguna lebih dalam. Analisis ini menggunakan salah satu teknik data mining yaitu clustering menggunakan algoritma K-Prototypes. Atribut penggunaan voucher, total transaksi, kategori produk, spesialis dokter, provider asuransi, kelompok usia, merek handphone, dan lokasi digunakan pada penelitian ini. Pengguna Halodoc yang melakukan transaksi minimal 1 kali selama November 2021 hingga Januari 2022 yang berjumlah 193.000 pengguna akan disegmentasi. Hasilnya adalah pengguna Halodoc dapat disegmentasi menjadi 4 status sosial yaitu working class, petty bourgeoise, middle class, dan high class. Status sosial yang memiliki ukuran terbesar adalah middle class yaitu dengan proporsi 46,69% dari keseluruhan pengguna. Pengguna yang paling potensial untuk Halodoc adalah yang berasal dari status sosial High Class karena memiliki frekuensi transaksi terbanyak dan nominal pengeluaran terbesar.

Telemedicine is the ideal solution to become a healthcare service in COVID-19 era. Halodoc is one of the best telemedicine applications in Indonesia. Since 2022, Halodoc has more than 15.000.000 users, so they need to change its business focus from product oriented to customer oriented. Halodoc needs to do customer segmentation analysis to find out more about user’s characteristics. This analysis uses one of data mining techniques which is K-Prototypes Clustering. Voucher usage, total transaction, doctor specialist, insurance provider, age group, mobile phones’s brand, and location are used in this study. Halodoc’s users who make transactions at least 1 time during November 2021 to January total 193.000 users will be segmented. The results is Halodoc’s users can be segmented into 4 social classes such as working class, petty bourgeoise, middle class, and high class. Social status that has the largest size is the middle class with the proportion of 46.69% of the total users. The most potential users for Halodoc are those from High Class social status because they have the highest transaction frequency and the largest nominal spending."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ikhwanul Ghazy Dzakwan
"ABSTRAK
Padatahun 2007, Daerah Khusus Ibukota (DKI) Jakarta mengalami banjir besar yang merendam hampir 60% wilaya DKI Jakarta, yang salah satunya disebabkan oleh curah hujan yang tinggi. Dua bulan setelah kejadian tersebut, Gubernur DKI Jakarta menyatakan ibukota dalam kondisi kejadian luar biasa (KLB) demam berdarah. Dari 2 kejadian tersebut, terdapat indikasi kasus demam berdarah dengue(DBD) erat kaitannya dengan cuaca. DBD adalah penyakit yang disebabkan oleh virus dengue dan disebarkan melalui gigitan nyamuk aedes aegepty dan aedes albopictus betina yang terinfeksi virus dengue. Penyakit ini dapat menyerang manusia di segala rentang umur. Sejak Januari hingga Maret 2020, Dinas Kesehatan Pemerintah Provinsi DKI Jakarta mencatat terdapat 971 kasus DBD. Deteksi dini terkait kejadian DBD dibutuhkan agar berbagai pihak terkait dapat mengambil langkah-langkah antisipasi sedini mungkin. Ilmu matematika dapat berperan dalam membantu deteksi dini kejadian DBD di DKI Jakarta, salah satunya menggunakan sistem klasifikasi dengan berbasis artificial intelligence. Random forest classification merupakan salah satu bentuk machine learning, yang juga merupakan bagian dari artificial intelligence, yang dikenalkan oleh Breiman pada tahun 2001 melalui penelitiannya dengan metode ensemble. Setiap decisiontree pada random forest memberikan hasil klasifikasi dan menggunakan sistem suara terbanyak (majority vote) untuk menentukan hasil akhir dari klasifikasi random forest. Breiman dalam penelitiannya juga menunjukkan kelebihan random forest yang antara lain memiliki error lebih rendah dibandingkan metode lain yangsejenis dan dapat mengatasi data train yang berukuran besar secara efisien. Analisis klasifikasi kasus DBD dalam kaitannya dengan data klimatologi dilakukan dengan pendekatan random forest pada skripsi ini. Data insiden DBD, jumlah penduduk, dan data klimatologi berupa curah hujan, temperatur, dan kelembapan tahun 2008-2017pada tiap Kota di DKI Jakarta (kecuali Kepulauan Seribu) digunakan pada skripsi ini. Random forest diimplementasikan untuk melakukan klasifikasi tingkat kewaspadaan kasus DBD dalam tiga jenis kategori, yaitu: aman, waspada, danawas. Hasil implementasi algoritma random forest dalam membangun model klasifikasi tingkat kewaspadaan kasus DBD untuk Kota Jakarta Timur, Jakarta Utara, Jakarta Selatan, Jakarta Barat, dan Jakarta Pusat di skripsi ini menghasilkan nilai akurasi secara berurut yaitu 93,41%, 89,01%, 83,52%, 82,42%, dan 80,22%.

ABSTRACT
In 2007, the capital city DKI Jakarta had one of the worst floods, that submerged nearly 60% of the area. One of the causes was a heavy rainfall. Two months after the incident, Two months after the incident, the Governor of DKI Jakarta stated that the capital city was in an outbreak of dengue fever. From these two incidents, there are some indications of dengue hemorrhagic fever cases related to the weather. DHF is a disease caused by the dengue virus and spreads by the bite of female Aedes Aegepty and Aedes Albopictus mosquitoes thathad been infected with the dengue virus. This disease can affect humans in any kind of age. From January to March 2020, the government health office of DKI Jakarta reported 971 cases of dengue fever. Early detection related to the incidence of DHF is needed so that the preventive action can be done as early as possible. Mathematics helps a lot to detect a dengue fever in DKI Jakarta earlier using a classification system based on artificial intelligence. Random forest is one of the machine learning methods, found by Breiman in 2001 through his research with an ensemble method. Every decision tree in random forest provides classification results, using the majority vote system to determine the final results of the random forest classification. Breiman also mentioned the advantages of this method which are having fewer errors and efficiently resolving a bigger size of the train data. Analysis of the classification of DHF cases in relation to climatological data was carried out using the random forest approach in this research. DHF incidence data, population, and climatological data in the form of rainfall, temperature and humidity from 2008 -2017 in each city in DKI Jakarta (except Kepulauan Seribu) are used in this research. Random forest is implemented to classify the alertness level of DHF cases into three categories, namely: safe, nearly safe, and not safe. The results of the implementation of the random forest algorithm in building a classification model for the alertness level of dengue cases for East Jakarta, North Jakarta, South Jakarta, West Jakarta and Central Jakarta in the form of accuracy values are 93.41%, 89.01%, 83 ,52%, 82.42%, and 80.22%.
"
2020
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Nanda Nur Ibrahim
"ABSTRAK
Penelitian ini bertujuan untuk mengkaji pemanfaatan algoritma COBWEB dalam data mining untuk menemukenali fraud transaction dan disajikan dalam bentuk yang lebih informatif berdasarkan data riwayat transaksi yang sudah ada. Metode pengujian melalui WEKA digunakan untuk mengevaluasi cluster terbesar pada status pembayaran yang bernilai tidak diproses sebagai indikasi fraud transaction. Data hasil dari pengujian yang dilakukan akan dijadikan masukan untuk dianalisa berdasarkan parameter yang membentuk sebuah transaksi pembayaran online yang sah.
Dengan menggunakan analisis cluster dan besar dataset sekitar 5000, didapatkan persentase hasil evaluasi cluster terbaik sebesar 78% dengan pengaturan nilai cutoff pada angka 0.001. Berdasarkan penggunaan 15 sampel data dari cluster terbaik yang berasal dari hasil analisa ditemukan ada 3 pendekatan baru dalam menjelaskan indikasi fraud, yakni (1) Kesamaan penggunaan parameter dalam status ditangguhkan, (2) Kesamaan parameter status ditangguhkan yang juga beririsan langsung dengan status sukses, dan (3) Adanya perubahan terhadap parameter status ditangguhkan secara terpola juga beririsan langsung dengan status sukses dalam jangka waktu yang berdekatan. Pendekatan analisa dengan menggunakan metode statistik digunakan juga dalam penelitian ini sebagai alat
bantu untuk menunjang hasil evaluasi dan memberikan tren transaksi.
Hasil evaluasi dari metode statistik dengan menggunakan data dari riwayat pembayaran, didapat: Sebesar 2.98% alamat IP dan 2% nominal transaksi menjadi penyebab pembayaran online berstatus ditangguhkan atau tidak diproses.

ABSTRACT
This research intends to examine COBWEB algorithm in data mining to identify fraud transaction based on transaction history. Examination was conducted using WEKA method, which focused on analyzing fraud of deferred transaction. Analysis of 5000 data sets with cutoff setting at 0,001 resulted that the best cluster has 78% of percentage.
Furthermore, according to the evaluation of 15 samples in the best cluster, respectively, new approaches in explaining indication of fraud were discovered. In brief, those approaches are (1) the similarities in parameter usage of transaction with deferred status; (2) the sliced of similarities in parameter usage of deferred and success transaction; (3) the pattern of changes of deferred transaction parameter which intersect directly with parameter of success transaction within adjacent period. In addition, statistics method was also applicated in this research as a tool to support the evaluation and provide the trend of transaction.
As a result, IP address and transaction nominal accounted at 2,98% and 2% respectively, as a cause of deferred or unprocessed status in online payment system.
"
2016
T45383
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>