Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 93693 dokumen yang sesuai dengan query
cover
Muhammad Nanda Nur Ibrahim
"ABSTRAK
Penelitian ini bertujuan untuk mengkaji pemanfaatan algoritma COBWEB dalam data mining untuk menemukenali fraud transaction dan disajikan dalam bentuk yang lebih informatif berdasarkan data riwayat transaksi yang sudah ada. Metode pengujian melalui WEKA digunakan untuk mengevaluasi cluster terbesar pada status pembayaran yang bernilai tidak diproses sebagai indikasi fraud transaction. Data hasil dari pengujian yang dilakukan akan dijadikan masukan untuk dianalisa berdasarkan parameter yang membentuk sebuah transaksi pembayaran online yang sah.
Dengan menggunakan analisis cluster dan besar dataset sekitar 5000, didapatkan persentase hasil evaluasi cluster terbaik sebesar 78% dengan pengaturan nilai cutoff pada angka 0.001. Berdasarkan penggunaan 15 sampel data dari cluster terbaik yang berasal dari hasil analisa ditemukan ada 3 pendekatan baru dalam menjelaskan indikasi fraud, yakni (1) Kesamaan penggunaan parameter dalam status ditangguhkan, (2) Kesamaan parameter status ditangguhkan yang juga beririsan langsung dengan status sukses, dan (3) Adanya perubahan terhadap parameter status ditangguhkan secara terpola juga beririsan langsung dengan status sukses dalam jangka waktu yang berdekatan. Pendekatan analisa dengan menggunakan metode statistik digunakan juga dalam penelitian ini sebagai alat
bantu untuk menunjang hasil evaluasi dan memberikan tren transaksi.
Hasil evaluasi dari metode statistik dengan menggunakan data dari riwayat pembayaran, didapat: Sebesar 2.98% alamat IP dan 2% nominal transaksi menjadi penyebab pembayaran online berstatus ditangguhkan atau tidak diproses.

ABSTRACT
This research intends to examine COBWEB algorithm in data mining to identify fraud transaction based on transaction history. Examination was conducted using WEKA method, which focused on analyzing fraud of deferred transaction. Analysis of 5000 data sets with cutoff setting at 0,001 resulted that the best cluster has 78% of percentage.
Furthermore, according to the evaluation of 15 samples in the best cluster, respectively, new approaches in explaining indication of fraud were discovered. In brief, those approaches are (1) the similarities in parameter usage of transaction with deferred status; (2) the sliced of similarities in parameter usage of deferred and success transaction; (3) the pattern of changes of deferred transaction parameter which intersect directly with parameter of success transaction within adjacent period. In addition, statistics method was also applicated in this research as a tool to support the evaluation and provide the trend of transaction.
As a result, IP address and transaction nominal accounted at 2,98% and 2% respectively, as a cause of deferred or unprocessed status in online payment system.
"
2016
T45383
UI - Tesis Membership  Universitas Indonesia Library
cover
Santi Mariana
"Peningkatan kunjungan di situs web Online Public Access Catalog (OPAC) Perpustakaan Universitas Indonesia perlu disertai dengan peningkatan kualitas pelayanan, salah satunya melalui penyusunan sistem rekomendasi buku dalam situs web OPAC. Untuk menyusun sistem tersebut, penggalian pola asosiasi antar buku dilakukan dengan menggunakan salah satu metode data mining yaitu association rules. Dua algoritma digunakan yakni algoritma Apriori dan Apriori Inverse. Untuk menguji dan menyeleksi pola yang dihasilkan, objective interestingness measure dilakukan dan menghasilkan sembilan belas pola asosiasi sebagai luaran (output) akhir penelitian.

An increasing use of Online Public Access Catalog (OPAC) Universitas Indonesia Library's website should be followed by a service quality improvement, such as organizing a book recommendation system. To build mentioned system, user behaviors in terms of loaned books were discovered by using one of data mining techniques namely association rules. In this research, two algorithms were used which are Apriori and Apriori Inverse. After all association rules were gathered, objective interestingness measure were conducted to evaluate the quality of association rules and resulted nineteen association rules as final output."
Depok: Fakultas Teknik Universitas Indonesia, 2016
S63316
UI - Skripsi Membership  Universitas Indonesia Library
cover
Bahy Helmi Hartoyo Putra
"PT Nusa Satu Inti Artha atau lebih dikenal dengan DOKU merupakan salah satu perusahaan fintech yang bergerak di sektor pembayaran. DOKU telah digunakan oleh lebih dari 100.000 merchant online dalam kedua layanannya, yaitu payment gateway dan transfer service. Semakin banyaknya merchant yang melakukan registrasi, menuntut DOKU untuk lebih efisien dalam menjalankan salah satu tahapan pada proses registrasi tersebut, yaitu verifikasi situs merchant. Penilitian ini memiliki tujuan untuk mengem- bangkan sebuah aplikasi web crawler yang dapat digunakan untuk melakukan ekstraksi kelengkapan data situs merchant dan melakukan prediksi tingkatan fraud situs tersebut secara otomatis. Web crawler dibuat menggunakan micro web framework bernama Flask dan berisi modul-modul yang dapat melakukan ekstraksi fitur-fitur untuk kemudian dilakukan scoring menggunakan model machine learning yang diimplementasi di dalamnya. Pemilihan model dilakukan dengan cara melakukan nested cross-validation terhadap empat jenis classifier, yaitu Decision Tree Classifier, Random Forest Classifier, Extreme Gradient Boost Classifier, dan Bernoulli Naive Bayes Classifier. Hasil analisis menunjukkan bahwa Bernoulli Naive Bayes Classifier memiliki hasil performa terbaik, sehingga classifier ini juga yang akan diimplementasikan pada web crawler. Hasil dari pengembangan web crawler menunjukkan bahwa efisiensi waktu proses verifikasi dapat ditingkatkan sebesar 4900% dengan AUC sebesar 0.953 dan recall sebesar 0.864.

PT Nusa Satu Inti Artha or better known as DOKU is one of the fintech companies engaged in the payment sector. DOKU has been used by more than 100,000 online mer- chants in its two services, namely payment gateway and transfer service. More and more merchants are registering, demanding DOKU to be more efficient in carrying out one of the stages in the registration process, namely merchant site verification. This research aims to develop a web crawler application that can be used to extract the the merchant site data and to predict the fraud level of the site automatically. Web crawler is created using a micro web framework named Flask and contains modules that can extract features to then do scoring using the machine learning model implemented in it. Model selection is done by doing nested cross-validation of four types of classifier namely Decision Tree Classifier, Random Forest Classifier, Extreme Gradient Boost Classifier, and Bernoulli Naive Bayes Classifier. The analysis shows that the Bernoulli Naive Bayes Classifier has the best performance results, so this classifier will be the one that implemented on the web crawler. The results of the development of web crawler show that the efficiency of the verification process can be increased by 4900% with AUC of 0.953 and recall of 0.864."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Pandapotan, Adolf
"Tujuan Tugas Akhir ini adalah mengimplementasikan algoritma clustering (sebagai bagian dari Data Mining Algorithms Collection) menggunakan bahasa pemrograman C++. Ada 2 algoritma clustering yang diimplementasikan yaitu Cobweb dan Iterate. Uji coba dilakukan dengan membandingkan kecepatan eksekusi dari implementasi Cobweb dengan Cobweb pada WEKA dan implementasi Iterate, serta membandingkan kualitas partisi implementasi Cobweb dengan Cobweb pada WEKA dan implementasi Iterate. Ada 2 jenis data uji coba yaitu dataset kecil dan dataset besar. Hasil uji coba menunjukan algoritma Cobweb pada WEKA bukan algoritma Cobweb murni, waktu eksekusi Cobweb implementasi lebih cepat dari WEKA namun lebih lambat dari Iterate implementasi, urutan data berpengaruh terhadap hasil Cobweb, dan kualitas Iterate lebih baik dari Cobweb. Kata kunci: clustering, Cobweb, data mining, dataset, Iterate.
The purpose of this mini thesis is to implement clustering algorithms (as part of Data Mining Algorithms Collection) using C++. There are two clustering algorithms that are implemented, that are Cobweb and Iterate. The experiment is done by comparing the execution speed of Cobweb implementation with Cobweb in WEKA and Iterate implementation, also comparing the partition quality of Cobweb implementation with Cobweb in WEKA and Iterate implementation. There are two kinds of experiment data, which are small dataset and large dataset. The test results show that Cobweb algorithm in WEKA is not pure Cobweb algorithm, the execution time of Cobweb implementation is faster than WEKA but slower than Iterate implemetation, the data sorted affected to the Cobweb result and the quality of Iterate is better than Cobweb."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2008
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Deddy Utomo
"Jenis usaha perasuransian PT XYZ dibagi menjadi dua yaitu asuransi kesehatan dan asuransi jiwa. Salah satu risiko yang terjadi dan berdampak pada kerugian perasuransian adalah kecurangan atau fraud yang dilakukan pihak tertentu untuk memperoleh keuntungan sepihak. Penelitian ini dilakukan untuk membuat pemodelan data mining yang digunakan untuk mendeteksi fraud pada asuransi kesehatan. Tujuan dari penelitian ini adalah memperoleh algoritma model berbasis data mining yang dapat mendeteksi fraud pada transaksi klaim peserta di PT XYZ. Karakteristik data yang digunakan bersifat imbalanced, karena jumlah data fraud yang digunakan tidak sebesar jika dibandingkan dengan data yang bersifat normal. Pembentukan model pada penelitian ini dilakukan dengan 32 skenario, dengan hasil terbaik skenario dengan penerapan feature engineering, feature selection, oversampling dan uji validasi menggunakan 20­-fold cross validation. Adapun hasil dari skenario tersebut menghasilkan algoritma random forest yang memiliki nilai akurasi paling baik yaitu 99,3% dengan didukung oleh nilai presisi, recall, dan f1 scores masing-masing, 99,3%, 99,3%, dan 99,3%. Hasil akhir dari penelitian ini memperlihatkan bahwa teknik feature engineering dengan penambahan atribut is_dr_speciality, memiliki kontribusi terhadap nilai akurasi model.

The type of insurance business of PT XYZ is divided into two, namely health insurance and life insurance. One of the risks that occur and impact insurance losses is fraud committed by certain parties to obtain unilateral benefits. This research was conducted to create a data mining model used to detect fraud in health insurance. The purpose of this study is to obtain a data mining-based model algorithm that can detect fraud in participant claims transactions at PT XYZ. The characteristics of the data used are imbalanced because the amount of fraud data used is not as much as compared to normal data. The model formation in this study was carried out with 32 scenarios, with the best results being the scenario by applying feature engineering, feature selection, oversampling, and validation tests using 20-fold cross-validation. This scenario resulted in the random forest algorithm having the best accuracy value of 99.3%, supported by precision, recall, and f1 scores, 99.3%, 99.3%, and 99.3%. The final result of this study shows that the feature engineering technique with the addition of the is_dr_speciality attribute has contributed to the model's accuracy value."
Jakarta: Fakultas Ilmu Komputer Universitas Indonesia, 2021
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Westphal, Cristopher
Boca Raton: CRC Press, Taylor & Francis Group, 2009
363.256 WES d
Buku Teks  Universitas Indonesia Library
cover
Muhammad Dahlan Yasadiputra
"Indonesia merupakan negara rawan gempa karena secara geografis indonesia terletak pada pertemuan empat lempeng tektonik. Karena ini, pengembangan sebuah sistem prediksi real-time gempa bumi yang mencakup wilayah yang luas dengan gempa bumi besar sangat dibutuhkan untuk mengurangi korban jiwa. Penelitian ini mengusulkan pembuatan sistem pendeteksi cepat kedatangan gelombang-p dan penentuan hiposenter dan magnitudo gempa menggunakan deep-learning. Pengembangan sistem berbasis web ini bertujuan untuk memperingati masyarakat agar dapat lebih dini untuk melindungi diri sebelum gempa terjadi. Menggunakan data dari BMKG, data yang kami gunakan mencakupi 1892 set data gempa pada tahun 2009–2017 dan 26 set data gempa dari Katalog BMKG Januari 2019, penelitian ini menggunakan algoritma STA/LTA dalam menemukan P-Arrival dan membandingkan tiga model pembelajaran mesin untuk memprediksi hiposenter gempa dimana model Conv1d digabung dengan LSTM dengan interval waktu 20 detik merupakan skenario model terbaik dengan memiliki mean absolute error sebesar 0.470. Selain itu, penelitian ini berhasil mengimplementasi sistem berbasis web yang dapat menampilkan visualisasi data dengan menggunakan websocket berdasarkan data seismik yang dikumpulkan oleh BMKG. Visualisasi data seismik ini ditampilkan menggunakan dynamic line chart dan peta web interaktif.

Indonesia is an earthquake-prone country because geographically Indonesia is located at the confluence of four tectonic plates. Therefore, the development of a real-time earthquake prediction system that covers large areas with large earthquakes is urgently needed to reduce fatalities. This study proposes the creation of a rapid detection system for the arrival of p-waves, hypocenters and earthquake magnitudes using deep-learning. The development of this web-based system is aimed at warning people so that they can protect themselves before an earthquake occurs. Using data from BMKG, we used 1892 earthquake data sets in 2009–2017 and 26 earthquake data sets from January 2019 BMKG Catalog, this research uses the STA/LTA algorithm to find P-Arrival and compares three machine learning models to predict the earthquake hypocenter where Conv1d model is combined with LSTM with a time interval of 20 seconds is the best model scenario with a mean absolute error of 0.470. In addition, this research succeeded in implementing a web-based system that can display data visualization using websocket based on seismic data collected by BMKG. This seismic data visualization is displayed using dynamic line charts and an interactive web map."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Filda Maharani Hasanah
"Telemedicine merupakan solusi ideal untuk menjadi layanan kesehatan di era COVID-19. Halodoc merupakan salah satu aplikasi telemedicine terbaik di Indonesia. Sejak tahun 2022, Halodoc sudah mempunyai lebih dari 15.000.000 pengguna sehingga perlu mengganti fokus bisnisnya dari product oriented menjadi customer oriented. Halodoc perlu melakukan analisis customer segmentation untuk mengetahui karakteristik pengguna lebih dalam. Analisis ini menggunakan salah satu teknik data mining yaitu clustering menggunakan algoritma K-Prototypes. Atribut penggunaan voucher, total transaksi, kategori produk, spesialis dokter, provider asuransi, kelompok usia, merek handphone, dan lokasi digunakan pada penelitian ini. Pengguna Halodoc yang melakukan transaksi minimal 1 kali selama November 2021 hingga Januari 2022 yang berjumlah 193.000 pengguna akan disegmentasi. Hasilnya adalah pengguna Halodoc dapat disegmentasi menjadi 4 status sosial yaitu working class, petty bourgeoise, middle class, dan high class. Status sosial yang memiliki ukuran terbesar adalah middle class yaitu dengan proporsi 46,69% dari keseluruhan pengguna. Pengguna yang paling potensial untuk Halodoc adalah yang berasal dari status sosial High Class karena memiliki frekuensi transaksi terbanyak dan nominal pengeluaran terbesar.

Telemedicine is the ideal solution to become a healthcare service in COVID-19 era. Halodoc is one of the best telemedicine applications in Indonesia. Since 2022, Halodoc has more than 15.000.000 users, so they need to change its business focus from product oriented to customer oriented. Halodoc needs to do customer segmentation analysis to find out more about user’s characteristics. This analysis uses one of data mining techniques which is K-Prototypes Clustering. Voucher usage, total transaction, doctor specialist, insurance provider, age group, mobile phones’s brand, and location are used in this study. Halodoc’s users who make transactions at least 1 time during November 2021 to January total 193.000 users will be segmented. The results is Halodoc’s users can be segmented into 4 social classes such as working class, petty bourgeoise, middle class, and high class. Social status that has the largest size is the middle class with the proportion of 46.69% of the total users. The most potential users for Halodoc are those from High Class social status because they have the highest transaction frequency and the largest nominal spending."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Riko Muhammad Taufik
"ABSTRAK
Kualitas bergantung pada kehandalan suatu produk, khususnya pada peralatan yang dipakai di industri manufaktur, contohnya boiler. Kehandalan dari boiler dilihat dari performa boiler tersebut. Ketergantungan parameter satu dengan yang lainnya dapat meningkatkan kompleksitas operasi boiler. Meskipun pada boiler dengan beban dibawah rancangan awal. Fenomena ini terjadi akibat pergeseran penentuan kebijakan pada pemilik perusahaan yang memilih untuk membeli boiler dengan beban kerja penuh dimasa yang akan datang, namun digunakan dengan beban rendah saat ini. Dapat dicontohkan dengan perusahaan produsen minuman ringan yang memiliki perencanaan penambahan beban dala dua tahun mendatang, membutuhkan 4 ton uap air/jamnya sedangkan untuk saat ini beban kerja yang dibutuhkan hanya 2 ton uap air/jamnya. Sehinggaefesiensi area dari performa boiler hanya berkisar 15-30 persen. Hal ini membuat resiko yang sangat berpotensi untuk mengalami kegagalan. Dibutuhkan pendeteksi kegagalan untuk mengetahui dan menjaga kehandalan dari performa boiler. Kunci utamanya adalah memonitor hubungan antar parmeter dan mendeteksi kegagalan yang mungkin terjadi. Permasalahan utama adalah banyaknya parameter yang berhubungan, analisa data dapat dilakukan dengan mudah menggunakan Data Mining. Salah satu teknikmenganalisa data bernama Artificial Neural Network ANN dapat mendeteksi kegagalan apabila digabungkan dengan back-propagation. Dengan permodelan dan validasi terlebih dahulu diharapkan dapat mendeteksi kegagalan pada performa boiler.

ABSTRACT
Quality depends on equipment rsquo s reliability especially in industrial manufacturing equipment, such as boiler. Boiler rsquo s reliability relies on its performance. It is important to maintain boiler rsquo s performance as designed. Boiler rsquo s performance depends on many parameters, which is related to the operating procedure. Therefore, many parameters correlation could cause lot of complexities in boiler rsquo s operating process. Even in a small load boiler such as boiler in food manufacturing industry. The boiler rsquo s performance efficiency area ranges between 15 30 percent. It has a potential risk to fail, when the range approaches to zero. A fault detection is necessary to get boiler rsquo s performance works as reliable as it designed. The key is to monitor parameters correlation and detect any fault that could happen before it occurs. The problem is, there are lot of parameters correlation could happen in boiler rsquo s operating process that could cause failure. By analyzing many parameters correlation in boiler operation, Data Mining could approach a fault detection easier. The purpose of Data Mining is to monitor boiler performance parameters. An Artificial Neural Network ANN would present a smart fault detection model if it is combined with back propagation, because it will train the program itself and learn which condition should be alarmed. At the end, the proposed model could detect a fault by monitoring boiler rsquo s performance. "
Depok: Fakultas Teknik Universitas Indonesia, 2018
T51623
UI - Tesis Membership  Universitas Indonesia Library
cover
Dimas Syuman Gritosandiko
"Malware merupakan suatu hal yang dapat merusak maupun menganggu aktivitas dari suatu jaringan ataupun komputer, untuk mencegah semakin tersebarnya Malware maka dibutuhkan pendeteksi untuk malware disuatu jaringan maka dapat ditempatkan suatu Honey Pot ataupun DNS Sinkhole untuk memantau adanya penyerangan terhadap jaringan tersebut ataupun ada malware yang berusaha masuk pada jaringan tersebut, data ndash; data malware yang telah dikumpulkan selanjutnya dapat diolah dengan menggunakan data mining, dengan menggunakan data mining, hasil pengolahan data tersebut dapat dijadikan sebagai parameter bagaimana aktivitas malware yang sering masuk kedalam jaringan dan jenis malware apa saja yang ada dijaringan tersebut. Dengan menggunakan Oracle Data Miner dapat dikatakan untuk tipe data malware yang digunakan untuk data mining adalah Naive Bayes dan Support Vector Machine SVM dimana menunjukkan untuk tipe data seperti ini algoritma Naive Bayes lebih berfungsi dengan baik dibandingkan dengan SVM terlihat dari presentase keberhasilan pengolahan datanya dimana Naive Bayes memiliki 76 keberhasilan sedangkan SVM hanya 32 keberhasilan.

Malware are something that can damage or disrupt activities of a network or computer. To prevent spreading of a malware, it is required a detection or a protection system in a network. Honey Pot and DNS Sinkhole are the two kinds of malware detection system that can detect and monitoring network activities and capture or prevent any malware attack that can happens inside the network or computer. Malware datas that already been gathered and collected then will be processed using data mining. With data mining, the mining result will be used as a parameter in how malware activities inside a network and what kind of malware that actived inside a network. Using Oracle Data Miner with data that consist of malware type can be done using Naive Bayes and Support Vector Machine SVM . With this kind of data Naive Bayes perform better than the other algorithm SVM judging by the completion percentage of data mining process for Naive Bayes are 76 and SVM are 32.
"
Depok: Fakultas Teknik Universitas Indonesia, 2016
S66468
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>