Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 52 dokumen yang sesuai dengan query
cover
Hans Kristian
"Fraud asuransi merupakan tindakan yang sangat merugikan, baik untuk perusahaan asuransi dalam bentuk kerugian maupun untuk pemegang polis lainnya dalam bentuk kenaikan premi untuk menutupi kerugian. Salah satu cara yang dapat dilakukan adalah menggunakan jasa claim investigator untuk mendeteksi fraud yang mungkin terjadi. Namun, semakin banyak klaim yang perlu dianalisis, semakin tinggi juga biaya yang akan dikeluarkan. Solusi untuk mengatasi masalah scalability tersebut adalah dengan menggunakan machine learning. Metode machine learning yang saat ini cukup populer dan banyak digunakan untuk berbagai aplikasi adalah deep learning. Metode deep learning banyak dipakai untuk memproses data tidak terstruktur contohnya pemrosesan data gambar dengan menggunakan convolutional neural networks (CNN). Kesuksesan metode CNN dalam memproses data tidak terstruktur menjadi dasar dari pengembangan algoritma IGTD (image generator for tabular data) yang bertujuan untuk memproses data terstruktur menjadi data berbentuk gambar agar dapat diproses oleh metode CNN. Penelitian ini bertujuan untuk menganalisis kinerja algoritma IGTD dan model CNN dalam memprediksi fraud asuransi dengan menggunakan data fraud asuransi kendaraan bermotor. Kinerja algoritma IGTD dan model CNN akan dibandingkan dengan model XGBoost dengan pembobotan data, imbalance-XGBoost weighted function, decision tree, serta random forest. Selain itu, pada penelitian ini dianalisis juga modifikasi dari algoritma IGTD terhadap kinerja model CNN yang digunakan. Hasil simulasi menunjukkan bahwa algoritma IGTD dan model CNN masih belum mampu menandingi model XGBoost dengan pembobotan data dan imbalance-XGBoost weighted function yang masih menjadi model terbaik dalam memprediksi fraud asuransi. Selain itu, model CNN berbasis modifikasi algoritma IGTD memiliki kinerja yang serupa dengan model CNN berbasis algoritma IGTD.

Insurance fraud is an act that could inflict serious damage not only for the insurance company in the form of net loss, but also for other policyholders in the form of increased premium rates to cover the net loss. Insurance companies might use claim investigator to detect possible fraud by policyholders. However, as more claims need to be investigated, the cost of investigation will also increase. Machine learning is the solution for this scalability issue, especially the deep learning method which is popular and widely used in numerous applications. Deep learning method is commonly used to process unstructured data such as image by using convolutional neural networks (CNN). The success of CNN model motivates the invention of IGTD (image generator for tabular data) algorithm to process structured data into images to ensure it can be processed by the CNN model. The purpose of this research is to analyze the performance of IGTD algorithm and CNN model to predict insurance fraud using auto insurance fraud dataset. The performance of IGTD algorithm and CNN model is compared to XGBoost sample weighted, imbalance-XGBoost weighted function, decision tree, and random forest. In this research the impact of IGTD algorithm modification to the performance of CNN model is analyzed. The simulation result shows that the IGTD algorithm and CNN model is unable to outperform the best model to predict insurance fraud, XGBoost sample weighted and imbalance-XGBoost weighted function. Moreover, CNN model based on IGTD algorithm and modified IGTD algorithm yield similar performance."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Christhoper Nugraha
"ABSTRAK
Deteksi topik adalah proses menganalisis kumpulan data tekstual untuk menentukan topik pengumpulan data tekstual. Salah satu metode pengelompokan yang dapat digunakan untuk deteksi topik adalah metode Fuzzy C-Means (FCM). Namun, penggunaan FCM sederhana untuk pendeteksian topik tentang big data kurang efektif, karena akan memakan waktu lama dan banyak memori. FCM sederhana juga memiliki masalah lain, ketika melakukan deteksi topik aktif data dimensi tinggi, FCM sederhana hanya akan menghasilkan satu topik. Dalam penelitian ini, suatu gabungan metode Single-Pass Fuzzy C-Means (SPFCM) dan Fuzzy C-Means Berbasis Eigenspace (EFCM) diusulkan, yaitu Single-Pass Eigenspace-Based Fuzzy C-Means (SPEFCM) metode untuk mengatasi masalah ini. Data yang digunakan untuk deteksi topik adalah
tweet yang berasal dari aplikasi Twitter. Lalu, keakuratan topik didapat menggunakan SPEFCM dan EFCM akan dibandingkan berdasarkan nilai koherensi. Itu hasil simulasi menunjukkan bahwa nilai koherensi topik yang diperoleh menggunakan SPEFCM adalah sebanding dengan EFCM. Ini menunjukkan bahwa SPEFCM adalah metode yang tepat untuk mendeteksi topik pada data besar, tanpa mengurangi kualitas topik yang dihasilkan.

ABSTRACT
Topic detection is the process of analyzing a textual data set to determine the topic of textual data collection. One of the grouping methods that can be used for topic detection is the Fuzzy C-Means (FCM) method. However, the use of simple FCM for the detection of topics about big data is less effective, because it will take a long time and a lot of memory. Simple FCM also has another problem, when detecting active topics of high dimensional data, simple FCM will only produce one topic. In this study, a combination of the Single-Pass Fuzzy C-Means (SPFCM) method and the Fuzzy C-Means Based on Eigenspace (EFCM) is proposed, namely the Single-Pass Eigenspace-Based Fuzzy C-Means (SPEFCM) method to overcome this problem. The data used for topic detection is
tweets that come from the Twitter application. Then, the accuracy of the topics obtained using SPEFCM and EFCM will be compared based on coherence values. The simulation results show that the topic coherence value obtained using SPEFCM is comparable to EFCM. This shows that SPEFCM is the right method for detecting topics in big data, without reducing the quality of the topics produced."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Maranatha Florensia Wijaya
"Analisis sentimen merupakan bidang studi yang menganalisis pendapat seseorang terhadap suatu entitas untuk mencari polaritas sentimennya. Potensi manfaat yang besar didukung dengan ketersediaan data teks beropini yang melimpah di internet memicu dikembangkannya model yang mampu melakukan analisis sentimen secara otomatis dan seakurat mungkin. Dua diantaranya adalah Long Short-Term Memory (LSTM) dan Convolutional Neural Network (CNN) yang merupakan arsitektur deep learning. LSTM digunakan karena dapat menangkap aliran informasi pada kalimat, sedangkan CNN digunakan karena kemampuannya dalam mengekstrak fitur penting dari tiap penggalan kalimat atau region. Kedua model ini dapat digabungkan menjadi model gabungan LSTM-CNN yang telah terbukti mampu meningkatkan akurasi model. Penelitian ini kemudian akan mengajukan modifikasi pada model gabungan LSTM-CNN dengan mengganti LSTM menjadi Bidirectional LSTM (BiLSTM) dan CNN menjadi CNN Multi Region Size CNNMRS sehingga terbentuk tiga model modifikasi yaitu BiLSTM-CNN, LSTM-CNNMRS, dan BiLSTM-CNNMRS. Implementasi model, baik untuk model gabungan LSTM-CNN standar maupun model modifikasi, dilakukan pada data tweets berbahasa Indonesia. Hasilnya, didapatkan kesimpulan bahwa penggunaan BiLSTM untuk menggantikan LSTM pada model gabungan LSTM CNN tidak meningkatkan akurasi dari model. Hal berbeda didapatkan dari penggunaan CNNMRS untuk menggantikan CNN yang memberikan peningkatan akurasi pada model."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sri Safitri Ramadhani
"Saat ini internet sudah menjadi kebutuhan bagi seluruh pihak karena kegunaannya di berbagai aspek kehidupan. Hal tersebut memicu bertambahnya jumlah pengguna internet di seluruh dunia, termasuk di Indonesia. Namun, banyaknya jumlah pengguna tersebut tidak dibarengi dengan peningkatan kualitas dan pemerataan akses internet yang baik. Masih ada wilayah di Indonesia yang memiliki kualitas jaringan internet buruk bahkan tidak terjangkau internet. Pada penelitian ini, dilakukan pengelompokan wilayah di Indonesia berdasarkan kualitas jaringan internet menggunakan Algoritma Genetika KMedoids. Pengelompokan ini bertujuan untuk mengumpulkan wilayah dengan karakteristik yang sama berdasarkan kualitas jaringan internet, sehingga dapat dilihat wilayah mana saja yang sudah memiliki kualitas jaringan internet yang baik dan wilayah mana saja yang masih perlu perbaikan. Data yang digunakan adalah data sekunder dari website Speedtest dengan total 84 wilayah. Adapun variabel yang digunakan di antaranya yaitu Mobile Download, Fixed Download, Mobile Upload, Fixed Upload, Mobile Latency, Fixed Latency, Mobile Provider, dan Fixed Provider. Hasil dari penelitian ini didapatkan 6 klaster dengan nilai evaluasi Davies-Bouldien Index sebesar 0,7647. Klaster 1 terdiri dari 19 wilayah dengan kualitas internet kurang baik, klaster 2 terdiri dari 27 wilayah dengan kualitas internet yang standar, klaster 3 terdiri dari 12 wilayah dengan kualitas internet baik, klaster 4 terdiri dari 6 wilayah dengan kualitas internet yang sangat baik, dan klaster 5 terdiri dari 6 wilayah dengan kualitas internet yang cukup baik.

Internet has now become an essential necessity for everyone due to its utility in various aspects of life. This has led to an increase in the number of internet users worldwide, including in Indonesia. However, the growing number of users has not been accompanied by an improvement in the quality and equitable access to internet services. There are still areas in Indonesia with poor internet quality or even lack of internet access. In this study, a clustering of territory in Indonesia based on internet quality was performed using the Genetic Algorithm K-Medoids. The objective of this clustering was to group territories with similar internet quality characteristics, in order to identify territories that already have good internet quality and territories that require improvement. The data used in the study was obtained from the Speedtest website and covered a total of 84 territories. The variables used included Mobile Download, Fixed Download, Mobile Upload, Fixed Upload, Mobile Latency, Fixed Latency, Mobile Provider, and Fixed Provider. The results of the study revealed 6 clusters with a Davies-Bouldin Index evaluation score of 0,647. Cluster 1 consists of 19 territories with poor internet quality, cluster 2 consists of 27 territories with standard internet quality, cluster 3 consists of 12 territories with good internet quality, cluster 4 consists of 6 territories with very good internet quality, and cluster 5 consists of 6 territories with fairly good internet quality."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Unversitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Syamira Merina
"Adenoma merupakan jenis tumor jinak pada lapisan epidermis jaringan. Adenoma dapat berubah menjadi kanker ganas yang kemudian disebut Adenocarcinoma. Terdapat salah satu bentuk data biologi molekuler yang sedang berkembang saat ini, yaitu data ekspresi gen microarray. Microarray dapat digunakan untuk pendeteksian dan penelitian dalam bidang onkologi. Salah satu metode untuk mengolah dan menganalisis data ekspresi gen microarray adalah dengan biclustering. Dalam skripsi ini akan dilakukan implementasi salah satu metode biclustering pada data ekspresi gen microarray, yaitu dengan algoritma Binary Inclusion-Maximal. Algoritma akan diimplementasi pada data Adenoma kolon yang terdiri dari 7070 gen dengan 4 sampel sel adenoma dan 4 sampel sel normal. Implementasi tersebut membutuhkan waktu kurang dari 1 detik dan menghasilkan 22 bicluster yang terdiri dari 25 gen secara keseluruhan.

Adenoma is a benign type of tumor in the epidermal layer of a tissue. Adenoma can turn into a malignant cancer which is then called Adenocarcinoma. There is a form of molecular biology data which is developing today, namely microarray gene expression data. Microarray can be use for detection and research in the field of oncology. One method for processing and analyzing microarray gene data is by biclustering. In this study the writer will be using one method of biclustering, the Binary Inclusion Maximal algorithm, and implement it on microarray gene expression data. The algorithm will be implemented on Colon Adenoma data consisting of 7070 genes with 4 adenoma cell samples and 4 normal cell samples. The implementation took less than one second and resulted in 22 biclusters composed of 25 genes.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Amanda Nydia Augustizhafira
"Analisis sentimen merupakan bagian dari data mining text mining , yaitu proses memahami, mengekstrak, dan mengolah data tekstual secara otomatis untuk mendapatkan informasi. Pada penelitian ini, analisis sentimen diterapkan pada salah satu media sosial, yaitu Twitter. Analisis sentimen tergolong sebagai masalah klasifikasi yang dapat diselesaikan menggunakan salah satu metode machine learning, yaitu Neural Network. Pada machine learning, data dibagi menjadi data pelatihan dan data pengujian yang berasal dari domain yang sama.
Permasalahan utama pada penelitian ini adalah data pelatihan dan data pengujian berasal dari dua domain yang berbeda, sehingga perlu diterapkan pembelajaran lain selain machine learning. Masalah tersebut dapat diselesaikan dengan menggunakan transfer learning. Transfer learning merupakan suatu pembelajaran model yang dibangun oleh suatu data pelatihan dari suatu domain dan diuji oleh suatu data pengujian dari domain yang berbeda dari domain data pelatihan. Simulasi dalam penelitian ini menghasilkan suatu akurasi transfer learning dengan metode Neural Network yang nantinya akan diuji dengan fitur n-gram bi-gram dan tri-gram serta satu metode seleksi fitur, yaitu Extra-Trees Classifier.
Dalam penelitian ini, nilai akurasi transfer learning tertinggi didapat saat hidden layer berjumlah satu. Sebagian besar nilai akurasi tertinggi didapat saat penggunaan 250 neuron pada hidden layer. Fungsi aktivasi ReLU dan tanh menghasilkan nilai akurasi yang lebih tinggi dibandingkan fungsi aktivasi logistic sigmoid. Penggunakan metode seleksi fitur dapat meningkatkan kinerja transfer learning sehingga nilai akurasinya lebih tinggi dibandingkan simulasi tanpa penggunaan metode seleksi fitur.

Sentiment analysis is a part of data mining text mining , which is the process of understanding, extracting, and processing textual data automatically to obtain information. In this research, sentiment analysis is applied to one social media called Twitter. Sentiment analysis is categorized as a classification problem that can be solved using one of machine learning methods, namely Neural Network. In machine learning, data is divided into training data and test data from the same domain.
The main problem in this research is training data and test data come from two different domains, so it is necessary to apply other learning beside machine learning. The problem can be solved by using transfer learning. Transfer learning is a model learning constructed by a training data from a domain and tested by a test data from a different domain from the training data domain. The simulation in this research resulted in an accuracy of learning transfer with Neural Network method which will be tested using n grams bi grams and tri grams and one feature selection method called Extra Trees Classifier.
In this research, the highest value of transfer learning accuracy is obtained when one hidden layer is used. Most of the highest accuracy values are obtained from the use of 250 neurons on the hidden layer. The activation function of ReLU and tanh yield a higher accuracy value than the logical activation function sigmoid . The use of feature selection method can improve the transfer learning performance so that the accuracy value is higher than simulation without the use of feature selection method.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muthia Hurina
"Salah satu penggunaan teknologi saat ini adalah menyimpan data dalam format digital. Terkadang data yang disimpan bersifat rahasia, sehingga diperlukan metode untuk menjaga kerahasiaannya. Dua metode yang dapat digunakan untuk menjaga kerahasiaan data adalah kriptografi dan steganografi. Penelitian ini bertujuan membuat metode pengamanan teks digital dengan menyembunyikannya dalam gambar digital dengan menggunakan kriptografi dan steganografi. Metode kriptografi dan steganografi yang digunakan dalam penelitian ini berbasis chaos dengan menggunakan fungsi chaos yang disebut MS Map dan teknik embedding yang disebut LSB dengan pola 3-3-2. Dengan menggunakan aplikasi yang disebut uji Institut Nasional Standar dan Teknologi (NIST), ditemukan bahwa urutan berisi nomor yang dihasilkan oleh MS Map lulus 15 tes dalam tes NIST sehingga dapat disimpulkan bahwa urutan itu acak. Selain itu, analisis ini memperoleh sensitivitas kunci hingga 10−15 dan ruang kunci 1.04976 × 101269. Kualitas gambar steganografi (disebut gambar stego) diukur dengan Mean Square Error (MSE), Peak Signal-to-Noise Ratio (PSNR), dan koefisien korelasi. Nilai MSE yang dihasilkan mendekati 0 dengan maksimum 0,177153; nilai PSNR yang dihasilkan di atas 40 dB dengan minimum 55,647312 dB; sedangkan koefisien korelasi yang dihasilkan mendekati 1. Ini menunjukkan bahwa gambar stego tidak dapat dibedakan dengan gambar asli dalam tampilan biasa. Sedangkan untuk teks yang diekstraksi, kualitasnya diukur oleh perbedaan karakter dengan teks asli dan MSE. Nilai yang diperoleh untuk perbedaan karakter dan MSE adalah 0 yang menunjukkan bahwa teks yang diekstraksi sama dengan teks asli.

One use of todays technology is storing data in digital format. Sometimes the data storedis confidential, so a method is needed to maintain its confidentiality. Two methods that can be used to maintain data confidentiality are cryptography and steganography. This research aims to make a method of securing digital text by hiding it in a digital image by using cryptography and steganography. The method of cryptography and steganography used in this research is chaos-based by using chaos function called MS Map and embedding technique called LSB with 3-3-2 pattern. By using an application called National Institute of Standards and Technology (NIST) test, it is found that a sequence contains number generated by MS Map passed 15 tests in NIST test so it can be concluded that the sequenceis random. Furthermore, the analysis obtained key sensitivity up to 10-15and key space of 1,04976×101269. The quality of steganography image (called stego image) is measured by Mean Square Error (MSE), Peak Signal-to-Noise Ratio (PSNR), and correlation coefficient. The MSE values yielded areclose to 0 with a maximum of 0,177153; the PSNR values yielded are above 40dB with a minimum of 55,647312dB; while the correlation coefficients yielded are close to 1.This shows that the stego image cannot be distinguished with the original image in plain view. As forthe extracted text, its qualityis measured by the character difference with theoriginal text and MSE. The values obtained both for character difference and MSE are 0 which indicates that the extracted text is the same as the original text."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Novi Dwi Astuti
"Pada era ­big data saat ini, semua data dan informasi tersimpan dalam bentuk digital. Data dan informasi tersebut sangat rawan untuk dicuri, dirusak, atau dimanipulasi. Untuk itu, usaha pengamanan data dan informasi digital merupakan hal yang sangat penting dan mendesak. Lebih khusus lagi jika data dan informasinya bersifat rahasia atau terbatas. Terdapat dua jenis metode pengamanan data, yaitu kriptografi dan steganografi. Penelitian ini bertujuan untuk mengamankan citra digital grayscale ke dalam citra digital warna dengan melakukan teknik enkripsi berbasis chaos dan dilanjutkan dengan melakukan teknik penyisipan LSB. Dalam penelitian ini, fungsi chaos yang digunakan untuk membangkitkan keystream adalah MS map dan teknik penyisipan LSB yang digunakan adalah teknik penyisipan LSB-1, LSB-2, atau LSB-4. Barisan keystream yang dihasilkan oleh MS map terbukti acak dengan melakukan uji keacakan barisan kunci yang dikeluarkan oleh NIST. Sensitivitas kunci dari MS map mencapai 10-17. Ukuran ruang kunci sebesar 6,48 × 10643. Nilai PSNR antara citra awal dan citra terdekripsi adalah tak hingga, artinya teknik enkripsi yang digunakan merupakan teknik enkripsi dengan skema lossless. Nilai PSNR antara cover image dan stego image lebih besar atau sama dengan 40, artinya kualitas stego image yang dihasilkan cukup baik, yakni relatif sama dengan cover image jika dilihat oleh sistem penglihatan manusia.

In this era of big data, all data and information are stored in digital form. The data and information are very vulnerable to being stolen, damaged, or manipulated. For this reason, efforts to secure digital data and information are very important and necessary. More specifically if the data and information are confidential or limited. There are two types of data security methods, namely cryptography and steganography. This study investigated to secure grayscale digital images into color digital images by performing chaos-based encryption techniques and followed by doing LSB insertion techniques. In this study, chaos function employed to generate keystream was MS map, and LSB insertion techniques employed were LSB-1, LSB-2, or LSB-4. The sequence of keystream generated by MS map has been proven to be random through testing the randomness of key sequences issued produced by NIST. The key sensitivity of the MS map reached 10-17. The size of the keyspace was 6,48 × 10643. The PSNR value between the original image and decrypted image was infinite, meaning that the encryption technique employed was an encryption technique with a lossless scheme. The PSNR value between the cover image and the stego image was more than or equals to 40, showed that the quality of the stego image produced was quite good, which was relatively the same as the cover image when viewed by the human visual system."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Derio Aulia Ramadhan
"Penyakit Tuberkulosis di Indonesia merupakan salah satu dari 10 besar penyebab kematian dan agen infeksi utama. Penyebaran penyakit TB dapat dicegah dengan memberikan tes TB dini untuk individu dengan indikasi penyakit TB, seperti individu dari negara dengan kasus TB tinggi, orang yang tinggal atau bekerja di lingkungan berisiko tinggi, petugas kesehatan yang merawat pasien dengan risiko tinggi. Penyakit TBC dapat diketahui dengan TB Skin Test (TST) dan TB Blood Test. Kegagalan pengobatan terjadi ketika seorang individu gagal untuk pulih dari pengobatan lini pertama yang diberikan kepada individu TB aktif. Pada skripsi ini disusun model matematika dengan membagi total populasi  menjadi enam kompartemen berdasarkan status kesehatannya. Digunakan data pertambahan kasus TB Indonesia per-triwulan tahun 2017-2021 serta beberapa metode seperti pembentukan Basic Reproduction Number (R0) menggunakan metode NGM, menentukan dan analisis titik bebas penyakit dan endemik dengan pendekatan Van den Driessche, Castillo-Chavez dan Song, serta kajian analitik dengan analisis elastisitas dan sensitivitas serta simulasi autonomous.

Tuberculosis in Indonesia is one of the top 10 causes of death and a major infectious agent. The spread of TB disease can be prevented by providing early TB testing for individuals with indications of TB disease, such as individuals from countries with high TB cases, people living or working in high-risk environments, health workers who care for high-risk patients. TB disease can be identified by means of the TB Skin Test (TST) and the TB Blood Test. Treatment failure occurs when an individual fails to recover from the first-line treatment given to an individual with active TB. In this thesis is constructed a mathematical model by dividing the total population into six compartments based on their health status. The use of data on the increase in Indonesia TB cases per quartely 2017-2021 as well as several methods such as the formation of R0 or Basic Reproduction Number using the NGM or Next Generation Matrix method, determine and analyze disease and endemic points with the Van den Driessche approach, Castillo-Chavez and Song, as well as analytical studies with elasticity and sensitivity analysis as well as autonomous simulation."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nadhira Azizah
"Perburuan badak putih yang terjadi beberapa tahun terakhir di Afrika Selatan, diakibatkan oleh kebutuhan manusia terhadap cula badak. Perburuan ini menjadi masalah serius yang dapat mengancam kelestarian badak putih. Para konservasionis dan pemerintah
telah melakukan upaya untuk mengurangi perburuan liar. Salah satunya dengan melakukan penangkapan terhadap pemburu. Pada skripsi ini, dibahas mengenai model matematika perburuan badak putih dengan intervensi penangkapan pemburu. Model dibentuk berdasarkan model predator-prey dengan badak putih sebagai prey dan manusia (pemburu) sebagai predator. Populasi badak putih dibagi menjadi tiga subpopulasi berdasarkan keadaan culanya, yaitu badak putih muda (ukuran cula kecil), badak putih
dewasa bercula yang siap diburu, dan badak putih dewasa yang telah diambil culanya, tetapi dibiarkan hidup. Kajian analitis terkait proses nondimensionalisasi, eksistensi dan kestabilan titik keseimbangan dilakukan terhadap model. Berdasarkan kajian analitis yang dilakukan, semakin banyak pemburu yang ditangkap, maka semakin baik untuk pelestarian badak putih. Namun, intervensi ini membutuhkan biaya yang mahal. Oleh karena itu, model ini dikembangkan dengan pendekatan kontrol optimal menggunakan Prinsip Minimum Pontryagin dan diselesaikan secara numerik. Simulasi numerik yang mendukung kajian analitis dan simulasi kontrol optimal dilakukan untuk memberikan interpretasi yang lebih baik terhadap dinamika model.

The human desire for rhino horn is the reason why southern white rhinos poached since the last few years in South Africa. Poaching is one of the severe problems affecting the population of white rhinos. To overcome poaching, conservationist and government have tried to prevent illegal hunting by arresting hunters. Here, we will discuss a mathematical modelling for white rhino poaching with intervention to control the number of hunters. The model constructed based on a predator-prey model with a white rhino as prey and human (hunter) as predator. We divide white rhino into three subpopulations based on their horn condition i.e. juvenile rhino with small size of horn, adult rhino with horn ready to be hunt, and adult rhino that has been hunted for its horn but left alive. We also discuss some analytical results related to model analysis i.e. non-dimensionalization process, equilibrium points, and its stability. From analytical result, it is trivial that by arresting as many hunters as possible can conserve white rhino better, but the costs are very high. Therefore, an optimal strategy is needed. The optimal control then constructed using
Pontryagin’s Minimum Principle and solved numerically. Both numerical simulation that supports analytic studies and optimal control simulation are given to provide additional insight into the dynamics of the model.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6   >>