Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 178685 dokumen yang sesuai dengan query
cover
"Besarnya angka statistik pernikahan dini (pengantin di bawah usia 16 tahun) di beberapa daerah di Indonesia secara keseluruhan cukup tinggi. Dalam rangka menanggulangi hal tersebut perlu dilakukan upaya untuk mempersiapkan remaja agar memiliki pengetahuan berkaitan dengan program KB. Untuk itu, peneliti ingin menganalisis keinginan remaja untuk menggunakan alat/cara KB setelah menikah dengan menggunakan metode CART dan QUEST berdasarkan data Survei Kesehatan Reproduksi Remaja Indonesia (SKRRI) 2002-2003. Berdasarkan hasil analisis antara metode CART dan QUEST diperoleh faktor-faktor yang mempengaruhi keinginan remaja untuk menggunakan alat/cara KB setelah menikah, serta karakteristik dari remaja berkaitan dengan hal tersebut. Selain itu diperoleh keakuratan tingkat klasifikasi dari kedua metode, dimana keakuratan tingkat klasifikasi metode CART sedikit lebih tinggi dibandingkan dengan metode QUEST. "
Universitas Indonesia, 2007
S27684
UI - Skripsi Membership  Universitas Indonesia Library
cover
"Dalam pengujian hipotesis prinsip metode statistika parametrik adalah mencocokkan data di bawah asumsi distribusi dari populasinya. Namun pada kenyataannya, banyak permasalahan yang tidak memenuhi asumsi ini. Permasalahan seperti itu dapat diselesaikan dengan dua pendekatan. Pendekatan pertama adalah menggunakan prosedur bebas distribusi. Pendekatan kedua adalah mentransformasi data ke dalam bentuk yang bisa mendekati distribusi normal, seperti transformasi log, transformasi akar kuadrat dan lainnya. Transformasi rank (TR) merupakan prosedur yang mengkombinasikan kedua pendekatan tersebut. Prosedur ini mentransformasi data yang bebas distribusi ke dalam bentuk rank kemudian mengaplikasikan metode parametrik pada data yang telah ditransformasi. Dalam skripsi ini dibahas mengenai aplikasi dari transformasi rank pada data rating televisi. Nilai yang diperoleh dengan prosedur transformasi rank dapat disetarakan dengan nilai yang diperoleh dengan metode parametrik maupun nonparametrik. "
Universitas Indonesia, 2006
S27628
UI - Skripsi Membership  Universitas Indonesia Library
cover
Chika Tsabita Aurellia
"Sistem bonus malus yang biasanya digunakan pada perusahaan asuransi adalah sistem bonus malus klasik, yang perhitungannya hanya didasarkan pada riwayat banyaknya klaim pemegang polis. Namun, hal ini akan menimbulkan ketidakadilan karena besar kerugian pemegang polis bervariasi, sehingga pada penelitian ini dibangunlah modifikasi sistem bonus malus yang juga mempertimbangkan severitas klaim pemegang polis di masa lalu dengan kredibilitas bivariat yang menggunakan metode Bayesian. Dikarenakan klaim yang diajukan masing-masing pemegang polis dapat bernilai sangat besar ataupun sangat kecil, maka ditentukanlah suatu nilai batas untuk memisahkan kedua jenis klaim tersebut. Distribusi yang digunakan untuk banyaknya klaim adalah distribusi Poisson Gamma. Sedangkan, total banyaknya klaim yang berukuran lebih besar dari nilai batas mengikuti distribusi Binomial Beta. Premi bonus malus akan didapatkan dengan menghitung rasio antara premi Bayes dan premi prior, yang masing-masing didapatkan dari hasil ekspektasi distribusi posterior dan distribusi prior secara berurutan. Aplikasi pada data asuransi kendaraan bermotor asal Swedia menunjukkan bahwa besar premi yang dibayarkan pemegang polis berbanding lurus dengan severitas klaim dan banyaknya klaim atau dengan kata lain model yang dihasilkan memberikan biaya premi yang lebih rendah untuk pemegang polis yang memiliki riwayat klaim bernilai lebih kecil dari nilai batas, begitupun sebaliknya.

The bonus-malus system that is commonly used by insurance companies is the traditional bonus-malus system, which is based solely on the policyholder's claims frequency history. However, this approach can lead to unfairness due to variations in the severity of the policyholder's losses. Therefore, this thesis will focus on modifying the bonus-malus premium determination system to consider both the frequency and severity of the policyholder's past claims using bivariate credibility with Bayesian methods. Since claims made by policyholders can have significantly different values, can be very large or very small, a threshold is established to distinguish between these two types of claims. The claim frequency will follow a Poisson Gamma distribution. On the other hand, total claims exceeding the threshold value will follow a Binomial Beta distribution. The bonus-malus premium will be obtained by calculation the ratio between the Bayesian premium and the prior premium, which respectively will be derived from the expected value of the posterior distribution and the prior distribution. By applying this model to the automobile insurance data from Swedia, it demonstrates that the premium amount paid by the policyholder is directly proportional to the severity and frequency of claims. In other words, the resulting model offers lower premium costs for policyholders with a claims history below the threshold value and higher costs for those above it.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Ilham Randi
"Dalam melakukan klasifikasi, tidak jarang terdapat data dengan jumlah anggota kategori yang tidak seimbang. Khususnya dalam dunia kesehatan dimana kategori yang diamati umumnya lebih jarang terjadi. Jika ketidakseimbangan ini tidak ditangani terlebih dahulu maka dapat memberikan hasil klasifikasi yang bias dan kurang akurat. Terdapat beberapa metode rebalancing konvensional untuk menanganinya seperti random oversampling dan random undersampling, namun keduanya diklaim memiliki beberapa kelemahan sehingga beberapa metode yang lebih kompleks dikembangkan. Namun jumlah metode yang dapat digunakan untuk menangani data kategorik selain metode konvensional tersebut masih minim. Salah satu metode yang dapat menangani data kategorik adalah synthetic minority over sampling-technique nominal continuous atau SMOTE-NC yang merupakan ekstensi dari SMOTE yang dikembangkan untuk menangani dataset dengan variabel campuran. Skripsi ini membahas perbandingan dari metode random oversampling dan SMOTE-NC juga metode gabungannya dengan undersampling yaitu random oversampling + undersampling dan SMOTE-NC + undersampling untuk menangani ketidakseimbangan data. Masing-masing metode tersebut akan diterapkan untuk klasifikasi tingkat keparahan COVID-19 berdasarkan urgensi perawatan rumah sakit dengan menggunakan metode random forest dimana selanjutnya dapat dilihat kombinasi metode yang menghasilkan performa terbaik. Penelitian ini juga bertujuan untuk melihat faktor-faktor manakah yang paling penting dalam memprediksi tingkat keparahan COVID-19 berdasarkan urgensi rumah sakit. Digunakan metode Leave-One-Out Cross-Validation untuk mengukur konsistensi model. Diperoleh hasil bahwa metode SMOTE-NC dengan undersampling memberikan performa terbaik dengan komorbid paru-paru, kadar c-reactive protein dan prokalsitonin merupakan variabel terpenting dalam model. Selain itu diperoleh kesimpulan bahwa pemilihan metode rebalancing yang tepat bergantung pada karakteristik data yang dimiliki.

In conducting classification, it is not uncommon for data with an unbalanced number of category members. Especially in the world of health where the categories we observe are generally less common. If this imbalance is not handled first, it can give biased and less accurate classification results. There are several conventional rebalancing methods to handle it, such as random oversampling and random undersampling, but both are claimed to have several weaknesses so that several more complex methods were developed. However, the number of methods that can be used to handle categorical data other than the conventional methods is still minimal. One method that can handle categorical data is synthetic minority over sampling-technique nominal continuous or SMOTE-NC which is an extension of SMOTE which was developed to handle datasets with mixed variables. This thesis discusses the comparison of random oversampling and SMOTE-NC methods as well as their combined methods with undersampling, namely random oversampling + undersampling and SMOTE-NC + undersampling to handle data imbalances. These methods will be applied to the classification of the severity of COVID-19 based on the urgency of hospital care using the random forest method, wherein the combination of methods that produces the best performance will be seen. This study also aims to see which factors are the most important in predicting the severity of COVID-19 based on hospital urgency. The Leave-One-Out Cross-Validation method is used to measure the consistency of the model. It was found that the SMOTE-NC method with undersampling gave the best performance with lung comorbidities, c-reactive protein and procalcitonin levels were the most important variables in the model. In addition, it can be concluded that the selection of the right rebalancing method depends on the characteristics of the data held.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Zalfa Nurfadhilah Haris
"Kemiskinan merupakan salah satu masalah sosial yang masih menjadi perhatian pemerintah. Hampir seluruh negara berkembang memiliki standar hidup yang masih rendah. Salah satu cara untuk mengurangi kemiskinan adalah dengan menganalisis faktor-faktor yang memengaruhi Salah satu metode yang cocok dalam menganalisis tingkat kemiskinan adalah dengan menggunakan Geographically Weighted Regression (GWR). Hal ini dikarenakan dalam model GWR dipertimbangkan aspek spasial yang berbeda-beda untuk masing-masing lokasi pengamatan. Dalam model GWR dilakukan pendekatan analisis regresi yang digunakan untuk memahami hubungan spasial antara variabel-variabel dalam konteks geografi. Hal ini dikarenakan model GWR mempertimbangkan jarak lokasi pengamatan dengan lokasi sekitarnya, model GWR juga mempertimbangkan pembobot pada masing-masing lokasi pengamatan. Daerah yang dekat dengan lokasi pengamatakan mendapatkan pembobot yang lebih besar daripada daerah yang jauh dengan lokasi pengamatan, dalam hal ini penentuan pembobot dalam model GWR bergantung pada bandwidth. Dalam penelitian ini dilakukan analisis dengan mempertimbangkan empat pembobot spasial yaitu fixed gaussian kernel, fixed bisquare kernel, fixed tricube kernel, dan fixed exponential kernel yang diterapkan pada dua bandwidth yaitu bandwidth CV dan bandwidth AIC. Variabel dependen yang digunakan adalah tingkat kemiskinan dan variabel independen yang digunakan adalah rata-rata lama sekolah, upah minimum, tingkat pengangguran, indeks pembangunan manusia, angka harapan hidup dan jumlah penduduk. Hasil dari penelitian ini menunjukkan bahwa pada 118 Kabupaten/Kota di Pulau Jawa memiliki model GWR yang berbeda-beda. Untuk model GWR menggunakan bandwidth CV diperoleh model terbaik dengan menggunakan fixed exponential kernel dengan sembilan kelompok variabel yang signifikan, untuk model GWR menggunakan bandwidth AIC diperoleh model terbaik dengan menggunakan fixed bisquare kernel dengan enam kelompok variabel yang signifikan.

Poverty is one of the social issues that continues to be a concern for the government. Almost all developing countries have low living standards. One way to reduce poverty is by analyzing the factors that influence it. One suitable method for analyzing poverty levels is by using Geographically Weighted Regression (GWR). This is because the GWR model considers different spatial aspects for each observation location. In the GWR model, a regression analysis approach is used to understand the spatial relationship between variables in a geographical context. This is because the GWR model considers the distance between the observation location and its surrounding locations. The GWR model also considers weighting for each observation location. Areas close to the observation location are given a higher weight than areas far from the observation location. In this case, the determination of the weight in the GWR model depends on the bandwidth. This research analyzes four spatial weights, namely fixed Gaussian kernel, fixed bisquare kernel, fixed tricube kernel, and fixed exponential kernel, applied to two bandwidths: CV bandwidth and AIC bandwidth. The dependent variable used is the poverty rate, and the independent variables used are average length of schooling, minimum wage, unemployment rate, human development index, life expectancy, and population. The results of this study show that the 118 districts in Java Island have different GWR models. For the GWR model using the CV bandwidth, the best model is obtained using the fixed exponential kernel with nine significant variable groups. For the GWR model using the AIC bandwidth, the best model is obtained using the fixed bisquare kernel with six significant variable groups.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Michael Mario Bramanthyo Adhi
"Angka Harapan Hidup (AHH) merupakan rata-rata perkiraan banyak tahun yang dapat ditempuh oleh seseorang sejak lahir. Badan Pusat Statistik (BPS) mencatat bahwa AHH penduduk di Provinsi Jawa Barat tahun 2021 mencapai 73,23 tahun dan menempati posisi keempat dengan nilai AHH tertinggi di Indonesia pada 2021. Penelitian ini bertujuan untuk menganalisis variabel-variabel yang menjelaskan AHH di setiap kabupaten/kota di Provinsi Jawa Barat tahun 2021 menggunakan model regresi linear berganda, Geographically Weighted Regression (GWR), dan Mixed Geographically Weighted Regression (MGWR) yang kemudian dievaluasi untuk memeroleh model terbaik. Pada penelitian ini, model regresi linier berganda digunakan untuk mengetahui seberapa besar pengaruh variabel-variabel independen terhadap variabel AHH dimana nilai estimasi parameter regresi sama untuk setiap wilayah penelitian atau disebut dengan model regresi global. Provinsi Jawa Barat terdiri dari 27 kabupaten/kota yang memiliki karakteristik berbeda antarwilayah sehingga memungkinkan adanya heterogenitas spasial. Model GWR bertujuan untuk mengeksplor heterogenitas spasial dengan membentuk model regresi yang berbeda pada setiap lokasi pengamatan atau dapat disebut dengan model regresi lokal. Hal ini akan menimbulkan permasalahan apabila terdapat variabel independen yang tidak bersifat lokal atau tidak mempunyai pengaruh lokasi, tetapi diduga memiliki pengaruh terhadap variabel dependen secara global. Oleh karena itu, dikembangkan lagi menggunakan model MGWR. Model MGWR menghasilkan estimasi parameter yang bersifat global dan lokal sesuai dengan lokasi pengamatan. Variabel yang bersifat global, yaitu Tingkat Pengangguran Terbuka (TPT) dan Pengeluaran Per Kapita (PPK), sedangkan variabel yang bersifat lokal, yaitu Jumlah Penduduk Miskin (JPM), Harapan Lama Sekolah (HLS), dan Persentase Penduduk yang Mempunyai Keluhan Kesehatan Sebulan Terakhir (KK). Hasil penelitian ini menunjukkan bahwa kedua variabel global berpengaruh terhadap AHH, sedangkan variabel lokal yang berpengaruh terhadap AHH berbeda pada setiap wilayahnya, begitu pula dengan model yang terbentuk juga akan berbeda untuk setiap wilayahnya. Selain itu, model terbaik yang diperoleh adalah model GWR dengan fungsi pembobot fixed Gaussian kernel dengan nilai AIC terkecil, adjusted R-squared terbesar, dan RMSE terkecil dibandingkan model regresi linier berganda dan MGWR.

Life Expectancy (AHH) is an estimate of the years that a person will take from birth. Badan Pusat Statistik (BPS) notes that the AHH of the population in West Java Province in 2021 reached 73.23 years and ranked fourth with the highest AHH value in Indonesia in 2021. This study aims to analyze the variables that explain AHH in each district/city in West Java Province in 2021 using multiple linear regression models, Geographically Weighted Regression (GWR) models, and Mixed Geographically Weighted Regression (MGWR) models which are then evaluated to obtain the best model. In this study, the multiple linear regression model is used to determine how much influence the independent variables had on the AHH variable where the estimated values of the regression parameters were the same for each study area or called the global regression model. West Java Province consists of 27 districts/cities which have different characteristics between regions, thus allowing for spatial heterogeneity. The GWR model aims to explore spatial heterogeneity by forming a different regression model at each observation location or it can be called a local regression model. This will cause problems if there are independent variables that are not local in nature or do not have a location effect, but are suspected of having an influence on the dependent variable globally. Therefore, it is further developed using the MGWR model. The MGWR model produces parameter estimates that have global and local characteristics according to the observation location. Global variables are Open Unemployment Rate (TPT) and Per Capita Expenditures (PPK), while local variables are Number of Poor Population (JPM), Expected Years of Schooling (HLS), and Percentage of Population with Health Complaints in the Last Month (KK). The results of this study indicate that both global variables have a significant effect on AHH, while local variables which have a significant effect on AHH are different in each region, as well as the model formed will also be different for each region. In addition, the best model obtained is the GWR model with a fixed Gaussian kernel weighting function with the smallest AIC value, the largest adjusted R-squared, and the smallest RMSE compared to the multiple linear regression model and MGWR model.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Arnhilda Aspasia Lundy
"Terkadang manfaat pensiun yang diberikan dari jaminan sosial tidak dapat mencukupi kehidupan masa pensiun. Salah satu strategi untuk menambah pendapatan masa pensiun bagi pasangan suami istri lanjut usia yaitu dengan membeli produk equity release, yaitu marriage reverse annuity contract. Marriage reverse annuity contract memberikan manfaat anuitas kepada pasangan suami istri lanjut usia ketika masih hidup (status joint life) bahkan terkadang setelah kematian dari salah satu pasangan (status last survivor) dengan mengonversi seluruh atau sebagian dari nilai real estate yang mereka miliki. Agar lebih realitistis, risiko kematian antarpasangan suami istri diasumsikan dependen karena pasangan suami istri terpapar risiko yang sama. Oleh karena itu, dimodelkan dependensi dari future lifetime pasangan suami istri dengan menggunakan copula. Berdasarkan teorema Sklar, copula adalah fungsi yang menghubungkan distribusi bivariat dengan fungsi kumulatif marginalnya. Salah satu copula yang populer digunakan yaitu copula Archimedean, di mana keluarga copula ini memiliki struktur dan perhitungan yang sederhana, serta memungkinkan berbagai struktur dependensi yang lebih luas. Jenis copula Archimedean yang akan digunakan pada skripsi ini yaitu Clayton, Gumbel, dan Frank. Data yang digunakan yaitu Tabel Mortalitas Indonesia IV, di mana distribusi marginalnya tidak diketahui sehingga estimasi parameter dilakukan dengan metode canonical maximum likelihood. Model marriage reverse annuity untuk status joint life dan last survivor diilustrasikan melalui model multiple state dan struktur probabilitas dikonstruksi menggunakan teorema Sklar dan fungsi survival copula. Berdasarkan hasil perhitungan manfaat kontrak menggunakan copula Clayton, Gumbel, dan Frank diperoleh bahwa nilai manfaat pada status joint life lebih besar daripada last survivor. Pada status joint life, nilai manfaat tahunan kontrak marriage reverse annuity berjangka terkecil diperoleh menggunakan asumsi dependensi dengan copula Frank, sedangkan pada status last survivor, nilai manfaat tahunan kontrak marriage reverse annuity berjangka terkecil diperoleh menggunakan asumsi independensi (tanpa menggunakan copula).

Sometimes the retirement benefits from social security are insufficient for retirement life. One strategy to increase retirement income for elderly married couples is to purchase an equity release product, namely a reverse annuity marriage contract. A marriage reverse annuity contract provides annuity benefits to elderly married couples while they are still alive (joint life status) even after the death of one of the partners (last survivor status) by converting all or part of the real estate value they own. To be more realistic, the risk of death between husband and wife is assumed to be dependent because the husband and wife are exposed to the same risk. Therefore, the dependency model of the future lifetime of a husband and wife is modeled using copula. According to Sklar's theorem, the copula is a function that joins bivariate distribution to its marginal cumulative function. One of the most popular copulas used is the Archimedean copula, which has a simple structure and computation, and allows for a wider variety of dependency structures. The types of Archimedean copula that will be used in this study are Clayton, Gumbel, and Frank. The Indonesian Mortality Table IV data is used, where the marginal distribution is unknown, so parameter estimation is executed using the canonical maximum likelihood method. The marriage reverse annuity model for joint life and last survivor status is illustrated through multiple state models and the probability structure is constructed using Sklar's theorem and the copula survival function. Based on the results of calculating the benefits of the contract using the copulas (Clayton, Gumbel, and Frank), it is obtained that the value of benefits in joint life status is greater than that of the last survivor. In joint life status the smallest annual benefit value of a term marriage reverse annuity contract is obtained using the dependence assumption with Frank's copula, whereas in last survivor status the smallest annual benefit value of a term marriage reverse annuity contract is obtained using the independence assumption (without using copula).
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
M. Rasyid Rabbani
"Fraud atau kecurangan merupakan salah satu permasalahan yang masih dihadapi oleh industri asuransi dan masih memberikan kerugian yang sangat besar bagi industri ini. Biaya yang dikeluarkan pun untuk mengatasi permasalahan ini masih cukup besar, untuk itu dikembangkanlah sebuah model machine learning untuk membantu pencegahan terjadinya fraud pada asuransi. Salah satu model yang sedang sangat berkembang adalah model Imbalance-XGBoost, penelitian ini dilakukan untuk meninjau kemampuan model Imbalance-XGBoost dalam mendeteksi fraud sebagai langkah pencegahan fraud pada asuransi. Penelitian ini berhasil mendapati bahwa Imbalance-XGBoost memiliki performa yang lebih baik jika dibandingkan dengan model dasarnya yaitu XGBoost tanpa penanganan kelas tidak seimbang.

Fraud or dishonesty is one of the persistent challenges faced by the insurance industry and continues to result in significant losses for the industry. The costs incurred to address this issue are also quite substantial. Therefore, a machine learning model has been developed to assist in preventing insurance fraud. One of the models that is currently gaining traction is the Imbalance-XGBoost model. This research was conducted to assess the ability of the Imbalance-XGBoost model in detecting fraud as a preventive measure in insurance. The study found that Imbalance-XGBoost performs better compared to its base model, XGBoost, which does not handle imbalanced classes.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hanny Andralin Haryono
"Metode Bornhuetter-Ferguson merupakan salah satu metode yang paling sering digunakan dalam menentukan estimasi cadangan klaim. Metode ini tidak hanya memanfaatkan data historis perusahaan, melainkan juga data eksternal, seperti besar premi, yang disebut sebagai prior information. Dalam tugas akhir ini, prior information yang dimaksud adalah rata-rata klaim. Pada metode Bornhuetter-Ferguson klasik, estimasi prior dari rata-rata klaim diperoleh berdasarkan pengamatan aktuaris terhadap data historis perusahaan. Akan tetapi, apabila terjadi kekeliruan dalam pemilihan estimasi prior, maka akan dihasilkan error yang besar antara prediksi cadangan klaim dengan besar klaim sebenarnya. Maka dari itu, perlu dibangun model Bayesian dalam menentukan estimasi prior untuk rata-rata klaim. Namun pada praktiknya, cukup sulit untuk menentukan distribusi prior dari rata-rata klaim yang tepat. Berdasarkan hal tersebut, akan digunakan model kredibilitas Buhlmann-Straub untuk mengestimasi rata-rata klaim. Selain itu, dilakukan pula estimasi untuk parameter-parameter yang akan digunakan dalam membangun model kredibilitas Buhlmann-Straub. Setelah estimasi rata-rata klaim didapatkan, maka estimasi dari cadangan klaim pada metode Bornhuetter-Feguson dapat diperoleh. Hasil estimasi tersebut akan dibandingkan dengan hasil estimasi metode Chain Ladder klasik dan metode Bornhuetter-Ferguson klasik. Hasil pada simulasi numerik menunjukkan bahwa, metode Bornhuetter-Ferguson dengan rata-rata klaim yang kredibel memberikan persentase error yang lebih kecil dibandingkan dengan kedua metode lainnya.

Bornhuetter-Ferguson is one of the most widely used method in predicting claim reserve. This method considers not only historical data but also external data, for example, premium data, which is called as prior information. In this thesis, the claim means are used as the prior information. In traditional Bornhuetter-Ferguson method, prior estimate of claim means are obtained by actuary based on his personal experience or observation of the historical data. However, if these prior estimates are wrongly chosen, then greater error is brought to the claim reserve prediction. Therefore, it is necessary to construct Bayesian model in determining the prior estimate of claim means. Nevertheless in practice, it is still very difficult how to choose the appropriate prior distribution for claim means. Therefore, the Buhlmann-Straub credibility model will be introduced and a research is conducted to estimate the claim means along with estimation of parameters in the model. The estimate of claim means are then used to calculate the claim reserve in Bornhuetter-Ferguson method. The result of the estimation will be compared to the estimate from the traditional Chain Ladder method and traditional Bornhuetter-Ferguson method. In numerical simulation, it is found that Bornhuetter-Ferguson method with credible claim means obtained less error percentage than that of the other two methods.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Yudhistira Jinawi Agung
"Pendeteksian topik adalah suatu proses untuk mendapatkan pokok bahasan atau topik pada suatu dokumen teks. Pada data yang besar, pendeteksian topik dapat dilakukan dengan lebih efisien menggunakan metode machine learning. Clustering merupakan salah satu metode machine learning yang bertujuan untuk mengelompokkan data yang memiliki karakteristik serupa ke dalam suatu kelompok/cluster. Beberapa contoh metode clustering adalah K-Means, Fuzzy C-Means (FCM), dan Eigenspace-Based Fuzzy C-Means (EFCM). Metode clustering hanya memproses data numerik, oleh sebab itu diperlukan metode representasi teks. Metode representasi teks yang umum digunakan sebelumnya adalah Bag of Words (BoW) dan Term-Frequency Inversed Document Frequency (TFIDF). Namun, metode BoW dan TFIDF kurang baik dalam merepresentasikan teks secara kontekstual. Pada tahun 2018 metode representasi teks yang baru ditemukan yaitu metode Bidirectional Encoder Representation from Transformers (BERT). Model BERT dapat merepresentasikan teks secara kontekstual dan menghasilkan representasi teks berdimensi tinggi. EFCM merupakan teknik clustering yang menggunakan kombinasi teknik reduksi dimensi Truncated Singular Value Decomposition (TSVD) dengan teknik clustering FCM. Pada tahun 2022 terdapat penelitian yang mengombinasikan BERT dan EFCM untuk pendeteksian topik. Pada model kombinasi BERT dan EFCM terdapat beberapa nilai parameter yang dapat diatur, antara lain adalah pemilihan lapisan encoder BERT, dimensi EFCM, dan derajat fuzziness. Penelitian ini berfokus pada analisis sensitivitas parameter untuk melihat pengaruh dari nilai parameter terhadap kinerja model EFCM berbasis BERT untuk pendeteksian topik. Analisis sensitivitas parameter menggunakan metode Sobol untuk menentukan parameter yang tidak sensitif dan yang paling sensitif. Kinerja model dievaluasi menggunakan metrik evaluasi topic coherence, topic diversity, dan topic quality. Hasil penelitian menunjukkan bahwa parameter lapisan encoder, dimensi EFCM, dan derajat fuzziness sensitif terhadap kinerja model. Selain itu, diperoleh model optimal pada tiga dataset menggunakan parameter tuning metode grid search. Penerapan parameter tuning dapat meningkatkan performa model pada ketiga dataset berdasarkan nilai topic quality.

Topic detection is a process to get the subject matter or topic in a text document. In large data, topic detection can be done more efficiently using machine learning methods. Clustering is a machine learning method aiming to group data with similar characteristics into a group/cluster. Some examples of clustering methods are K-Means, Fuzzy C-Means (FCM), and Eigenspace-Based Fuzzy C-Means (EFCM). The clustering method only processes numeric data; therefore, a text representation method is needed. Previously used text representation methods were Bag of Words (BoW) and Term-Frequency Inverse Document Frequency (TFIDF). However, the BoW and TFIDF methods are not good at representing text contextually. In 2018 a new text representation method was discovered, namely the Bidirectional Encoder Representation from Transformers (BERT) method. The BERT model can contextually represent text and produce high-dimensional text representations. EFCM is a clustering technique that combines the Truncated Singular Value Decomposition (TSVD) dimension reduction technique with the FCM clustering technique. In 2022 there will be research that combines BERT and EFCM for topic detection. In the BERT and EFCM combination model, there are several parameter values that can be set, including the selection of the BERT encoder layer, EFCM dimensions, and the degree of fuzziness. This study focuses on parameter sensitivity analysis to see the effect of parameter values on the performance of the BERT-based EFCM model for topic detection. Parameter sensitivity analysis uses the Sobol method to determine which parameters are insensitive and the most sensitive. Model performance was evaluated using evaluation metrics of topic coherence, topic diversity, and topic quality. The results showed that the parameters of the encoder layer, EFCM dimensions, and degree of fuzziness were sensitive to model performance. In addition, the optimal model was obtained for three datasets using the grid search method parameter tuning. Parameter tuning can improve the model performance on the three datasets based on topic quality values.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>