Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 11 dokumen yang sesuai dengan query
cover
Arief Saferman
"

Selama masa pandemi COVID-19, teknologi Automatic Speech Recognition (ASR) menjadi salah satu fitur yang sering digunakan pada komputer untuk mencatat di kelas online secara realtime. Teknologi ini akan bekerja dimana setiap suara yang muncul akan langsung dikenali dan dicatat pada halaman terminal. Dalam penelitian ini, model ASR Wav2Letter akan digunakan menggunakan CNN (Convolution Neural Network) dengan loss function CTC (Connectionist Temporal Classification) dan ASG (Auto Segmentation Criterion). Selama proses pembuatannya, berbagai hyperparameter acoustic model dan language model dari model ASR Wav2Letter terkait dengan implementasi batch normalization¸ learning-rate, window type, window size, n-gram language model, dan konten language model diuji pengaruh variasinya terhadap performa model Wav2Letter. Dari pengujian tersebut, ditemukan bahwa model ASR Wav2Letter menunjukkan performa paling baik ketika acoustic model menggunakan metode ASG dengan learning-rate 9 × 10−5 , window size 0.1, window type Blackman, serta 6-gram language model. Berdasarkan hasil akurasi WER CTC unggul 1,2% dengan 40,36% berbanding 42,11% dibandingkan ASG, namun jika dilihat lamanya epoch dan ukuran file model, loss function ASG memiliki keunggulan hampir dua kalinya CTC, dimana ASG hanya membutuhkan setengah dari jumlah epoch yang dibutuhkan oleh CTC yakni 24 epoch berbanding dengan 12 epoch dan ukuran file model ASG setengah lebih kecil dibandingkan CTC yakni 855,2 MB berbanding dengan 427,8 MB. Pada pengujian terakhir, model ASR Wav2Letter dengan loss function ASG mendapatkan hasil terbaik dengan nilai WER 29,30%. Berdasarkan hasil tersebut, model ASR Wav2Letter dengan loss function ASG menunjukkan perfoma yang lebih baik dibandingkan dengan CTC.


During the COVID-19 pandemic, Automatic Speech Recognition technology (ASR) became one of features that most widely used in computer to note down online class in real-time. This technology works by writing down every word in terminal from voice that is recognized by the system. ASR Wav2Letter model will use CNN (Convolutional Neural Network) with loss function CTC (Connectionist Temporal Classification) and ASG (Auto Segmentation Criterion). While developing Wav2Letter, various hyperparameter from acoustic model and language model is implemented such as batch normalization, learning rate, window type, window size, n-gram language model, and the content of language model are examined against the performance of Wav2Letter model. Based on those examination, Wav2Letter shows best performance when it uses ASG loss function learning rate 9 × 10−5 , window size 0.1, window type Blackman, and 6-gram language model. With that configuration, WER of CTC outplay ASG around 1.2% with 40.36% compare to 42,11%, but another parameter shows ASG are way more superior than CTC with less time epoch training which are 24 epoch for CTC against 12 epoch for ASG and the size of memory model shows CTC has bigger size than ASG with 855.2 MB against 427.8 MB. In the last test, ASR Wav2Letter model with ASG loss function get the best WER value around 29.3%. Based on those results, ASR Wav2Letter Model shows its best performance with ASG loss function than CTC.

"
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hendri Fernandes
"

Vertical Roller Mill (VRM) merupakan tipe baru peralatan grinding, yang mengkombinasikan berbagai fungsi proses dalam pengoperasiannya termasuk proses grinding, proses pengeringan, dan proses pemisahan, dan merupakan peralatan grinding yang memiliki efisisensi energi yang tinggi. Stabilitas pengendalian operasi dan kehalusan raw meal yang sesuai dengan kualitas merupakan factor penting untuk mendapatkan kondisi operasi normal pada VRM.

Penelitian ini bertujuan mendapatkan metode pemodelan bagi VRM untuk memprediksi residu 90 mikron dan residu 200 mikron dari produk raw meal menggunakan Back Propagation Neural Network (BPNN). Pembuatan model BPNN dapat dilakukan dalam beberapa langkah, yaitu persiapan data input, menentukan sturuktur BPNN, pemilihan optimizer dan loss function, dan pelatihan BPNN serta evaluasi model yang dibuat.

Normalisasi data merupakan bagian dari persiapan data input, yang mana metode ini mengubah nilai output kedalam nilai kisaran baru. Sedangkan untuk arsitektur model, pada penelitian ini BPNN dirancang dengan menggunakan 4 variabel dan 6 variabel pada lapisan masukan, 4 lapisan tersembunyi dengan 52 neuron untuk setiap lapisannya. Sedangkan lapisan keluaran memiliki 2 variabel keluaran.

Pada penelitian ini menggunakan 3 tipe optimizer untuk mengoptimalkan parameter loss function, yaitu Adagrad, Adam, dan RMSprop. Dari hasil evaluasi pada model, penggunaan RMSprop optimizer dan MSE sebagai loss function memberikan hasil yang lebih baik dalam memprediksi data kualitas residu produk VRM dibandingkan optimizer lainnya.

 


Vertical Roller Mill (VRM) is a new type of grinding equipment, which combines multiple functions that include grinding, drying, and separating, and is energy efficient grinding equipmen. Stability of the process control and suitable raw meal fineness are the key factors to determine the normal operation of the VRM.

This study proposes a method for modeling the VRM to predict residue 90 micron and residue 200 micron of the raw meal product using Back Propagation Neural Network (BPNN). Making a neural network model in BPNN can be done in a few steps. The modelling step is input preparation, BPNN structure determination, optimizer and loss function selection, training BPNN and model evaluation.

Normalization is part of input preparation. This method resets the feature or output to a range of new values. For structure architecture, BPNN Modeling VRM Raw Meal uses one input layer with 4 and 6 input variables, with 4 hidden layers with 52 neuron for each hidden layers. While the output consists of one layer with 2 target output variables.

In this research, the modeling using 3 optimizers to optimize parameter of loss function. The optimizers are Adagrad, Adam, and RMSprop. From model evaluation, RMSprop optimizer and MSE loss function show better modelling results than others to predict residue data quality of the VRM raw meal products.

 

"
2019
T53272
UI - Tesis Membership  Universitas Indonesia Library
cover
Margaretha
"Distribusi Exponentiated Exponential (EE) adalah pengembangan dari distribusi Exponential dengan cara menambahkan sebuah parameter bentuk alpha. Distribusi ini digunakan untuk mengatasi masalah ketidakfleksibilitas dari distribusi Exponential. Untuk melakukan inferensi mengenai permasalahan yang dimodelkan dengan distribusi EE, perlu dilakukan penaksiran parameter. Pada skripsi ini akan dibahas mengenai penaksiran parameter distribusi dari distribusi Exponentiated Exponential pada data tersensor kiri menggunakan metode Bayesian. Prosedur penaksiran meliputi penentuan distribusi prior yaitu digunakan distribusi prior konjugat, pembentukan fungsi likelihood dari data tersensor kiri, dan pembentukan distribusi posterior. Penaksir Bayes kemudian diperoleh dengan cara meminimumkan risiko posterior berdasarkan fungsi loss Squared Error Loss Function (SELF) dan Precautionary Loss Function (PLF). Kemudian setelah diperoleh perumusan penaksir Bayes, simulasi data dilakukan untuk membandingkan hasil taksiran parameter menggunakan fungsi loss SELF dan PLF yang dilihat dari nilai Mean Square Error (MSE) yang dihasilkan. Fungsi loss dikatakan lebih efektif digunakan dalam merumuskan penaksir Bayes apabila penaksir Bayes yang diperoleh menghasilkan nilai MSE yang lebih kecil. Berdasarkan hasil simulasi, fungsi loss PLF lebih efektif digunakan untuk alpha≤1, sedangkan fungsi loss SELF lebih efektif digunakan untuk alpha>1.

Exponentiated Exponential (EE) distribution is the development of Exponential Distribution by adding alpha as a shape parameter. This distribution can solve unflexibility issue in Exponential distribution. In order to make inferences about any cases modeled with EE distribution, parameter estimation is required. This thesis will discuss about parameter estimation of Exponentiated Exponential distribution for left censored data using Bayesian method. Parameter estimation procedure are selection of prior distribution which is conjugate prior, likelihood construction for left censored data, and then forming posterior distribution. Bayes estimator can be obtained by minimize posterior risk based on Squared Error Loss Function (SELF) and Precautionary Loss Function (PLF). After Bayes estimator is obtained, simulation is done to compare the results of Bayes estimator using SELF and PLF which are seen from the result of Mean Square Error (MSE). Loss function is said to be more effective to obtain Bayes estimator if the resulting Bayes estimator yield smaller MSE. Based on simulation, PLF more effective for alpha ≤ 1, while SELF more effective for alpha>1."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
cover
Ahmad Barlianta
"Penelitian ini menjelaskan bagaimana optimasi dari setiap kombinasi faktor dalam proses laminasi dapat dicapai dengan menggunakan metode Taguchi yang ditopang oleh model simulasi neural network. Model yang dibangun dari neural network memudahkan pencarian data eksperimen tanpa melakukan eksperimen tersebut secara aktual. Penulis juga menghitung berapa biaya kualitas dari proses tersebut pada keadaan awal dan keadaan sesudah dilakukan pendekatan optimasi dengan dua metode di atas.
Dengan analisa yang didasari kedua metode tadi, maka dapat dianalisa seberapa besar nilai Taguchi Expected Loss dari proses tersebut. Penulis menghitung biaya produksi ini dengan menggunakan pendekatan Taguchi Loss Function sebagai basis kriteria biaya kualitas.

This study describes how the optimization of each combination in the process of lamination can be achieved by using the Taguchi method and combination with Neural Network. Model was built from neural network model to search for experimental data without performing the actual experiments. The author also calculates how much its quality costs of the process in the initial condition and circumstances after the optimization approach.
With both methods of analysis, it can analyze how much the value of Taguchi Expected Loss of the process. The author calculates the production cost by using the approach of Taguchi Loss Function as the basis of criteria of quality costs.
"
Depok: Fakultas Teknik Universitas Indonesia;, 2010
S51749
UI - Skripsi Open  Universitas Indonesia Library
cover
Dwina Kuswardani
"Dalam tesis ini dilakukan desain template pada klasifikasi bentuk lengkung gigi menggunakan regresi kuadratik. Desain template ini sangat diperlukan untuk membedakan 3 bentuk lengkung gigi yaitu Tapered, Ovoid, dan Square. Ketiga bentuk lengkung gigi tersebut mempunyai kemiripan sangat dekat sehingga dilakukan suatu desain template yang lebih spesifik agar didapat hasil klasifikasi yang baik. Dasar dari pembentukkan desain template bentuk lengkung gigi adalah lebar interkaninus, tinggi interkaninus, dan tinggi intennolar. Pengklasifikasian berdasarkan 3 variabel itu menjadi lebih baik dibandingkan hanya dengan template tunggal. Desain template dibagi dalam 4 skenario. Pertama, rahang atas dan rahang bawah. Kedua, rasio dari tinggi kaninus dan lebar kaninus. Ketiga, lebar kaninus dan keempat, rasio dari tinggi intennolar dan lebar interkaninus Metode yang digunakan pada desain template ini adalah metode regresi kuadratik. Sedangkan proses klasifikasi bentuk lengkung gigi menggunakan metode least square loss function. Uji coba dilakukan terhadap 120 citra gigi yang didapat dari beberapa klinik gigi di Jakarta. Hasil klasifikasi dari desain template yang diusulkan mempunyai akurasi 16,6% lebih baik dibandingkan dengan desain template tunggal. Desain template ini diharapkan dapat membantu dalam menentukan klasifikasi bentuk lengkung gigi dari citra model cetakan gigi sehingga dapat membuat diagnosa guna perencanaan perawatan yang tepat.

In this thesis, template design of dental arch classification is accomplished using quadiatic regression. This template design is required to differ 3 types of dental arch, namely: Tapered, Ovoid, and Square. These 3 types of the dental arch has close similarity among them, therefore a more specific template design is needed in order to obtain the better classification result. The parameters of the dental arch template design are the width of intercanine, height of intercanine, and the height of intermolar. The classification based on those 3 variables yields better results than the classification based only single template. The template design is divided into 4 scenarios: (1) the upper jaw & mandible (2) height-width ratio of intercanine, (3) width of intercanine, and (4) ratio of intermolar height - width intercanine. The method used in this template design is quadratic regression method. Meanwhile, the classification of dental arch form uses least square loss fiinction method. An experiment involves 120 dental images obtained from several dental clinic in Jakarta. The classification results using proposed template design yield accuracy 16,6% better than the classification using single template. This template design is supposed to assist the decision process of classification dental arch fonn from the model image of dental mold, so the diagnosis can be obtained for convenient dental treatment."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
T25774
UI - Tesis Open  Universitas Indonesia Library
cover
Edwin Jingga
"Penelitian dalam bidang asuransi masih jarang mempertimbangkan risiko yang akan ditanggung oleh perusahaan reasuransi. Secara teori, tanggungan risiko yang dapat diterima oleh reasuransi tidak terbatas. Tetapi, secara aplikasinya dalam industri asuransi, perusahaan reasuransi selalu menetapkan batas penerimaan risiko. Hal ini bertujuan untuk menghindari beban finansial yang sangat berat bila terjadi loss pada perusahaan asuransi.
Pada skripsi ini, akan dibahas penggunaan metode pengukuran risiko Value-at-Risk VaR dalam penentuan reasuransi optimal. Untuk menganalisis VaR total tanggungan perusahaan asuransi maka akan didapat ceded loss function yang optimal.
Melalui skripsi ini, diperoleh bahwa bentuk stop-loss reinsurance dengan pembatasan selalu merupakan reasuransi yang optimal. Penentuan reasuransi optimal bergantung kepada tingkat kepercayaan, safety loading dan hubungan diantaranya. Dalam skripsi ini akan dicari reasuransi optimal untuk produk Panin Premier Maxilinked berdasarkan data klaim yang ada.

Most researchers in insurance field have not been considering the reinsurer's risk. Theoretically, the quantity of reinsurer's risk is not limited. However, in the real world insurance industry reinsurer always place a limit on coverage, otherwise the reinsurer will be subjected to a heavy financial burden when the insurer suffers a large unexpected covered loss.
In this paper, we revisit the optimal reinsurance problem under VaR risk measures framework when the limitation for reinsurer's risk exposure are presented by a constants. By analyzing the VaR of the insurer's total risk exposure, optimality can be fulfilled and end up in obtaining the expected reinsurance policy.
Through the study, it is shown that the stop loss reinsurance with a policy limit is always the optimal reinsurance policy under VaR risk measures. The optimal quantity of ceded risk depends on the confidence level, the safety loading and the limitation of the constant. By using the Panin Premier Maxilinked product claims data, an optimal reinsurance will be found.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2016
S66618
UI - Skripsi Membership  Universitas Indonesia Library
cover
Larasati Amira
"Dalam menjaga kondisi finansial perusahaan agar tetap stabil, perusahaan asuransi akan menetapkan sebuah batasan atas risiko yang dihadapinya. Sebagai gantinya, perusahaan asuransi akan melakukan pengalihan risiko ke perusahaan reasuransi jika terjadi kerugian yang melebihi batas yang telah ditetapkan. Total risiko asuransi dapat diukur dengan menggunakan alat ukur risiko. Salah satu alat ukur risiko yang paling umum digunakan yaitu Value-at-Risk (VaR) dan Tail Value-at-Risk (TVaR). Dalam skripsi ini akan digunakan alat ukur risiko baru yang mengombinasikan Value-at-Risk (VaR) dan Tail Value-at-Risk (TVaR) yang dinamakan dengan Lambda Value-at-Risk (LVaR). Ukuran risiko LVaR dipilih karena lebih fleksibel digunakan. Ukuran risiko ini menggunakan koefisien bobot yang dapat disesuaikan dengan profil risiko perusahaan asuransi. Sebagai contoh, perusahaan asuransi yang konservatif akan menggunakan koefisien bobot yang lebih besar karena akan memperhitungkan rata-rata kerugian yang jangkauannya lebih luas. Pada praktiknya, perusahaan reasuransi juga memiliki batasan dalam menanggung risiko. Oleh karena itu, besar risiko yang dialihkan ke reasuransi akan mempertimbangkan batasan yang telah ditetapkan oleh reasuransi. Selain itu, besar risiko juga akan dihitung dengan beberapa tingkat kepercayaan yang berbeda dan menggunakan asumsi distribusi tertentu. Studi kasus yang digunakan dalam skripsi ini menggunakan asumsi risiko kerugian distribusi berekor tipis yaitu distribusi Eksponensial dan distribusi berekor tebal yaitu distribusi Pareto. Pada skripsi ini, kontrak reasuransi optimal ditentukan berdasarkan perspektif asuransi dengan meminimumkan total pengeluaran asuransi yang diukur dengan ukuran risiko baru, LVaR, yang besarnya dipengaruhi oleh tingkat kepercayaan, safety loading, batas penerimaan risiko yang dialihkan ke reasuransi, dan koefisien bobot pada ukuran risiko LVaR sedemikian sehingga diperoleh ceded loss function yang optimal.

In order to keep the company’s financial condition stable, the insurance company will set a limit on the risks it faces. In return, the insurance company will transfer the risk to a reinsurance company if there is a loss that exceeds the predetermined limit. Total insurance risk can be measured using risk measurement tools. One of the most commonly used risk measurement tools is Value-at-Risk (VaR) and Tail Value-at-Risk (TVaR). In this thesis, a new risk measurement tool will be used that combines Value-at-Risk (VaR) and Tail Value-at-Risk (TVaR) called Lambda Value-at-Risk (LVaR). The LVaR risk measure was chosen because it is more flexible to use. This risk measure uses weighting coefficients that can be adjusted to the risk profile of the insurance company. For example, a conservative insurance company will use a larger weight coefficient because it will take into account a wider range of average losses. In practice, reinsurance companies also have limits in assuming risks. Therefore, the amount of risk transferred to reinsurance will consider the limits set by the reinsurer. In addition, the amount of risk will also be calculated with several different levels of confidence and using certain distribution assumptions. The case study used in this thesis uses the assumption of a thin-tailed distribution risk of loss, namely the Exponential distribution and a thick-tailed distribution, namely the Pareto distribution. In this thesis, the optimal reinsurance contract is determined based on the insurance perspective by minimizing the total insurance expenditure measured by a new risk measure, LVaR, the amount of which is influenced by the confidence level, safety loading, risk acceptance limit transferred to reinsurance, and the weight coefficient on the LVaR risk measure so as to obtain the optimal ceded loss function."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Christopher Joseph Gunawan
"Reasuransi berperan sebagai stabilisator industri asuransi dan dapat menjadi alat yang efektif untuk mengurangi risiko bagi perusahaan asuransi. Sebuah transaksi reasuransi adalah perjanjian dari dua atau lebih pihak yang terdiri dari perusahaan asuransi atau disebut juga cedent dan perusahaan reasuransi. Penentuan polis reasuransi yang optimal untuk kedua belah pihak sering menjadi permasalahan. Dikarenakan kepentingan dari perusahaan asuransi dan perusahaan reasuransi bertentangan, seringkali polis reasuransi yang menarik untuk satu pihak dianggap merugikan untuk pihak lainnya. Oleh karena itu, penelitian ini mempertimbangkan kepentingan dari perusahaan asuransi dan perusahaan reasuransi secara sekaligus dengan berfokus pada penentuan polis reasuransi stop-loss yang Pareto-optimal. Bentuk reasuransi yang optimal direpresentasikan oleh ceded loss function yang optimal, yaitu fungsi loss dari perusahaan reasuransi. Ukuran risiko yang akan digunakan adalah Value at Risk (VaR). Ceded loss function yang Pareto-optimal didapat dengan mencari nilai parameter retensi yang optimal, yaitu suatu nilai yang meminimalkan kombinasi linier VaR dari total kerugian perusahaan asuransi dan perusahaan reasuransi pada tingkat kepercayaan yang berbeda,di bawah prinsip ekspektasi premi. Berdasarkan data klaim yang diperoleh dari perusahaan Asuransi Jiwa Reliance Indonesia, didapatkan bentuk reasuransi stop-loss yang Pareto-optimal dalam beberapa skenario.

Reinsurance acts as a stabilizer for the insurance industry and can be an effective tool for reducing risk for insurance companies. A reinsurance transaction is an agreement between two or more parties, consisting of an insurance company (also known as the cedent) and a reinsurance company. Determining the optimal reinsurance policy for both parties often presents a challenge. Since the interests of the insurance company and the reinsurance company can be conflicting, a reinsurance policy that is attractive to one party may be detrimental to the other. Therefore, this research considers the interests of both the insurance company and the reinsurance company simultaneously, focusing on determining a Pareto-optimal stop-loss reinsurance policy. The optimal form of reinsurance is represented by the optimal ceded loss function, which is the loss function of the reinsurance company. The risk measure used is Value at Risk (VaR). The Pareto-optimal ceded loss function is obtained by finding the optimal retention parameter, which is a value that minimizes the linear combination of VaR of the total losses for the insurance company and the reinsurance company at different confidence levels, under the premium expectation principle. Based on claim data obtained from Reliance Life Insurance Indonesia, a Pareto-optimal stop-loss reinsurance form is derived in several scenarios."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hana Nurul Izzah Kautsara
"Asuransi konvensional dan asuransi syariah memiliki perbedaan secara konsep yaitu transfer of risk yang bersifat komersial pada asuransi konvensional dan sharing of risk yang bersifat tolong-menolong pada asuransi syariah. Asuransi konvensional yang bersifat komersial memiliki praktik gharar, maisir, dan riba yang tidak sesuai dengan prinsip-prinsip syariah. Sharing of risk pada asuransi syariah bertujuan untuk menghilangkan hal tersebut. Sharing of risk menjadi penyebab adanya dana tabarru’, yaitu dana dari peserta asuransi yang dikelola perusahaan asuransi syariah tetapi bukan milik perusahaan tersebut. Dana tabarru’ perlu dihitung karena digunakan untuk membayar klaim asuransi. Salah satu metode yang dapat digunakan untuk menghitung dana tabarru’ adalah Cost of Insurance (COI) karena kontribusi (disebut premi dalam asuransi konvensional) dihitung ulang setiap tahun untuk mengurangi ketidakpastian. Pada metode COI diperlukan asumsi tingkat investasi, asumsi biaya pengelolaan (ujrah), dan asumsi tingkat mortalitas. Pada skripsi ini digunakan hukum mortalitas Gamma-Gompertz untuk menghitung tingkat mortalitas karena hukum ini mempertimbangkan variabel selain usia yang tidak teramati sehingga dapat menghasilkan estimasi tingkat mortalitas yang lebih akurat. Estimasi parameter untuk hukum mortalitas Gamma-Gompertz dihitung dengan quadratic loss function dan menggunakan data Tabel Mortalitas Indonesia IV (TMI IV). Hasil estimasi parameter digunakan untuk membuat tabel mortalitas baru mendekati nilai pada TMI IV dengan nilai RSE sebesar 0,32200941 untuk populasi laki-laki dan sebesar 0,29098174 untuk populasi perempuan. Tabel mortalitas baru tersebut lalu digunakan untuk menghitung dana tabarru’ dengan metode COI.

Conventional insurance and sharia insurance have conceptual differences, namely transfer of risk which is commercial in nature in conventional insurance and sharing of risk which is mutual in nature in sharia insurance. Commercial conventional insurance causes haram elements to appear in it, namely gharar (uncertainty), maisir (gambling), and riba (interest). Sharing of risk aims to eliminate these haram elements. Sharing of risk is the cause of tabarru' funds, namely funds from insurance participants managed by sharia insurance companies but not owned by the company. Tabarru' funds need to be calculated because they are used to pay insurance claims. One method that is suitable for calculating tabarru' funds is the Cost of Insurance because the contribution (premium in conventional insurance) is recalculated every year to reduce uncertainty. The COI method requires investment level assumptions, management cost assumptions (ujrah), and mortality rate assumptions. The Gamma-Gompertz mortality law will be used to calculate the mortality rate because this law considers unobserved variables other than age so that it can produce a more accurate estimate of the mortality rate. Parameter estimation of Gamma-Gompertz mortality law is calculated using quadratic loss function and data from Indonesian Mortality Table IV (TMI IV). The parameters estimated are used to create a new mortality table which has values close to TMI IV with RSE value of 0.32200941 for males and 0.29098174 for females. Then, the new mortality table is used to calculate tabarru’ fund using COI method."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2   >>