Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 9 dokumen yang sesuai dengan query
cover
Anis Yuli Yasinta
"Model regresi linier berganda adalah model yang dapat digunakan untuk menaksir nilai-nilai suatu variabel terikat berdasarkan lebih dari satu variabel bebas pada data. Metode yang dapat digunakan untuk menaksir model regresi linier berganda adalah maximum likelihood estimator MLE . Namun, MLE memiliki kelemahan, yaitu sensitif terhadap data yang mengandung outlier dan memiliki waktu proses running time yang relative lama. Metode yang digunakan untuk mengatasi kelemahan tersebut adalah metode parallel. Metode parallel adalah metode yang membagi data menjadi beberapa kelompok. Salah satu metode pengelompokan yang sering digunakan untuk mencari banyak atau jumlah cluster adalah k-means clustering.
Pada tugas akhir ini, proses MLE dilakukan pada setiap cluster, sehingga metode ini disebut parallel maximum likelihood estimator. Data yang digunakan pada tugas akhir ini berasal dari bankruptcy data bank32nh . Bank32nh adalah data mengenai antrian pada suatu bank XYZ yang terdiri dari 4500 observasi, 1 variabel terikat, dan 31 variabel bebas. Dari hasil aplikasi data, parallel maximum likelihood estimator memiliki waktu proses running time yang lebih singkat dan nilai mean square error MSE yang lebih kecil.
......Multiple linear regression model can be used to estimate the value between one dependent variable and more than one independent variables on the data. A method that can be used to estimate the parameters of the model is the maximum likelihood estimator MLE. However, MLE has weakness e.i sensitive to the data that contains outlier and has a relatively long running time. To overcome these weaknesses the parallel method is used. In the parallel method, the data is devided into several groups. One of the known clustering methods is "k means clustering".
In this study, the MLE process did on each cluster, so that this method is called the parallel maximum likelihood estimator. The current data used for this research is from bankruptcy data bank32nh . Bank32nh is a dataset about the queue at a XYZ bank which consist of 4500 observations, one dependent variable, and 31 independent variables from experimental results, parallel maximum likelihood estimator the running time is faster and has smaller mean square error MSE."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rinaldi Rustam
"Penelitian tesis ini mencoba menganalisis tingkat efisiensi teknis dari segi biaya bank devisa nasional Indonesia pada periode 1989 -- 1997. Model awal penelitian dikembangkan dari model Bettesse-Coelli yang ditulis kembali oleh Adreas Resti, mengunakan model translog cost function. Metode estimasi yang digunakan adalah metode full information maximum likelihood estimator/ FIMLE.
Metode FIMLE ini jauh lebih baik dari metode informasi terbatas/limited information atau dikenal juga sebagai metode persamaan tunggal, seperti halnya metode OLS, ILS, Two LS, Dsb. Kelebihan metode FIMLE; sensitif dengan adanya kesalahan spesifikasi. Bila ada miss spesifikasi pada persamaan penelitian maka hasil estimasi dengan mengunakan metode ini tidak akan konvergent dan tidak dapat dinalisis. FIMLE merupakan persamaan sistim sehingga metode ini memandang persamaan sebagai suatu kesatuan, bukannya terpisah-pisah secara individu seperti halnya persamaan tunggal.
Kelebihan lain metode FIMLE akan memberikan variance yang paling minimum
dan paling efisien dibanding persamaan tunggal. Sehingga penaksir parameter yang dihasilkan akan memberikan probabilitas signifikan terbesar dibanding mengunakan metode persamaan tunggal lainnya.
Tingkat inefisiensi teknis dari segi biaya didapat melalui dua tahap. Tahap pertama data yang ada diestimasi dengan metode FIMLE, hasil estimasi sebelum dianalisis dilakukan uji klasik, dan diperiksa pemenuhan restriksi biaya. Dari estimasi tahap pertama didapatkan Dari 20 variabel bebas yang diujikan 9 variabel bebas
signifikan mempengaruhi vraibel terikatny yaitu: variabel output fee based income (Iogy3), Biaya Tenaga kerja (logwl), Biaya Modal (logw2), variabel Iogyl *logyl, vari abet logwl *Iogwl,variabel wl*logw2, variabel logyl *logy 2, variabel logyl *logy3, variabel logyl*logy2, dan variabel bebas Ioglogy3*logy3,
Tahap kedua, hasil diatas dikeluarkan nilai residualnya dan dikelompokkan menurut bank. Nilai residual yang telah dikelompokkan kemudian diregesi dengan variabel bebas vektor waktu (0°, t', t2}, Persamaan hasil regresi yang didapat dimasukkan nilai vektor waktu untuk masing-masing tahun sehingga didapatkan "fitted value". Fitted value merupakan skor inefsiensi teknis bank perindividu untuk masing-masing tahun, yang kemudian dapat dicari nilai skor efsiensi teknis pembiayan perbankan secara rata-rata dari tahun 1989 - 1997.
Deegan menerapkan metode pengujian tahap kedua, didapatkan skor inefisiensi teknis bank devisa nasional sebesar 0.177221, bank milik pemerintah 0,142867, dan bank swasta devisa sebesar 0,1881.18. Dui basil empiris tersebut terlihat skor inefisensi perbankan nasioanal adalah rendah, hal «L-aebut sebaliknya berarti tingkat efisiensi teknis dari segi biaya perbankan devisa nasioanal adalah tinggi.
Dari hasil empiris diatas didapatkan tingkat efisiensi teknis dari segi biaya bank pemerintah lebih tinggi dari perbankan milik swasta. Hal tersebut diluar dugaan semula, adapun faktor penyebab diantaranya; masih banyak dana murah disimpan diperbankan pemerintah, karena "captive market" yang dijalankan perbankan pemerintah, dalam hal ini dana BUMN yang disimpan diperbankan pemerintah. Sehingga beban bunga yang harus dibayar perbankan pemerintah menjadi relatif lebih rendah.
Akan tetapi walaupun balas jasa bunga yang tawarkan bank pemerintah relatif rendah namun masyarakat tetap menyimpan dananya di bank pemerintah karena adanya jaminan pemerintah bahwa bank pemerintah tidak akan pernah dibankrutkan. Faktor penyebab lainnya karena besarnya kredit macet yang dihapus bukukan setiap tahunnya.
Hal yang menarik didapatkan dari penelitian empiris ini diantaranya; beberapa bank yang diambil alih pemerintah, bank yang likuidasildibekukan kegiatan usahanya, dalam hal ini diangap tidak efisien dalam operasionalnya, akan tetapi dari segi biaya dari penelitian ini ternyata bank-bank tersebut efisien dengan skor inefsiensi teknis yang rendah, diantaranya; BCA 0,027631 (bank take over) dan bank dilikuidasi diantaranya; BU Servitia 0,044 , BUN 0,0610, Bank Papan 0, 0971, Bank Surya 0,109, BDNI 0,108.
Dari basil empiris diatas berarti pengukuran efisiensi teknis perbankan dari segi biaya total ternyata tidak mampu menjelaskan adanya variasi dalam biaya bank itu sendiri, misalnya tidak mampu menjelaskan adanya pemborosan biaya, besamya biaya kd iena kredit macet, adanya mismanajemen dana, adanya praktek bank dalam bank.
Faktor lain yang diperkirakan penyebab hasil empiris tersebut menjadi berbeda dari yang diharapkan, karena disisi lain kriteria penglikuidasian bank/pengambil alihan bank oleh pemerintah tidaklah konsisten antara suatu periode dengan periude iain. Pada awal penglikuidasian kriterianya adalah; besarnya dana BLBI yang belum dikembalikan, kemudian pemenuhan ketentuan CAR, dsbnya.,
Rata-rata skor inefisiensi teknis 14 bank papan atas sebesar 0,1096945 yang berarti tingat efsiensi teknis dari segi biaya papan atas juga relatif tinggi. Dari penelitian itu juga tingkat inefisiensi perbankan pemerintah papan atas jauh lebih tinggi dibanding perbankan swasta papan atas yakni sebesar 0,142867 sedangkan perbankan swasta papan
atas hanya 0,07652. Rata-rata inefisiensi perbankan swasta nasional papan menengah 0,182041 dan bank papan bawah sebesar 0,197991 Hal tersebut berarti secara rata-rata tingkat efsiensi bank devisa berdasarkan pengelompokkan assetnya juga tinggi. Dari basil empiris diatas juga didapat tingkat efisiesi bank papan atas yang relatif lebih tinggi, hal tersebut diperkirakan terutama karena bank papan atas dapat lebih menekan beban biayanya dengan semakin retaif lebih banyaknya kantor cabang, lebih luasnya daerah cakupan dan relatif tingginya tingkat teknologi perbankan yang diterapkan.
"
Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2001
T20592
UI - Tesis Membership  Universitas Indonesia Library
cover
Poppy Ramadhani
"ABSTRAK
Item response theory atau yang sering disingkat sebagai IRT memberikan estimasi kemampuan peserta yang lebih tepat jika dibandingkan dengan classical test theory. Estimasi yang dihasilkan pada IRT bergantung pada ketepatan model yang digunakan. Pemilihan model IRT dapat dilakukan setelah didapatkan hasil confirmatory factor analysis dengan melihat nilai model fit. Model dengan nilai good fit yang lebih baik akan menjadi model yang
terpilih. Pemilihan model fit dengan langkah ini disebut sebagai pemilihan model melalui data empirik. Pemilihan model dan struktur dapat dibantu dengan melihat nature dari sebuah tes. Seperti pada tes seleksi dengan bentuk pilihan maka model IRT yang tepat digunakan untuk mengestimasi adalah model 3 parameter logistik. Kesalahan dalam memilih struktur dan model IRT terkadang tidak dapat dihindari karena ketidaktahuan peneliti. Diantara estimator yang ada dalam IRT terdapat satu estimator yang dikenal memiliki robust standar error atau dapat menghasilkan standar eror yang kecil jika
digunakan pada model IRT yang tidak tepat. Estimator ini dinamakan maximum likelihood with robust standard errors. Memperkecil standar eror berarti memperkecil ketidakakuratan estimasi yang disebabkan oleh kesalahan pemilihan model. Keakuratan MLR akan disandingkan dengan maximum likelihood estimator dalam mengestimasi. MLE dikenal dengan propertinya yang asimptotik jika digunakan pada sampel besar. Hasil yang didapat
memperlihatkan bahwa MLR dapat menghasilkan akurasi yang lebih baik pada model dengan sampel kecil sedangkan pada sampel besar MLE dan MLR memberikan hasil yang tidak berbeda.

ABSTRACT
Item response theory gives more acurrate estimates of latent trait compared to classical test theory. These estimates are independent to any sample and test. But the result of estimates are depend on which model is used. That is why the selection of model in IRT is very important. The wrong model will cause the estimates inflate or underrated. Before a data can be calculated with IRT model we need to check the appropriate model and structure first. To know what structure will be used we first check the data using confirmatory factor analysis. The result will show which structure fits the data more, is it first order or second order data. To select the IRT model we do a fit of model testing. This is a trial and error step. Usually in fit model testing we propose more than one model to be tested. As not all models can be included for being tested, there are the chance for using a wrong model. Using a wrong structure and model sometimes can not be helped. In IRT there are estimator named maximum likelihood with robust standard error which is specialized to estimate
parameters when the model is wrong. This can be done because of MLR is using Huber Sandwich method as estimator. In this research MLR is being compared to MLE to estimate a second order data which is treated as first order data. The error is being accompanied with IRT model variations (1-PL, 2-PL, and 3-PL) and three samples variations (350, 500, and 2000). As 2 x 3 x 3 combination models, we will have 18 models in result. The results showing that MLR produces smaller standard. But MLE is quite good too when the sample
being used is as big as 2000"
2016
T45841
UI - Tesis Membership  Universitas Indonesia Library
cover
Ferdinand Tori
"

Permasalahan statistik di dunia nyata umum diselesaikan dengan menggunakan generalized linear model. Fleksibilitas model regresi tersebut menjadi nilai tambah yang meningkatkan utilitasnya. Akan tetapi, di tengah penerapan generalized linear model, ditemukan isu terkait estimasi parameter, yakni multikolinearitas. Kondisi multikolinearitas mengindikasikan adanya korelasi antarvariabel penjelas yang berpengaruh terhadap keakuratan koefisien parameter. Keadaan ini menyebabkan maximum likelihood estimator, metode yang sangat umum digunakan pada generalized linear model untuk mencari parameter, memiliki eror dan variansi yang tinggi. Berbagai alternatif estimator telah dibuat untuk mengatasi masalah ini, salah satunya adalah Liu estimator. Metode ini merupakan bentuk modifikasi dari metode yang sudah diciptakan sebelumnya, yakni maximum likelihood estimator. Penelitian ini menelusuri konsep dan metode Liu estimator dalam menentukan suatu parameter dan dibandingkan dengan metode maximum likelihood estimator. Konstruksi gamma regression model, yakni generalized linear model dengan variabel respons yang berdistribusi gamma, digunakan sebagai aplikasi dalam penerapan Liu estimator. Simulasi dalam penelitian ini menggunakan dataset hydrocarbon yang mengukur keefektifan pemulihan polusi yang bersumber dari tangki gas. Dengan menggunakan model regresi gamma dan estimator Liu untuk mengestimasi parameter didapatkan prediksi terhadap jumlah gas hydrocarbon yang keluar.

......Generalized Linear Model, as the name says, is the general version for linear model, one of the method used to solve statistical and actuarial real-life problem, such as regression. In the midst of well-known generalized linear model utilization, researcher found issue related to parameter estimation. Multicolinearity, a condition which occur when there are two or more independent variabel with high correlation, has huge impact to the accuracy of parameter coeficient. This issue makes the maximum likelihood estimator, one of the most common method to estimate the parameter, produces high error and variance. To combat this issue, many other estimator has been proposed by various researcher all around the world, including Liu estimator. Liu estimator is a method that comes from the modification of maximum likelihood estimator. This research will explore the concept and method of Liu estimator for estimating model’s parameter and the difference when we compare it with maximum likelihood estimator. The model built in the research is gamma regression model, which is a generalized linear model with gamma distributed response variable. The application of the research is utilizing the data called hydrocarbon. The end product is the gamma regression model to predict the mass of hydrocarbon which escape to the air with the parameter estimated by Liu estimator method.

"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Filbert Jose Chaivier
"Model Kumaraswamy Autoregressive Moving Average (KARMA) merupakan suatu model runtun waktu yang digunakan untuk data runtun waktu yang terbatas pada interval tertentu (a,b) dan diasumsikan mengikuti distribusi Kumaraswamy. Distribusi Kumaraswamy adalah distribusi yang memiliki dua shape parameter, yaitu dan yang menyebabkan distribusi ini memiliki keanekaragaman bentuk grafik fungsi densitas probabilitas seperti unimodal, fungsi naik, fungsi turun, dan fungsi konstan. Pada praktiknya, distribusi ini sering diaplikasikan pada berbagai bidang seperti bidang hidrologi, kesehatan, ekonomi, dan lain-lain. Model KARMA dibentuk dari regresi Kumaraswamy dengan asumsi error model mengikuti proses ARMA. Pada model KARMA, median variabel respon dihubungkan dengan variabel-variabel prediktor (regresor) menggunakan sebuah fungsi penghubung yang monoton, kontinu, dan dapat diturunkan. Metode estimasi parameter model KARMA adalah Conditional Maximum Likelihood Estimation (CMLE) karena dalam proses estimasi diperlukan distribusi bersyarat dari periode sebelumnya. Model KARMA selanjutnya diaplikasikan pada data tingkat mortalitas bulanan akibat kecelakaan kerja di Rio Grande do Sul, Brazil dari Januari 2000 hingga Desember 2017 karena data tingkat mortalitas merupakan data yang terbatas pada interval (0,1). Model KARMA terbaik untuk data dipilih berdasarkan nilai Akaike’s Information Criterion (AIC) terkecil kemudian dilakukan peramalan untuk enam periode selanjutnya. Pada data tingkat mortalitas bulanan akibat kecelakaan kerja di Rio Grande do Sul, digunakan model terbaik KARMA(3,3) dengan nilai MAPE sebesar 19.0988%.
......The Kumaraswamy Autoregressive Moving Average (KARMA) model is a time-series model used for time-series data that is limited to a certain interval (a,b) and is assumed to follow the Kumaraswamy distribution. The Kumaraswamy distribution is a distribution that has two shape parameters, namely and which causes this distribution to have a diverse of graphic forms of probability density functions such as unimodal, increasing functions, decreasing functions, and constant functions. In practice, this distribution is often applied to various fields such as hydrology, health, economics, and other fields. The KARMA model is formed from Kumaraswamy regression assuming the error model follows the ARMA process. In the KARMA model, the median of response variable is linked to the predictor variables (regressor) using a monotonous, continuous, and derivable connecting function. The method used for parameter estimation in KARMA model is Conditional Maximum Likelihood Estimation (CMLE) because a conditional distribution of previous periods is required in the estimation process. The KARMA model will then be applied to monthly mortality rates due to occupational accidents in Rio Grande do Sul, Brazil from January 2000 to December 2017 data because mortality rate data is bounded to the interval (0.1). The best KARMA model for the data was selected based on Akaike's smallest Information Criterion (AIC) values and then forecasted for the next six periods. In the data on the monthly mortality rate due to work accidents in Rio Grande do Sul, a MAPE value of 19.0988% was obtained."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Affrilia Azani
"Sistem bonus malus adalah salah satu sistem yang ditawarkan oleh perusahaan asuransi kendaraan bermotor dalam penentuan premi berdasarkan sejarah klaim. Sistem bonus malus pada awalnya hanya didasari oleh frekuensi klaim. Namun ini akan tidak adil karena setiap pemegang polis mengalami kerugian yang berbeda-beda. Maka untuk mengatasi hal tersebut penentuan premi sistem bonus malus sebaiknya tidak hanya mempertimbangkan frekuensi klaim tetapi juga severitas klaim. Pada penelitian ini akan dibahas penentuan net premi sistem bonus malus berdasarkan frekuensi klaim dan severitas klaim. Frekuensi klaim menggunakan campuran distribusi Poisson Lindley sedangkan severitas klaim menggunakan campuran distribusi lognormal gamma. Pada penelitian ini juga diasumsikan bahwa frekuensi klaim dan severitas klaim independen. Parameter dari distribusi frekuensi klaim dan severitas klaim diestimasi dengan menggunakan metode maximum likelihood estimator (MLE). Selanjutnya metode Bayesian digunakan untuk penentuan net premi yang dibayarkan pemegang polis yaitu berdasarkan perkalian ekspektasi posterior severitas klaim dan frekuensi klaim. Hasil aplikasi pada data menunjukkan bahwa besar premi yang dibayarkan pemegang polis berbanding lurus dengan severitas klaim dan frekuensi klaim yang artinya semakin besar frekuensi klaim dan semakin besar klaim yang diajukan maka semakin besar pula premi yang dibayarkan.
......The bonus malus system is one of the systems offered by motor vehicle insurance companies in determining premiums based on claim history. The malus bonus system was initially only based on the claim frequency. However, this would be unfair because each policyholder experiences different losses. So to overcome this, the determination of the bonus of the malus bonus system should not only consider the claim frequency but also the claim severity. In this study, we will discuss the determination of the net premium for the bonus malus system based on the claim frequency and the claim severity . The claim frequency use a mixed Poisson Lindley distribution and the claim severity use a mixture of lognormal gamma distribution. In this study, it is also assumed claim frequency and claim severity are independent. The parameters of claim frequency and claim severity are estimated using the maximum likelihood estimator (MLE). Furthermore, the amount of net premium to be paid by policyholders is determined based on he product of the posterior expectation of claim frequency and claim severity. The data application results show that the premium that must be paid by policyholders is directly proportional to the claim frequency and claim severity, which means that the greater the claim frequency and the greater the claim severity submitted, the greater the premium paid."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nazhira Ghaisani
"Distribusi Exponentiated Generalized Burr Type X merupakan distribusi hasil pengembangan dari distribusi Burr Type X berdasarkan kelas distribusi Exponentiated Generalized. Sifat-sifat statistik dan karakteristik distribusi Exponentiated Generalized Burr Type X meliputi fungsi kepadatan peluang, fungsi distribusi kumulatif, fungsi survival, fungsi hazard, momen, momen pusat, fungsi kuantil, \textit{mean}, variansi, koefisien variasi, \textit{skewness}, dan kurtosis dibahas pada skripsi ini. Penaksiran parameter dari distribusi Exponentiated Generalized Burr Type X menggunakan metode Maximum Likelihood Estimator, dilanjutkan dengan metode numerik Gradien Konjugat Fletcher Reeves dan Broyden-Fletcher-Goldfarb-Shanno. Metode Gradien Konjugat Fletcher Reeves dan Broyden-Fletcher-Goldfarb-Shanno dibandingkan dan dipilih metode terbaik untuk mengestimasi parameter distribusi Exponentiated Generalized Burr Type X, dievaluasi dari nilai \textit{mean squared error} terkecil. Sebagai ilustrasi, digunakan data severitas klaim asuransi pengangguran yang dimodelkan dengan distribusi Exponentiated Generalized Burr Type X. Uji Kolmogorov Smirnov digunakan untuk menguji kecocokan model distribusi Exponentiated Generalized Burr Type X dengan data severitas klaim, kriteria AIC dan BIC digunakan untuk memilih distribusi paling cocok dalam memodelkan data severitas klaim.
......The Exponentiated Generalized Burr Type X distribution is a distribution resulting from the development of the Burr Type X distribution based on the Exponentiated Generalized distribution class. Statistical properties and characteristics of the Exponentiated Generalized Burr Type X distribution include probability density function, cumulative distribution function, survival function, hazard function, moment, central moment, quantile function, mean, variance, coefficient of variation, skewness, and kurtosis are discussed in this final project. Estimating the parameters of the Exponentiated Generalized Burr Type X using Maximum Likelihood Estimator method, continued with Conjugate Gradient Fletcher Reeves and Broyden-Fletcher-Goldfarb-Shanno numerical methods. The Fletcher Reeves and Broyden-Fletcher-Goldfarb-Shanno Conjugate Gradient methods were compared and the best method was chosen to estimate the Exponentiated Generalized Burr Type X distribution parameters, evaluated from the smallest mean squared error value. As an illustration, severity claim data of unemployment insurance claims is used which is modeled with the Exponentiated Generalized Burr Type X distribution. The Kolmogorov Smirnov test were used for to test the suitability of the Exponentiated Generalized Burr Type X distribution model with claims severity data, the AIC and BIC criteria were used to select the most suitable distribution in modeling claims severity data."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
cover
Ana Zuliastuti
"Pada skripsi ini dibahas mengenai perluasan dari distribusi Chen distribusi XTG Distribusi XTG merupakan perluasan dari distribusi Chen dengan penambahan scale parameter Distribusi XTG merupakan salah satu distribusi probabilitas yang memiliki fungsi hazard berbentuk bathtub Distribusi XTG diperoleh dengan melakukan transformasi variabel random dengan perkalian skalar yaitu untuk dan dimana Karakteristik dari distribusi XTG yang dibahas adalah pdf fungsi distribusi fungsi survival fungsi hazard momen mean dan variansi Selain itu juga dibahas mengenai estimasi parameter dengan Weibull Probability Paper WPP plot dan maximum likelihood estimator Subkasus dari distribusi XTG adalah distribusi Chen distribusi Exponential Power dan distribusi Weibull Pada akhirnya 2 data mengenai waktu tunggu terjadinya kerusakan pada lampu dan pada suatu perangkat elektronik akan digunakan sebagai ilustrasi.
......XTG distribution is a distribution obtained by extending the Chen distribution which is one of the bathtub hazard shaped distribution It is extended from the Chen distribution by adding the scale parameter In doing this a scalar multiplication ransformation is applied to the random variable i e T=αY for α>0 and Y~Chen (η,β)where η=λα. The caracteristics explained are pdf distribution function survival function hazard rate moment mean and variance Moreover parameter estimation using Weibull Probability Paper WPP plot and maximum likelihood estimator are also presented Subcases of the XTG distribution are the Chen distribution Exponential Power distribution and Weibull distribution Finally two data about failure times for lightbulb and electronic devices are used as illustration. "
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
S46667
UI - Skripsi Membership  Universitas Indonesia Library