Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 75 dokumen yang sesuai dengan query
cover
Graceilla Puspita Arum
"Data runtun waktu keuangan umum digunakan oleh investor untuk menganalisis pergerakan harga suatu aset investasi. Generalized Autoregressive Conditional Heteroskedasticity (GARCH) adalah model runtun waktu yang biasa digunakan untuk menganalisis data keuangan. GARCH dapat menangkap pengelompokkan volatilitas yang menjadi karakteristik pada data-data keuangan. Pada dunia perekonomian terdapat keterkaitan antara suatu data keuangan dengan data keuangan yang lain. Oleh karena itu dikembangkan model multivariat GARCH (MGARCH) untuk memperlihatkan informasi tentang pergerakan bersama dua variabel atau lebih serta menggambarkan interaksi antardata keuangan yang diteliti. Pada skiripsi ini dibahas versi multivariat dari GARCH, yaitu Baba Engle Kroner dan Kraft (BEKK) GARCH. Pembahasan dimulai dari bagaimana pembentukan struktur varian kovarian bersyarat model BEKK MGARCH, penaksiran parameter, sampai analisis data menggunakan model BEKK MGARCH dengan asumsi error model berdistribusi normal multivariat. Metode yang digunakan untuk mengestimasi parameter adalah metode maximum likelihood. Penurunan analitik pada metode maximum likelihood dibantu dengan sifat yang ada pada quasi maximum likelihood di mana penurunan fungsi likelihood dilakukan dengan menurunkan setiap elemen pada matriks varian kovarian bersyaratnya. Namun estimasi secara analitik tidak dapat digunakan karena persamaan yang non linear, maka digunakan penyelesaian secara numerik menggunakan algoritma quasi-Newton Broyden, Fletcher, Goldfarb, dan Shanno (BFGS). Kemudian model diimplementasikan pada data harian harga penutupan saham BMRI dan BBCA. Hasil analisis menunjukkan bahwa volatilitas saham BMRI dan BBCA tanggal 01 April 2021 sampai dengan 31 Maret 2022 dipengaruhi oleh shock perusahaan sendiri pada masa lampau.

Financial time series data has been widely used by investors to analyze the movement of any asset pricing. Generalized Autoregressive Conditional Heteroskedasticity (GARCH) is a time series model that usually used to analyze financial datas. GARCH can capture the volatility clustering phenomenon found in most financial datas. In the economic world, there is relation between one to another financial data. Hence, GARCH model has been developed into its multivariate version called multivariate GARCH (MGARCH) to capture the information about comovement also the relationship between two or more variables. In this undergraduate thesis, we explain Baba Engle Kroner and Kraft (BEKK) multivariat GARCH, starting from how the structure of variance and covariance developed, parameter estimation, to implementation of BEKK MGARCH model assuming the error model has multivariate normal distribution. Parameter estimation will be done using the maximum likelihood method with property of quasi maximum likelihood. Parameter estimation can not be solved analytically because the likelihood function is non linear, so we used numerically method called quasi-Newton with Broyden, Fletcher, Goldfarb, dan Shanno (BFGS) algorithms. Then, this BEKK MGARCH model will be used to check the volatility spillover between BMRI and BBCA stock return. The analysis in chapter 4 shows that there is no volatility spillover between BMRI and BBCA. The volatility of their return is affected by their own past shock."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dini Rahayu
"Masalah yang sering terjadi dalam penelitian adalah adanya missing value padahal data yang lengkap diperlukan untuk mendapatkan hasil analisis yang menggambarkan populasi. Dalam pengolahan data, missing value sering terjadi pada analisis regresi. Analisis regresi merupakan suatu model prediksi dengan melihat hubungan antara variabel respon dan variabel prediktor. Missing value dalam analisis regresi dapat ditemukan baik pada variabel respon maupun variabel prediktor. Penelitian ini membahas imputasi missing value yang terjadi pada kedua variabel tesebut dengan menggunakan imputasi regresi. Algoritma Expectation Maximization (EM) merupakan metode penaksiran parameter regresi dengan menggunakan metode Maximum Likelihood Estimaton (MLE) pada data yang memiliki missing value. Untuk menyeimbangkan hasil taksiran parameter model regresi untuk setiap variabel, dilakukan proses penyeimbangan (balance process) untuk mendapatkan hasil taksiran parameter yang konvergen. Simulasi taksiran nilai variabel respon dan prediktor yang hilang dilakukan pada berbagai variasi persentase missingness. Metode penaksiran parameter regresi dengan menggunakan algoritma EM, dapat menghasilkan model yang menjelaskan data sebesar 87% hingga terjadi missing sebanyak 60%.

The problem that often occurs in research is the existence of missing values even though complete data is needed to obtain the results of analysis that describe the population. In processing data, missing values often occur in regression analysis. Regression analysis is a prediction model by looking at the relationship between response variables and predictor variables. Missing values in regression analysis can be found in both the response variable and predictor variable. This study discusses the imputation of missing values that occur in both variables using regression imputation. The Expectation Maximization (EM) algorithm is a method of estimating regression parameters using the Maximum Likelihood Estimaton (MLE) method on data that has missing value. To balance the estimated parameters of the regression model for each variable, a balance process is performed to obtain the results of the convergent parameter estimates. The estimated simulation of the value of the response variable and missing predictor was carried out in various variations in the percentage of missingness. The method of estimating regression parameters using the EM algorithm, can produce a model that explains the data by 87% until there is missing as much as 60%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Irmanda Arfiani Mecca
"Skripsi ini membahas tingkat seismisitas, kerapuhan batuan, dan tingkat periode ulang gempa bumi Jawa bagian barat dengan batas koordinat 105º1’11”-106º7’12” Bujur Timur dan 5º7’50”-7º1’11’’ Lintang Selatan. Analisis pengamatan menggunakan data kejadian gempa bumi selama periode 1981-2021, kedalaman h≤300 km, dan magnitudo 𝑀≥2. Metode yang digunakan adalah Magnitude Frequency Relation (MFR) dengan hasil nilai MC sebesar 4.8. Serta metode Maximum Likelihood dengan hasil nilai b sebesar 0.5 - 1.3 dan nilai a sebesar 3.5 – 8.0. Sedangkan nilai periode ulang gempa bumi yang didapatkan berbeda-beda tergantung besaran magnitudo pada wilayah penelitian. Pada gempa bumi dengan magnitudo 𝑀 = 5.0 dan 𝑀 = 5.5, secara berturutturut memiliki kisaran periode ulang gempa sekitar 1-4 tahun dan 2-7 tahun. Beda halnya dengan gempa bumi magnitudo 𝑀 = 6.0 dan 𝑀 = 6.5, memiliki kisaran periode ulang gempa sekitar 4-14 tahun dan 6-16 tahun.

This thesis discusses the level of seismicity, rock fragility, and the rate of return period for West part of the Java’s earthquake with coordinate boundaries of 105º1’11”- 106º7’12” East Longitude and 5º7’50”-7º1’11’’ South Latitude. Observational analysis uses earthquake data for the period 1981-2021, depth h≤300 km, and magnitude 𝑀≥2. The methods are used Magnitude Frequency Relation (MFR) with MC value of 4.8, also the Maximum Likelihood method with the results of a b value of 0.5 - 1.3 and a value of 3.5 – 8.0. While the value of the earthquake return period obtained varies depending on the magnitude of the study area. Earthquakes with a magnitude of 𝑀 = 5.0 and 𝑀 = 5.5, respectively, have an earthquake return period range of about 1-4 years and 2-7 years. Unlike the case with earthquakes of magnitude 𝑀 = 6.0 and 𝑀 = 6.5, they have a return period of around 4-14 years and 6-16 years."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Manurung, Andrew Bony Nabasar
"Data waktu survival adalah data waktu dimana suatu objek pada penelitian bertahan hingga mengalami kejadian yang tertarik untuk diamati. Dalam perkembangan ilmu statistika, telah banyak distribusi yang dikembangkan untuk memodelkan waktu survival. Distribusi-distribusi tersebut pun memiliki beberapa karakteristik yang cocok untuk beberapa tipe objek dan kejadian yang spesifik. Salah satu karakteristik yang dapat ditinjau ialah fungsi hazard di mana fungsi ini memiliki fleksibilitas yang lebih jika dibandingkan dengan kuantitas distribusi yang lainnya, dapat monoton naik, monoton turun, berbentuk bathtub, dan lain sebagainya. Salah satu distribusi yang dianggap memiliki keunggalan dalam memodelkan bentuk hazard ialah distribusi Inverse Lomax. Distribusi ini telah dipakai untuk memodelkan kejadian pada bidang keilmuan tertentu, seperti ekonomi dan geografi. Distribusi ini dianggap unggul karena dapat memodelkan hazard yang berbentuk nonmonoton. Namun, semakin beragamnya fenomena yang terjadi pada kehidupan manusia membuat bidang keilmuan statistika harus mengembangkan distribusi yang dapat lebih fleksibel dalam memodelkan hazard. Untuk menghasilkan bentuk hazard yang lebih fleksibel, sebuah distribusi dapat dimodifikasi dengan distribusi lainnya sehingga membentuk keluarga distribusi, contohnya keluarga distribusi Kumaraswamy Generalized. Keluarga distribusi ini diperkenalkan oleh Cordeiro dkk. Keluarga distribusi Kumaraswamy Generalized berasal dari distribusi Kumaraswamy. Distribusi Kumaraswamy memiliki keunggulan yaitu bentuk fungsi distribusi (CDF) dan fungsi kepadatan probabilitasnya (PDF) memiliki bentuk yang sederhana dan tidak melibatkan fungsi khusus yang rumit. Oleh karena itu, distribusi ini dianggap cocok untuk menjadi ‘alat’ bagi distribusi Inverse Lomax untuk meningkatkan fleksibilitasnya dalam memodelkan hazard. Skripsi ini membahas mengenai pembentukan distribusi Kumaraswamy Generalized Inverse Lomax yang memiliki empat parameter. Selain itu, dibahas pula mengenai penaksiran parameter dari distribusi ini menggunakan metode maximum likelihood. Pada bagian akhir juga diberikan ilustrasi data berupa data waktu survival hingga terjadinya kematian pada pasien penderita kanker tenggorokan berdasarkan penelitian di Northern Carolina, Amerika Serikat. Data tersebut dimodelkan menggunakan distribusi Kumaraswamy Generalized Inverse Lomax dengan distribusi Inverse Lomax sebagai pembanding. Hasil pemodelan menunjukan bahwa distribusi Kumaraswamy Generalized Inverse Lomax merupakan distribusi terbaik dalam memodelkan data waktu tunggu hingga terjadinya kematian pada pasien kanker tenggorokan.

Lifetime data is a type of data that consists of a waiting time until an event occurs. Numerous distributions have been developed to model lifetime data. These distributions also have various characteristics suitable for some specific types of objects and events. One of the characteristics or quantities that is interesting to be studied is the hazard function of a distribution due to this function having more flexibility compared to other quantities of distribution. The hazard function can appear in different forms from monotonically increasing, monotonically decreasing, and bathtub. One of the distributions that is considered to have advantages in modeling the hazard shape is the Inverse Lomax distribution. This distribution has been used in certain scientific fields, such as economics and geography. This distribution has been extended in several ways to address the problem of non-monotone hazard which is often encountered in real life data. However, the increasingly diverse phenomenons that occur in human life make the need for the scientific field of statistics to develop distributions that can be more flexible in modeling hazards. To produce a more flexible form of hazard, a distribution can be extended with other distributions to form a family of distribution, for example the Kumaraswamy Generalized family of distribution. This family of distribution was introduced by Cordeiro et al. The Kumaraswamy Generalized family of distribution was originally developed from the Kumaraswamy distribution. This distribution has a simple form of distribution function (CDF) and probability density function (PDF). It does not involve complicated special functions, such as the beta function. Therefore, this family of distribution is considered suitable to be a 'tool' for the Inverse Lomax distribution to increase its flexibility in modeling hazards. This thesis studies how to generate the Kumaraswamy Generalized Inverse Lomax distribution which has four parameters. Furthermore, it also studies the parameter estimation of this distribution using the maximum likelihood method. At the end of this thesis, data illustrations will also be given in the form of survival time data until the death of head-and-neck cancer patients occurs based on a study conducted in Northern Carolina, USA. The data is modeled using the Kumaraswamy Generalized Inverse Lomax distribution with the Inverse Lomax distribution as a comparison. The modeling results show that the Kumaraswamy Generalized Inverse Lomax distribution is the most suitable distribution for modeling waiting time data until the death of head-and-neck cancer patients occurs."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Poppy Ramadhani
"ABSTRAK
Item response theory atau yang sering disingkat sebagai IRT memberikan estimasi kemampuan peserta yang lebih tepat jika dibandingkan dengan classical test theory. Estimasi yang dihasilkan pada IRT bergantung pada ketepatan model yang digunakan. Pemilihan model IRT dapat dilakukan setelah didapatkan hasil confirmatory factor analysis dengan melihat nilai model fit. Model dengan nilai good fit yang lebih baik akan menjadi model yang
terpilih. Pemilihan model fit dengan langkah ini disebut sebagai pemilihan model melalui data empirik. Pemilihan model dan struktur dapat dibantu dengan melihat nature dari sebuah tes. Seperti pada tes seleksi dengan bentuk pilihan maka model IRT yang tepat digunakan untuk mengestimasi adalah model 3 parameter logistik. Kesalahan dalam memilih struktur dan model IRT terkadang tidak dapat dihindari karena ketidaktahuan peneliti. Diantara estimator yang ada dalam IRT terdapat satu estimator yang dikenal memiliki robust standar error atau dapat menghasilkan standar eror yang kecil jika
digunakan pada model IRT yang tidak tepat. Estimator ini dinamakan maximum likelihood with robust standard errors. Memperkecil standar eror berarti memperkecil ketidakakuratan estimasi yang disebabkan oleh kesalahan pemilihan model. Keakuratan MLR akan disandingkan dengan maximum likelihood estimator dalam mengestimasi. MLE dikenal dengan propertinya yang asimptotik jika digunakan pada sampel besar. Hasil yang didapat
memperlihatkan bahwa MLR dapat menghasilkan akurasi yang lebih baik pada model dengan sampel kecil sedangkan pada sampel besar MLE dan MLR memberikan hasil yang tidak berbeda.

ABSTRACT
Item response theory gives more acurrate estimates of latent trait compared to classical test theory. These estimates are independent to any sample and test. But the result of estimates are depend on which model is used. That is why the selection of model in IRT is very important. The wrong model will cause the estimates inflate or underrated. Before a data can be calculated with IRT model we need to check the appropriate model and structure first. To know what structure will be used we first check the data using confirmatory factor analysis. The result will show which structure fits the data more, is it first order or second order data. To select the IRT model we do a fit of model testing. This is a trial and error step. Usually in fit model testing we propose more than one model to be tested. As not all models can be included for being tested, there are the chance for using a wrong model. Using a wrong structure and model sometimes can not be helped. In IRT there are estimator named maximum likelihood with robust standard error which is specialized to estimate
parameters when the model is wrong. This can be done because of MLR is using Huber Sandwich method as estimator. In this research MLR is being compared to MLE to estimate a second order data which is treated as first order data. The error is being accompanied with IRT model variations (1-PL, 2-PL, and 3-PL) and three samples variations (350, 500, and 2000). As 2 x 3 x 3 combination models, we will have 18 models in result. The results showing that MLR produces smaller standard. But MLE is quite good too when the sample
being used is as big as 2000"
2016
T45841
UI - Tesis Membership  Universitas Indonesia Library
cover
Anis Yuli Yasinta
"Model regresi linier berganda adalah model yang dapat digunakan untuk menaksir nilai-nilai suatu variabel terikat berdasarkan lebih dari satu variabel bebas pada data. Metode yang dapat digunakan untuk menaksir model regresi linier berganda adalah maximum likelihood estimator MLE . Namun, MLE memiliki kelemahan, yaitu sensitif terhadap data yang mengandung outlier dan memiliki waktu proses running time yang relative lama. Metode yang digunakan untuk mengatasi kelemahan tersebut adalah metode parallel. Metode parallel adalah metode yang membagi data menjadi beberapa kelompok. Salah satu metode pengelompokan yang sering digunakan untuk mencari banyak atau jumlah cluster adalah k-means clustering.
Pada tugas akhir ini, proses MLE dilakukan pada setiap cluster, sehingga metode ini disebut parallel maximum likelihood estimator. Data yang digunakan pada tugas akhir ini berasal dari bankruptcy data bank32nh . Bank32nh adalah data mengenai antrian pada suatu bank XYZ yang terdiri dari 4500 observasi, 1 variabel terikat, dan 31 variabel bebas. Dari hasil aplikasi data, parallel maximum likelihood estimator memiliki waktu proses running time yang lebih singkat dan nilai mean square error MSE yang lebih kecil.

Multiple linear regression model can be used to estimate the value between one dependent variable and more than one independent variables on the data. A method that can be used to estimate the parameters of the model is the maximum likelihood estimator MLE. However, MLE has weakness e.i sensitive to the data that contains outlier and has a relatively long running time. To overcome these weaknesses the parallel method is used. In the parallel method, the data is devided into several groups. One of the known clustering methods is "k means clustering".
In this study, the MLE process did on each cluster, so that this method is called the parallel maximum likelihood estimator. The current data used for this research is from bankruptcy data bank32nh . Bank32nh is a dataset about the queue at a XYZ bank which consist of 4500 observations, one dependent variable, and 31 independent variables from experimental results, parallel maximum likelihood estimator the running time is faster and has smaller mean square error MSE.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
cover
Syafi`i
"Penelitian ini bertujuan untuk mengetahui faktor-faktor yang mempengaruhi realisasi kredit, baik dari sisi penawaran maupun permintaan. Data yang digunakan dalam kajian empiris ini merupakan data runtun waktu triwulanan periode 1993:3 sampai dengan 2004:2 atau 44 observasi. Alat analisis yang digunakan adalah maximum likelihood estimation dengan switching regression.
Hasil estirnasi memberikan informasi bahwa seluruh variabel independen yang digunakan memiliki koefisien yang sesuai dengan hipotesis penelitian dan seluruh variabel independen berpengaruh signifikan terhadap penawaran dan permintaan kredit.
Berdasarkan pengujian diketahui bahwa lambatnya pertumbuhan kredit perbankan setelah mengalami penurunan yang cukup tajam pada saat krisis moneter merupakan salah satu faktor yang menyebabkan proses pertumbuhan ekonomi belum dapat kembali pada tingkat sebelum krisis.
Sebelum krisis moneter, terdapat kecenderungan terjadinya ekses permintaan kredit (excess demand equilibria), yaitu realisasi kredit dipengaruhi oleh sisi penawaran. Ekses permintaan kredit ini tarjadi karena kondisi makro ekonomi cukup kondusif sehingga mendorong dunia usaha untuk mengajukan permintaan kredit, yang tidak diimbangi dengan penawaran kredit dalam jumlah yang sebanding. Sementara itu, mulai akhir 1999 s.d tahun 2004 terdapat kecenderungan terjadinya ekses penawaran kredit (excess supply equilibria), yang artinya realisasi kredit dipengaruhi oleh sisi permintaan. Ekses penawaran kredit ini antara lain dikarenakan tingginya suku bunga kredit yang diperhitungkan oleh perbankan dan kondisi nilai tukar yang belum stabil. Selain itu juga diketahui bahwa permintaan kredit lebih sensitif terhadap suku bunga dibandingkan dengan penawaran kredit.
"
Depok: Universitas Indonesia, 2005
T20253
UI - Tesis Membership  Universitas Indonesia Library
cover
Bariqi Abdillah
"ABSTRAK
Pelacakan multi objek merupakan salah satu topik penting pada bidang ilmu komputer yang memiliki banyak aplikasi, diantaranya adalah sebagai sistem pengawasan, navigasi robot, analisis bidang olahraga, autonomous driving car, dan lain-lain. Salah satu permasalahan utama pelacakan multi objek adalah oklusi. Oklusi adalah objek yang tertutupi oleh objek lainnya. Oklusi dapat menyebabkan ID antar objek tertukar. Penelitian ini membahas oklusi pada pelacakan multi objek serta penyelesaiannya dengan Network Flow. Diberikan data deteksi objek-objek pada setiap frame-nya, tugas pelacakan multi objek adalah mengestimasi pergerakan setiap objek kemudian menghubungkan objek-objek hasil estimasi dengan objek-objek pada frame berikutnya yang bersesuaian atau yang lebih dikenal dengan asosiasi data. Pandang setiap objek pada sebuah frame sebagai node, kemudian ada edge yang menghubungkan setiap node pada frame satu dengan frame lainnya, arsitektur seperti ini pada teori graph dikenal dengan Network Flow. Kemudian cari himpunan edge yang memberikan peluang terbesar transisi dari suatu frame ke frame berikutnya, atau pada dunia optimisasi lebih dikenal dengan max-cost network flow. Edge pada kasus ini berisikan informasi seberapa besar peluang suatu node berpindah ke node pada frame setelahnya. Perhitungan peluang berdasarkan jarak posisi dan kemiripan fitur, fitur yang digunakan adalah fitur CNN. Penulis memodelkan max-cost network flow sebagai permasalahan maximum likelihood yang kemudian diselesaikan dengan algoritme Hungarian. Data yang digunakan pada penelitian ini adalah 2DMOT2015. Hasil evaluasi performa menunjukkan sistem yang dibangun memberikan akurasi 20.1% dengan ID yang tertukar sebanyak 3084 dan pemrosesan frame yang cepat, mencapai 215.8 frame/second.

ABSTRACT


Multi object tracking is one of the most important topics of computer science that has many applications, such as surveillance system, navigation robot, sports analysis, autonomous driving car, and others. One of the main problems of multi-object tracking is occlusion. Occlusion is an object that is covered by other objects. Occlusion may cause the ID between objects to be switched. This study discusses occlusion on multi-object tracking and its completion with network flow. Given objects detection on each frame, the task of multi object tracking is to estimate the movement of objects and then connect the estimation objects corresponding to the objects in the next frame or well known as the data association. Notice that each object on a frame as a node, then there is an edge connecting each node on a frame with other frames, this architecture in graph theory is known as network flow. Then find the set of edges that provide the greatest probaility of transition from one frame to the next, or to the optimization problem well known as max-cost network flow. Edge contains information on how probabiltity a node moves to the node in the frame afterwards. This probability calculation is based on position distance and similarity feature between frames, the feature used is CNN feature. We modeled max-cost network flow as the maximum likelihood problem which was then solved with the Hungarian algorithm. The data used in this research is 2DMOT2015. Performance evaluation results show that the system built gives accuracy 20.1% with the ID switch is 3084 and fast computational process on 215.8 frame/second.

"
2018
T52044
UI - Tesis Membership  Universitas Indonesia Library
cover
Ramzy Mohammad
"

Distribusi Generalized Exponential diperkenalkan oleh Rameshwar D. Gupta dan Debasis Kundu pada tahun 2007. Distribusi  Generalized Exponential tersebut merupakan hasil generalized distribusi Exponential. Skripsi ini menjelaskan distribusi  Generalized Exponential Marshall Olkin yang merupakan hasil dari perluasan distribusi Generalized Exponential menggunakan metode Marshall Olkin. Distribusi Generalized Exponential Marshall Olkin lebih fleksibel dari distribusi sebelumnya terutama pada fungsi hazardnya yang memiliki berbagai bentuk baik monoton (naik atau turun) maupun non monoton (bathub atau upside down bathup) sehingga dapat memodelkan data survival dengan lebih baik. Sifat fleksibelitas ini disebabkan karena penambahan parameter baru ke dalam distribusi Generalized Exponential. Selanjutnya dijelaskan beberapa karakteristik dari distribusi Generalized Exponential Marshall Olkin antara lain fungsi kepadatan peluang (fkp), fungsi distribusi kumulatif, fungsi hazard, momen ke-n, mean, dan variansi. Penaksiran parameter dilakukan dengan metode maximum likehood. Pada bagian aplikasi ditunjukkan data survival yang berasal dari data Aarset (1987) berdistribusi Generalized Exponential Marshall Olkin. Selanjutnya distribusi Generalized Exponential Marshall Olkin dibandingkan dengan distribusi Alpha Power Weibull untuk mencari distribusi mana yang lebih cocok dalam memodelkan data Aarset (1987). Dengan menggunakan AIC dan BIC distribusi Generalized Exponential Marshall Olkin lebih cocok dalam memodelkan data Aarset (1987).

 


Generalized Exponential distribution was introduced by Rameshwar D. Gupta and Debasis Kundu in 2007. Generalized Exponential distribution was generated by generalized transformation of the Exponential distribution. This thesis explained the Generalized Exponential Marshall-Olkin distribution which is the result of the expansion of the Generalized Exponential distribution using the Marshall-Olkin method. The Generalized Exponential Marshall-Olkin distribution has a more flexible form than the previous distribution, especially in its hazard function which has various forms that it can represent survival data better. The flexibility characteristic is due to the addition of new parameters to the Generalized Exponential distribution. Futhermore, some characteristics of the Generalized Exponential Marshall-Olkin distribution was explained such as, the probability density function(PDF), cumulative distribution function, survival function, hazard function, moment, mean, and variance. Parameter estimation was conducted by using the maximum likelihood method. In the application section was shown survival data from Aarset data (1987) which distributed Generalized Exponential Marshall-Olkin distribution. Futhermore, Generalized Exponential Marshall-Olkin distribution was compared with Alpha Power Weibull disstribution to decided theprominent distribution in modeling Aarset data (1987). Using AIC and BIC, Generalized Exponential Marshall-Olkin distribution more suitable in modeling Aarset data (1987).

"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8   >>