Effrida Betzy Stephany
Abstrak :
Analisis regresi linier adalah suatu teknik dalam statistika untuk memodelkan dan menganalisis hubungan linier antara variabel respon dengan variabel regresor. Metode penaksiran parameter regresi yang umum digunakan adalah metode ordinary least square (OLS) yang menghasilkan taksiran yang dinamakan taksiran least square. Dalam analisis regresi linier berganda, masalah yang sering terjadi adalah multikolinieritas. Multikolinieritas membuat penaksiran dengan menggunakan metode OLS menghasilkan taksiran least square yang tidak stabil, sehingga pada skripsi ini akan dibahas metode lain untuk mengatasi permasalahan ini. Metode yang diperkenalkan untuk mengatasi multikolinieritas diantaranya adalah metode GRR yang menghasilkan taksiran generalized ridge. Taksiran ini merupakan taksiran yang bias. Metode ini masih memiliki kekurangan, yaitu bias yang dihasilkan tidak dijamin akan selalu bernilai kecil. Untuk itu, Singh, Chaubey, dan Dwivedi (1986) memperkenalkan metode Jackknife Ridge Regression (JRR) yang menghasilkan taksiran Jackknife Ridge Regression. Taksiran ini akan mereduksi bias yang dihasilkan oleh taksiran generalized ridge sehingga terkait dengan data yang digunakan, nilai mean square error taksiran ini lebih kecil dibanding taksiran generalized ridge maupun taksiran least square.
......
Regression linear analysis is a statistical technique for modeling and investigating the linear relationship between the response variable and regressor variable. Ordinary least square (OLS) method is commonly used to estimate parameters and yields an estimator named least square estimator. Most frequently occurring problem in multiple linear regression analysis is the presence of multicollinearity. Estimation using OLS method in multicolinearity caused an unstable least square estimator, therefore this undergraduate thesis will explain other method which can solve this problem such as GRR method that yields a bias estimator, named generalized ridge estimator. Unfortunately, this method still has a shortcoming because the bias in resulting estimator is not always guaranteed to be small. To solve this problems, Singh, Chaubey, and Dwivedi (1986) introduced Jackknife Ridge Regression (JRR) method that yields Jackknife Ridge Regression estimator. This estimator will reduce the bias of generalized ridge estimator, thus related to the data used, the resulting mean square error value of this estimator is smaller than the two methods.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2014
S57991
UI - Skripsi Membership Universitas Indonesia Library