Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 7 dokumen yang sesuai dengan query
cover
Syamsu Rizal
Abstrak :
Sebagaimana diketahui bahwa peranan industri manufaktur sebagai lokomotif pertumbuhan ekonomi Indonesia,baru menunjukkan hasilnya menjelang berakhirnya PELITA III. Namun demikian, karena struktur produksi manufaktur saat itu sangat rentan terhadap external shock, maka kontribusinya bagi peningkatan pertumbuhan ekonomi cenderung menurun. Kemudian pada saat memasuki PELITA IV, sejalan dengan diimplementasikannya kebijaksanaan deregulasi. (reformasi) ekonomi, laju pertumbuhan sektor industri manufaktur meningkat pesat dan share-nya dalam GDP juga semakin membesar. Menjelang berakhirnya PELITA V, pertumbuhan ekonomi Indonesia yang dibela ekspor sempat terganggu, dengan melemahnya ekspor komoditi non migas andalan. Banyak faktor yang menyebabkan merosotnya ekspor komoditi tersebut, salah satunya adalah tingkat daya saing, yang dimanifestasikan dalam ukuran efisiensi produktif. Oleh karena itu, penyelidikan dalam thesis ini mencoba untuk menganalisis perubahan kinerja spesifik (efisiensi produktif) industri manufaktur sehubungan dengan diimplementasikannya kebijaksanaan deregulasi selama periode tahun 1984-94, dan agar dapat dibandingkan dengan keadaan selama periode pra deregulasi, maka rentang analisisnya dipilih dari tahun 1981-94. Penelitian empiris yang khusus memfokuskan pengaruh deregulasi terhadap kinerja spesifik industri manufaktur Indonesia, belum banyak dilakukan, diantaranya yang paling menonjol adalah penelitian Miranda S. Goeltom (1992}. Salah satu hasil penelitiannya mengungkapkan bahwa reformasi ekonomi berdampak positif terhadap kinerja spesifik perusahaan manufaktur, baik perusahaan kecil, konglomerat, maupun perusahaan berorientasi ekspor. Sementara penelitiannya Rinaldi (1994) mengungkapkan bahwa reformasi ekonomi berpengaruh terhadap kinerja spesifik industri manufaktur Indonesia. Sedangkan penelitian empiris lainnya hanya menganalisis hasil estimasi efisiensi teknis industri manufaktur Indonesia, sebagaimana dilakukan Pitt and Lee (1982} den Hill and Kalirajan (1991). Meskipun beberapa penyelidikan terdahulu menunjukkan adanya pengaruh positif reformasi ekonomi terhadap perbaikan efisiensi teknis, tetapi belum diungkapkan pola perubahan efisiensi produktif industri manufaktur Indonesia selama diimplementasikannya kebijaksanaan dereguiasi. Untuk itu, penyelidikan dalam thesis ini akan menganalisis hal tersebut, dengan cara mendekomposisi efisiensi produktif menjasi efisiensi teknis, alokatif, dan skala, sebagaimana telah dilakukan Yong and Kalirajan (1995) dalam menyelidiki pola perubahan efisiensi produktif industri besi dan baja China, tetapi dalam thesis ini akan digunakan data panel. Ada dua pendekatan untuk mengestimasi efisiensi produktif, pertama menggunakan panel data analysis dengan composed error model, dimana disturbance error didekomposisi menjadi tiga variat unobservable, sebagaimana dilakukan Miranda S. Goeltom (1992), Cornwell, Schmidt, and Sickles (1990), Hsiao (1986), Schmidt and Sickles (1984), dan Hausman and Taylor (1981). Kedua, menggunakan stochastic frontier model, dalam hal ini distrurbance error didekomposisi menjadi one-sided error yang menampung firm-specific effects dan two-sided error yang menampung random noise. Aplikasi model stochastic frontier tersebut dalam estimasi efisiensi produktif telah berkembang luas, sejak pertama kali Farrel (1957) mengusulkannya. Dalam thesis ini, untuk mengestimasi efisiensi produktif diaplikasikan model stochastic frontier production function, dengan one-sided error diasumsikan berdistribusi half-normal (Aigner et al, 1977; Stevenson, 1980; Pitt and Lee, 1981, Jondrow et al, 1982, Kalirajan and Tse, 1989; Hill and Kalirajan, 1991; Yong and Kalirajan, 1995), dan berdistribusi eksponensial (Meeusen. and van den Smack, 1977; Aigner et al, 1977; Jondrow et al, 1982). Sedangfungsi praduksinya merupakan fungsi produksi translog dan Cobb-Douglas, dengan variabel tidak babas gross value added dan variabel bebas terdiri dari input modal kerja, modal investasi, dan jumlah tenaga kerja. Karena data yang dianalisis merupakan data panel, maka efisiensi teknis diestimasi dengan menggunakan formulasi sebagaimana diusulkan Battese and Coelli (1988), Kalirajan and Tse (1989), Hill and Kalirajan (1991) dan Yong and Kalirajan (1995), sedangkan estimasi efisiensi alokatif dan skala menggunakan formulasi yang diusulkan Khumbakar et al (1989) den Yong and Kalirajan (1995). Proses estimasi diawali dengan analisis data panel untuk mengestimasi parameter fungsi produksi translog, yang menunjukkan bahwa fixed effect model signifikan. Karena nilai estimasi koefisien model empiris fungsi produksi tersebut hampir semuanya negatif, maka pengujian model estimasi selanjutnya gagal, sehingga model estimasi empiris fungsi produksi translog didrop. Kemudian analiais data panel dilanjutkan dengan mengestimasi parameter fungsi produksi Cobb-Douglas, yang hasilnya menunjukkan bahwa fixed effect model signifikan. Melalui pengujian kesamaan elastisitas produksi dan restrikai CBTS, diperoleh hasil bahwa model empiric fungsi produksi Cobb-Douglas signifikan memiliki elastisitas sama dengan satu, dan nilai estimasi elastisitas pada periode pra deregulasi dan periode deregulasi berbeda signifikan. Sedangkan perubahan elastisitas produksi selama periode deregulasi, untuk input modal kerja dan modal investasi menunjukkan pola semakin meningkat, sedangkan input tenaga kerja semakin menurun. Oleh karena asumsi elastisitas sama dengan satu terpenuhi, maka estimasi parameter model stochastic frontier fungsi produksi Cobb-Douglas dapat dilakukan. Dalam hal ini, motode MLE digunakan untuk mengestimasi parameter model stochastic frontier tersebut, yang nilai estimasinya merupakan hasil iterasi dari pendekatan Davidon-Fletcher-Powell dengan starting value ODS estimates bersangkutan. Hasil estimasi parameter model stochastic frontier tersebut menunjukkan bahwa selama periode pra deregulasi, komponen error yang dipengaruhi faktor internal secara signifikan lebih besar daripada komponen error yang barsifat acak, sedangkan selama periode deregulasi secara tidak signifikan komponen error yang bersifat acak lebih basar daripada yang dipengaruhi faktor internal. Sehingga, variasi perbedaan gross value added aktual dengan potensialnya, selama periode pra deregulasi, dipengaruhi efisiensi produktif, sedangkan selama periode deregulasi tidak demikian. Dalam arti, kebijaksanaan deregulasi yang diimplementasikan dapat meningkatkan kinerja spesifik industri manufaktur dengan pola yang konsisten dan kontinu. Berdasarkan hasil estimasi parameter model stochastic frontier tersebut, selanjutnya diestimasi ukuran efisiensi produktifnya. Selama periode pra deregulasi, rata-rata efisiensi teknis industri manufaktur berkisar antara 61.78% dan 63.72%, yang pada periode deregulasi meningkat menjadi berkisar antara 81.61% dan 83.02%. Rata-rata efisiensi alokatif untuk kedua periode tersebut, menunjukkan bahwa input modal kerja maupun investasi under-utilized dibandingkan input tenaga kerja. Namun demikian, selama periode deregulasi, rata-rata efisiensi alokatif tenaga kerja dan modal kerja meningkat sebesar 53%, dan rata-rata efisiensi alokatif tenaga kerja dan modal investasi meningkat sebesar 50% dibanding periode pra deregalasi. Sedangkan rata-rata efisiensi skala untuk kedua periode tersebut menunjukkan nilai negatif, yang berarti perusahaan (kelompok) industri dalam menetapkan harga outputnya cenderung melebihi biaya marjinalnya, sehingga cenderung berproduksi lebih rendah dari skala produksi optimumnya. Dalam hal ini, bisa disimpulkan bahwa. kebijaksanann deregulasi dapat meningkatkan efisiensi produktif secara teknis dan alokatif, tetapi tidak secara skala. Dengan kata lain, kebijaksanaan deregulasi yang telah diimplementasiken hanya berpengaruh terhadap mekanisme pasar faktor dan pasar uang semata-mata, tetapi tidak berpengaruh terhadap mekanisme pasar barang. Oleh karena itu, selama periode deregulasi, perubahan efisiensi teknis maupun alokatif menunjukkan pola yang semakin meningkat secara konsisten dan kontinu, sedangkan efisiensi skala menunjukkan pola yang menurun. Kelemahan dari hasil penyelidikan dalam thesis ini terutama bersumber dari data yang dianalisis,karena data tersebut selain sangat agregatif (kelompok industri berkode ISIC tiga digit), juga mengandung random noise cukup besar yang mungkin bersumber dari kesalahan pengukurun, time-lag, peramalan, maupun konsepsualisasi, maka hasil estimasi efisiensi produktif tersebut akan berbias ke atas (up-ward bussed) juga presisinya kurang baik. Agar diperoleh hasil estimasi yang memiliki presisi dan akurasi lebih baik, maka perlu dilakukan penyelidikan lebih lanjut dengan menggunakan data hingga firm-level, den juga agar diperoleh mutu hasil estimasi efisiensi alokatif dan skala yang lebih baik perlu digunakan shadow price untuk input faktor maupun output. Dalam hal ini, shadow price bisa diambil dari harga impor atau international price input faktor maupun output bersangkutan.
Depok: Universitas Indonesia, 1997
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Miniyanti Sandiman
Abstrak :
Di dalam skripsi ini dibahas tentang distribusi normal dan beberapa jenis pengujian model normal, yaitu kertas probabilitas normal, pengujian Chi Kuadrat, pengujian Kolmogorov, pengujian Lilliefors, dan pengujian Shapiro-Wilk. Juga diberikan contoh pengujian model normal dengan menggunakan aplikasi Komputer.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 1985
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Napitupulu, Amos
1988
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Budi Rahayu
Abstrak :
Asumsi-asumsi pada Model Linier Yang Umum {Generalized Linier Model atau disingkat GLM) merupakan perluasan dari asumsi-asumsi pada model linier klasik. Pada tugas akhir ini akan ditunjukkan bahwa parameter ? untuk model linier yang umum yang mempunyai nilai-nilai yang tidak diketahui dapat ditaksir dengan menggunakan prosedur iterative weighted least square. Salah satu contoh model linier yang umum (GLM) yaitu model regresi digunakan terhadap data polusi udara di daerah teluk San Fransisco. Dengan menggunakan data tersebut dapat ditunjukkan sensitifitas model regresi yang ditaksir terhadap asumsi distribusi probabilitas error c yang berbeda (yaitu terhadap distribusi probabilitas Normal dan Gamma). Selain itu dapat ditunjukkan pula mengenai model probabilitas yang cocok untuk menggambarkan data polusi udara tersebut.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 1992
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Darien Jonathan
Abstrak :
ABSTRAK
Distribusi normal adalah salah satu jenis persebaran kelompok data yang didefinisikan berdasarkan rata-rata dan standar deviasi dari sekelompok data, yang dapat digunakan untuk mengelompokkan data berdasarkan posisinya terhadap standar deviasi dari kelompok data tersebut. Learning Vector Quantization adalah salah satu jenis neural network yang bisa mempelajari sendiri masukan yang ia terima kemudian memberi keluaran sesuai dengan masukan tersebut, dengan metode supervised dan competitive learning. Skripsi ini membahas penerapan dan analisis dari kedua sistem tersebut untuk menguji hasil deteksi plagiarisme oleh sistem deteksi plagiarisme berbasis latent semantic analysis, yang berasal dari program Simple-O. Beberapa modifikasi dilakukan untuk meningkatkan akurasi pengujian, antara lain dengan melakukan variasi parameter-parameter dari metode distribusi normal, yakni dengan mengubah batas standar deviasi maupun dengan mengubah koefisien pengali batas nilai pada standar deviasi tertentu, dimana hasilnya adalah standar deviasi maupun koefisien pengalinya berbanding lurus dengan aspek relevansi program (recall) namun tidak pada akurasi (F-Measure). Modifikasi juga dilakukan pada parameter percepatan belajar dari algoritma learning vector quantization, dimana hasilnya adalah parameter percepatan belajar berbanding terbalik dengan relevansi program maupun akurasi. Kemudian variasi dan analisis dilakukan pada tujuh jenis besaran hasil keluaran sistem deteksi plagiarisme berbasis latent semantic analysis, yakni frobenius norm, slice, dan pad, beserta kombinasinya, dimana hasilnya keberadaan frobenius norm diwajibkan untuk melakukan evaluasi kemiripan antara dua teks. Kemudian hasil pengujian menggunakan kedua metode digabungkan menggunakan operasi AND yang memberikan hasil yang beragam, dengan catatan perlunya keseimbangan antara precision dan recall dari masing pengujian yang akan dilakukan operasi AND untuk memberikan hasil yang baik. Dengan menggunakan kombinasi metode dan parameter yang tepat, terdapat peningkatan akurasi sistem dari 35-46% pada penelitian sebelumnya hingga maksimal 65,98%.
ABSTRACT
Normal distribution is a type of data distributions which is defined from the average and standard deviation of the data cluster. It can be used to group datas based on its position from the standard deviation of the data cluster. Learning vector quantization is a type of neural networks that can learn from inputs it gets to give appropriate outputs, with supervised and competitive learning methods. This thesis discusses the implementation and analysis of both methods to verify the plagiarism detection results from detection plagiarism system based on latent semantic analysis, which is based on Simple-O program. Some modifications are made, such as by variating the parameters of normal distribution method, by changing the limits of standard deviation or by changing the factor of the number limit at a particular standard deviation. Both of them appear to be directly proportional to the relevance (recall), but not with accuracy (F-Measure). Modifications are also made at the learning acceleration parameters from the learning vector quantization algorithm, which sees the parameters being inversely proportional to both the relevance and accuracy. Then, variations and analysis are done to seven types of magnitude from the results of the plagiarism detection system, which are frobenius norm, slice, and pad, and their combinations, which suggest that frobenius norm is the most verifiable results, and must be included to be evaluated when text similarity analysis are conducted. Then, verification results using both methods are combined using AND operation which gives diverse results. However, it is needed to have a balance between precision and recall from each verifications to produce good results. With correct combinations of methods and parameters, system accuracy are increased from 35-46% of last research to maximum accuracy of 65,98%.
Fakultas Teknik Universitas Indonesia, 2016
S62578
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fredy Sumasto
Abstrak :
E-waste merupakan salah satu masalah utama di dunia, termasuk Indonesia yang mana memiliki tingkat konsumsi yang tinggi terhadap produk-produk elektronik. E-waste di Indonesia diperkirakan akan semakin meningkat dikarenakan pesatnya perkembangan teknologi dan belum adanya E-waste management yang baik sehingga aliran sampah masih banyak masuk ke sektor informal dan belum dapat dipetakan dengan baik. Untuk dapat memetakan aliran sampah dan jumlah E-waste yang dihasilkan dibutuhkan lifespan dari masing-masing produk elektronik sebagai input. Pada kondisi saat ini, produk-produk elektronik yang telah rusak atau sudah tidak dipakai lagi biasanya tidak langsung dibuang tetapi disimpan dan masuk dalam kategori storage time. Efek dari storage time dapat memperpanjang total lifespan, menurunkan collection rate, dan menurunkan pasokan untuk recycling yang dapat mengganggu sistem E-waste Management. Sehingga model distribusi lifespan untuk mendapatkan persentase sampah yang dihasilkan per tahun dan cara penurunan storage time menjadi kunci penting dalam E-waste Management. Data lifespan didapatkan dari kuesioner survei pada individu dan rumah tangga di Pulau Jawa. Penelitian ini memberikan hasil model distribusi yang better fit terhadap data lifespan dan storage time dan persentase end-of-life per tahun dari produk-produk elektronik di Indonesia dengan penilaian model fit pada Distribusi Normal, Distribusi Lognormal, dan Distribusi Weibull.
E waste is one of the major problems in the world, including Indonesia which has a high level of consumption of electronic products. E waste in Indonesia is expected to increase due to the rapid development of technology and the absence of proper E waste management so that the flow of waste is still a lot of entry into the informal sector and can not be adequately mapped. To be able to map the flow of waste and the amount of E waste generated, lifespan required from each electronic product as an input. In current conditions, defective or outdated electronic products are usually not directly disposed of but stored or fall into a category of storage time. The effects of storage time can extend the total lifespan, decrease the collection rate, and decrease the supply for recycling that can disrupt the E waste Management system. So the lifespan distribution model to get the percentage of waste generated per year and how to decrease storage time becomes an important key to E waste Management. Lifespan data were obtained from survey questionnaires on individuals and households in Java. This study gives a better fit distribution model for lifespan data, and storage time and percentage of annual end of life electronic products in Indonesia with model fit assessment on Normal Distribution, Lognormal Distribution, and Weibull Distribution.
Depok: Universitas Indonesia, 2018
T50273
UI - Tesis Membership  Universitas Indonesia Library
cover
Riyanto Dwihatma Setyawan
Abstrak :
Distribusi normal merupakan salah satu distribusi probabilitas data, yang banyak digunakan dalam berbagai bidang karena sifat ideal yang dimilikinya, yaitu distribusi probabilitas data-datanya terpusat di sekitar mean dan distribusi probabilitas data lainnya tersebar secara merata. Namun ada kasus-kasus tertentu di mana distribusi normal sebaiknya tidak digunakan karena akan menghasilkan analisis yang kurang sesuai, terutama ketika data memiliki kemencengan yang kuat dan mempunyai heavy-tail. Pada tugas akhir ini diperkenalkan distribusi probabilitas yang dapat memfasilitasi kemencengan data, yaitu distribusi skew-normal. Distribusi skew-normal merupakan bentuk perluasan dari distribusi normal dengan memasukkan parameter kemencengan. Tugas akhir ini memberikan penjelasan mengenai karakteristik-karakteristik dari distribusi skew-normal univariat dan perluasannya dengan memasukkan parameter location dan scale, serta distribusi skew-normal secara umum dalam bentuk multivariat. Karakteristik-karakteristik yang dimaksud adalah fungsi kepadatan probabilitas, fungsi distribusi, mean, variansi, fungsi pembangkit momen, dan sifat-sifatnya. ......The normal distribution is one of the probability distribution of data, which are widely used in various fields because of the nature of the ideal, namely the probability distribution of data centers around the distribution of average data and other probability is spread evenly. But there are certain cases where the normal distribution should not be used because it will produce less precise analysis, especially when the data has a strong skewness and heavy-tail. This final project will introduce a probability distribution which can facilitate the skewness of data, i.e skew-normal distribution. The skew-normal distribution is an extend form of normal distribution, allowing a skewness parameter. This final project will give an explanation about the chararteristics of the univariate skew-normal distribution and its extend to the location and scale family, and skew-normal distribution in general in multivariate form. The characteristics are probability density function, distribution function, mean, covariance, variance, moment generating function, and the properties of the distribution.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2011
S740
UI - Skripsi Open  Universitas Indonesia Library