Ditemukan 30675 dokumen yang sesuai dengan query
Ratna Zafira Hafidzah
"Kecelakaan adalah salah satu risiko yang dapat berakibat fatal pada kendaraan bermotor. Berdasarkan data Kementerian Perhubungan, di Indonesia telah terjadi 103.645 kasus kecelakaan kendaraan bermotor pada 2021. Tingkat kecelakaan kendaraan bermotor berpotensi meningkat setiap tahunnya seiring kenaikan signifikan dari pemilik kendaraan. Selain kecelakaan, ancaman risiko lain, seperti kehilangan, pencurian, dan kebakaran/ledakan mendorong masyarakat membeli asuransi kendaraan bermotor. Asosiasi Asuransi Umum Indonesia (AAUI) menyampaikan kenaikan 345% pembelian asuransi kendaraan bermotor di Indonesia pada tahun 2022. Tren ini menstimulasi penetapan tarif premi asuransi kendaraan bermotor yang kompetitif antar perusahaan asuransi. Perhitungan tarif premi didasarkan atas data historis frekuensi klaim dan severitas klaim. Kedua komponen tersebut bergantung pada faktor-faktor risiko nasabah. Frekuensi klaim dan severitas klaim dimodelkan sebagai variabel respons dalam pemodelan Generalized Linear Model (GLM), dimana faktor-faktor risiko nasabah menjadi variabel prediktor model. Pemodelan frekuensi klaim dan severitas klaim lazim dilakukan secara independen, tetapi tidak jarang ditemukan ketergantungan antar keduanya. Data historis frekuensi klaim dan severitas klaim dalam penelitian ini menunjukkan nilai ketergantungan yang rendah, tetapi signifikan. Oleh karena itu, penelitian ini menganalisis performa dua model GLM dalam perhitungan data frekuensi klaim dan severitas klaim tersebut, yaitu GLM Tweedie dan GLM copula. GLM Tweedie digunakan untuk memodelkan frekuensi klaim dan severitas klaim secara independen, sedangkan GLM copula digunakan untuk memodelkan frekuensi klaim dan severitas klaim secara dependen. Pada pemodelan GLM Tweedie, distribusi frekuensi klaim dan severitas klaim yang digunakan adalah distribusi Tweedie untuk keduanya, sedangkan pada pemodelan GLM copula, distribusi frekuensi klaim yang digunakan adalah distribusi Zero-Truncated Poisson (ZTP) dan distribusi severitas klaim yang digunakan adalah distribusi Gamma. Root Mean Square Error (RMSE) digunakan dalam menganalisis performa model. Semakin kecil nilai RMSE, semakin baik performa model tersebut. Hasil pemodelan data menunjukkan nilai RMSE yang lebih kecil pada model GLM Tweedie untuk frekuensi klaim dan severitas klaim.
Traffic accident is one of the risks that can be fatal to automobile vehicles. Based on data from the Ministry of Transportation, there have been 103,645 cases of automobile vehicle accidents in Indonesia in 2021. The rate of motor vehicle accidents has the potential to increase every year in line with the significant increase in automobile vehicle owners. Apart from traffic accidents, other risk threats, such as loss, theft, and fire/explosion encourage people to buy automobile vehicle insurance. In 2022, Asosiasi Asuransi Umum Indonesia (AAUI) reported a 345% increase in purchases of automobile vehicle insurance in Indonesia. This trend stimulates the setting of competitive automobile vehicle insurance premium rates among insurance companies. Premium rate calculation is based on historical data on claim frequency and claim severity. Both components depend on the customer's risk factors. Claim frequency and claim severity are modeled as response variables in the Generalized Linear Model (GLM) modeling, while customer risk factors are the predictor variables of the model. Modeling of claim frequency and claim severity is usually done independently, but it is not uncommon to find dependencies between both. Historical claim frequency and claim severity data in this study shows a low but significant dependency value. Therefore, this study analyzes the performance of two GLM models in calculating claim frequency and claim severity data, namely GLM Tweedie and GLM copula. The GLM Tweedie is used to model the claim frequency and the claim severity independently, while the GLM copula is used to model the claim frequency and the claim severity dependently. In the GLM Tweedie modeling, the claim frequency and the claim severity is considered Tweedie distributed for both, whereas in the GLM copula modeling, the claim frequency distribution is the Zero-Truncated Poisson (ZTP) distribution and the claim severity distribution is the Gamma distribution. Root Mean Square Error (RMSE) is used in analyzing model performance. A smaller RMSE value indicates better model performance. The results of data modeling show a smaller RMSE value in the GLM Tweedie model for claim frequency and claim severity."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Naifi Naufal
"Setiap individu memiliki risiko kematian yang berbeda. Risiko Kematian untuk setiap individu dipengaruhi oleh beberapa faktor. Faktor risiko yang dapat diamati adalah faktor underwriting. Perbedaan tingkat kematian untuk setiap individu akan memengaruhi premi asuransi jiwa. Untuk membebankan premi secara adil bagi setiap pemegang polis, perusahaan asuransi memerlukan model yang dapat mengukur mortalitas dari faktor underwriting. Dalam penelitian ini, tingkat mortalitas yang dipengaruhi oleh faktor underwriting, dimodelkan dengan menggunakan Generalized Linear Model (GLM) dan menaksir probabilitas kematian. Probabilitas kematian yang didapatkan, digunakan untuk menghitung premi asuransi jiwa. Pemegang polis asuransi jiwa berjangka satu tahun dengan gender yang sama mempunyai premi asuransi yang sama besar. Sedangkan untuk pemegang polis asuransi jiwa dwiguna satu tahun dengan gender yang berbeda mempunyai premi asuransi yang sama besar.
Each individual has a different risk of death. The risk of death for each individual is influenced by several factors. The risk factors that can be observed are underwriting factors. The difference in mortality rates for each individual will affect life insurance premiums. To charge premiums fairly for each policyholder, insurance companies need a model that can measure mortality from underwriting factors. In this study, the mortality rate influenced by underwriting factors was modeled using the Generalized Linear Model (GLM) and estimated the probability of death. The probability of death obtained is used to calculate life insurance premiums. One-year life insurance policyholders with the same gender have the same insurance premium. Whereas for one-year dual-purpose life insurance policyholders with different genders have the same insurance premium."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
T54412
UI - Tesis Membership Universitas Indonesia Library
Beatrice Patricia Pandana
"Perhitungan cadangan klaim merupakan salah satu hal yang penting bagi setiap perusahaan asuransi agar dapat memenuhi kewajibannya untuk menutup kerugian akibat terjadinya loss. Umumnya, prediksi cadangan klaim dilakukan dengan menggunakan metode Chain-Ladder. Tetapi, karena metode ini tidak memerlukan asumsi distribusi, nilai prediksi hanya bergantung pada besar klaim sebelumnya dan besar development factor saja sehingga apabila terdapat outlier pada data sebelumnya maka, hasil prediksi menjadi kurang akurat. Oleh karena itu, pada penulisan tugas akhir ini, diusulkan dua model perhitungan prediksi cadangan klaim dengan pendekatan Generalized Linear Model (GLM). Kedua model tersebut dibedakan berdasarkan distribusi yang akan digunakan yaitu distribusi log normal dan distribusi Over-dispersed Poisson (ODP). Pada Generalized Linear Model ini, variabel dependen yaitu cadangan klaim diasumsikan berdistribusi log normal dan Over-dispersed Poisson (ODP) serta perhitungannya didasarkan pada waktu terjadinya loss (accident year) dan waktu jeda (development year) sebagai variabel eksplanatori. Pada penulisan tugas akhir ini, data yang digunakan adalah incurred but not reported (IBNR) dari laporan Statistical Compilation of Annual Statement Information for Property/Casualty Insurance Companies in 2019 yang kemudian diubah bentuknya menjadi bentuk run-off triangle. Hasil prediksi cadangan klaim kemudian akan dibandingkan menggunakan Mean Squared Error (MSE) dan Mean Absolute Percentage Error (MAPE). Dari nilai MSE dan MAPE yang diperoleh dapat disimpulkan bahwa perhitungan prediksi cadangan klaim menggunakan pendekatan Generalized Linear Model (GLM) dengan distribusi log normal lebih baik daripada dengan distribusi Over-dispersed Poisson. Hal ini dikarenakan nilai MAPE untuk Generalized Linear Model (GLM) dengan distribusi log normal lebih rendah yaitu sebesar 6,22%.
The calculation of claim reserves is one of the important elements in fulfilling each insurance company’s obligation to cover losses. Claim reserves are generally predicted using the Chain-Ladder method. However, the expected value can only be determined by the value of the previous claims and by the development factor, as this method is a non-distribution method. This means that if there are outliers in the previous data, the prediction results will be less accurate. Therefore, in this final paper, claim reserves predictions will be calculated using two models of the Generalized Linear Model (GLM) approach, namely the log normal distribution and the Overdispersed Poisson (ODP) distribution. It is assumed that both distributions predict the value of claims reserve as a dependent variable and the calculations is based on the accident year and the development year as explanatory variables. The Incurred but Not Reported (IBNR) data from “Statistical Compilation of Annual Statement Information for Property/Casualty Insurance Companies” in 2019 will be used in the calculation, which will then be converted into a run-off triangle form. The prediction of claim reserves results will then be compared by Mean Squared Error (MSE) and Mean Absolute Percentage Error (MAPE) and it showed that the Generalized Linear Model with log normal distribution approach is better than the Over-dispersed Poisson approach with the MAPE value is 6,22."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Jonathan Anthony
"Kejadian multivariat adalah kejadian-kejadian yang memiliki tidak hanya satu peristiwa yang mempengaruhi, tetapi bisa lebih banyak peristiwa yang memberi dampak pada peristiwa utamanya. Dampak yang dihasilkan dari suatu kejadian dapat berupa apa saja dan bisa diprediksi. Hal ini menyebabkan perlunya dibentuk sebuah model untuk memprediksi dampak dari sebuah kejadian sehingga dapat diambil keputusan penting berdasarkan kejadian tersebut. Saham merupakan salah satu contoh yang dapat direpresentasikan sebagai kejadian multivariat, seperti harga saham saat penutupan atau closing price, harga maksimal penutupan saham pada periode tertentu, dan durasi waktu (bulanan). Harga penutupan saham dan harga maksimal penutupan saham pada periode tertentu merupakan variabel acak kontinu yang masing-masing diasumsikan berdistribusi eksponensial dan truncated logistic. Durasi waktu (bulanan) merupakan variabel acak diskrit yang diasumsikan berdistribusi geometrik. Untuk mengakomodir kejadian multivariat yang melibatkan ketiga variabel acak tersebut digunakan distribusi trivariat yaitu, distribusi TETLG (Trivariate distribution with Exponential, Truncated Logistic, and Geometric marginals). Selanjutnya, untuk mengetahui pola hubungan antara ketiga variabel acak sebagai vektor respon dengan tiga kovariat yaitu, tingkat pengangguran, tingkat inflasi, dan tingkat obligasi 10 tahun, dikonstruksi sebuah Generalized Linear Model (GLM) untuk kejadian multivariat. Estimasi parameter model GLM kejadian multivariat, dilakukan menggunakan metode Maximum Likelihood. Sebagai implementasi pemodelan harga saham menggunakan GLM kejadian multivariat, diterapkan pada data harga penutupan saham dari Yahoo! Finance untuk periode 2 Januari 1958 hingga 17 April 2020. Berdasarkan uji likelihood ratio, diperoleh hasil bahwa hanya tingkat inflasi dan tingkat pengangguran yang memiliki pengaruh signifikan terhadap pemodelan harga saham.
Multivariate events are events that have not only one influencing event, but there can be more events that have an impact on the main event. The impact resulting from an event can be anything and can be predicted. This causes the need to establish a model to predict the impact of an event so that important decisions can be made based on the incident. Stocks are one example that can be represented as multivariate events, such as the closing price of a stock, the maximum closing price for a given period, the duration of time (monthly). The closing price of shares and the maximum closing price of shares in a certain period are continuous random variables which are assumed to have exponential distribution and truncated logistic respectively. Time duration (months) is a discrete random variable which is assumed to have a geometric distribution. To accommodate multivariate events involving the three random variables, a trivariate distribution is used, namely, the TETLG distribution (Trivariate distribution with Exponential, Truncated Logistic, and Geometric marginals). Furthermore, to determine the pattern of relationship between the three random variables as response vectors with three covariates, which are, the unemployment rates, the inflation rates, and the 10-year bond rates, a Generalized Linear Model (GLM) for multivariate events is constructed. Estimation of GLM model parameters for multivariate events was carried out using the Maximum Likelihood method. As an implementation of stock price modeling using GLM multivariate events, it is applied to closing stock price data from Yahoo! Finance for the period January 2, 1958 to April 17, 2020. Based on the likelihood ratio test, it was found that only the inflation rate and unemployment rate had a significant influence on stock price modelling."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia;Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia;Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia;Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia;Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Triastuti Chandrawati
"Penelitian ini memanfaatkan data Customer Relationship Management berupa data polis dan data nasabah untuk membuat model estimasi probabilitas lapse polis dan membentuk estimasi annualized lapserate. Dari penelitian yang dilakukan, dihasilkan kesimpulan bahwa terdapat faktor-faktor karakteristik nasabah dan karakteristik polis yang secara signifikan mempengaruhi kecenderungan suatu polis untuk lapse. Model probabilitas lapse yang berhasil dibentuk dengan metode yang digunakan dalam penelitian dapat memberikan pandangan yang lebih komprehensif, karena lapse dapat dipandang sebagai fungsi atas karakter polis dan nasabah yang dimiliki suatu perusahaan asuransi. Dengan memanfaatkan hal ini, perusahaan asuransi dapat memahami karakter polis atau nasabah seperti apa yang memilki risiko lebih besar untuk lapse sehingga perusahaan dapat lebih baik menghadapi risiko lapse dengan mengelola portofolio nasabah dan polis yang dimilikinya.
This research aims to utilize Customer Relationship Management data, in the form of policy characteristics and customer characteristics, to estimate policy lapse probability and the annualized lapse rate. This research concludes that there are some customer and policy characteristics that significantly correlate to the lapse tendency of a policy. The lapse probabilistic model that is built under the approach and method as described in the research can now provide the company with a more comprehensive insight on lapse behavior. The research shows that lapse is a function of the characteristics of each policy and each customer. Utilizing this, insurance company can get a better understanding about which customer or which policy that possesses bigger risk to lapse so the company can handle their customer and policy portfolio accordingly in order to manage their lapse risk."
Jakarta: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2017
T-pdf
UI - Tesis Membership Universitas Indonesia Library
Jason Wijaya
"Dalam upaya untuk mengendalikan besarnya kerugian, memodelkan severitas klaim merupakan salah satu cara yang sering dilakukan oleh perusahaan asuransi. Terdapat beberapa cara untuk memodelkan severitas klaim, salah satunya dengan generalized linear model. Akan tetapi fakta sederhana bahwa setiap pemegang polis itu tidak sama sering diabaikan karena hasil yang diperoleh hanya disajikan untuk ârata-rataâ pemegang polis. Potensi variabilitas ini yang tercermin pada data asuransi dapat diidentifikasi dengan mengelompokkan pemegang polis ke dalam kelompok yang berbeda. Sehingga dari perilaku yang berbeda pada masing-masing kelompok memungkinkan perusahaan asuransi mengembangkan strategi untuk mengendalikan besarnya kerugian. Pada praktiknya, model yang sering digunakan untuk pengelompokan adalah model finite mixture, dengan setiap kelompok dimodelkan dengan fungsi kepadatan probabilitasnya (pdf) sendiri. Salah satu keluarga model finite mixture yang fleksibel untuk vektor acak yang terdiri dari variabel respon dan satu set kovariat yang disesuaikan dengan distribusi bersamanya adalah cluster-weighted model (CWM). CWM merupakan kombinasi linear antara distribusi marjinal kovariat dan distribusi bersyarat dari respons yang diberikan kovariat. Distribusi bersyarat pada CWM diasumsikan milik keluarga eksponensial dan kovariatnya diperbolehkan tipe campuran yaitu diskrit dan kontinu (diasumsikan gaussian). Selanjutnya, model dicocokkan ke dalam data (fitting the model) menggunakan Maximum likelihood estimation (MLE) untuk menaksir parameter model dengan algoritma ekspektasi-maksimalisasi (EM). Pemilihan model terbaik dievaluasi dari skor akaike information criterion (AIC) dan bayesian information criterion (BIC). Permasalahan penentuan jumlah cluster diselesaikan secara bersamaan dengan memilih model terbaik. Pada akhirnya, CWM dapat digunakan untuk meningkatkan pemahaman tentang perilaku pemegang polis dan karakteristik risikonya yang dihasilkan di setiap cluster. Penerapan metode ini diilustrasikan pada data asuransi mobil di Prancis.
In an effort to control the amount of loss, modeling the severity of claims is one way that is often done by insurance companies. There are several ways to model claim severity, one of which is a generalized linear model. However, the simple fact that every policyholder is not the same is often overlooked because the results obtained are only presented for the "average" policyholder. This potential for variability reflected in insurance data can be identified by classifying policyholders into different groups. So that the different behavior of each group allows insurance companies to develop strategies to control the amount of losses. In practice, the model often used for grouping is the finite mixture model, with each group being modeled with its own probability density function (pdf). One of the flexible finite mixture model families for random vectors consisting of a response variable and a set of covariates adjusted for their common distribution is the cluster-weighted model (CWM). CWM is a linear combination between the marginal distribution of the covariates and the conditional distribution of the responses given by the covariates. The conditional distribution on CWM is assumed to belong to the exponential family and the covariates are allowed mixed types, namely discrete and continuous (assumed to be gaussian). Next, the model is fitted to the data (fitting the model) using Maximum likelihood estimation (MLE) to estimate the model parameters with the expectation-maximization (EM) algorithm. Selection of the best model was evaluated from the Akaike information criterion (AIC) and Bayesian information criterion (BIC) scores. The problem of determining the number of clusters is solved simultaneously by selecting the best model. In the end, CWM can be used to increase understanding of policyholder behavior and the resulting risk characteristics in each cluster. The application of this method is illustrated in data on auto insurance in France."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Fara Fathia
"Tesis ini bertujuan untuk mengestimasi premi murni terhadap data zero inflated klaim asuransi kecelakaan melalui Generalized Linear Model (GLM). Penelitian ini berfokus pada pemodelan data frekuensi klaim dengan zero inflated melalui regresi Zero Inflated Poisson (ZIP) untuk menjembatani kesenjangan yang ada. Berdasarkan peneltian-penelitian terdahulu, frekuensi klaim kerap diasumsikan berdistribusi Poisson dalam perhitungan premi murni dengan GLM tanpa memperhatikan kehadiran excess zeros. Sedangkan estimasi parameter severity (besar klaim) ditentukan melalui regresi Gamma. Selajutnya premi murni diestimasi dengan melakukan perkalian antara frekuensi dan severity atas asumsi independensi. Data yang digunakan dalam penelitian merupakan data sekunder yang diperoleh dari PT ABC sebagai asuransi kecelakaan kerja. 1000 sample data terdiri dari tahun 2017, meliputi frekuensi klaim dan severity yang merupakan variabel dependen, serta data tertanggung yang diataranya adalah usia, jenis kelamin, kelompok lingkungkan kerja, dan masa aktif polis asuransi (exposure) sebagai variabel independen.
Hasil penelitian menunjukkan bahwa model regresi ZIP sesuai untuk mengestimasi frekuensi klaim pada data zero inflated PT ABC. Model regresi Gamma juga menunjukkan kesesuaian dalam mengestimasi severity data PT ABC. Estimasi premi murni yang dihasilkan menunjukkan bahwa jenis kelamin tidak berpengaruh signifikan terhadap besar premi murni. Usia dan kelompok risiko lingkungan kerja merupakan variabel yang paling signifikan terhadap besar premi murni. Frekuensi klaim kecelakaan kerja tertinggi dimiliki tertanggung dengan usia 18 tahun. Frekuensi klaim menurun seiring pertambahan usia baik pada tertanggung wanita maupun pria, namun kembali meningkat di usia akhir 50 tahun hingga 56 tahun pada tertanggung pria. Besar severity tidak selalu sejalan dengan premi murni sehingga dapat disimpulkan bahwa frekuensi klaim merupakan komponen yang lebih berpengaruh terhadap pergerakan premi murni. Premi murni yang dihasilkan lingkungan kerja dengan risiko rendah lebih besar dari pada lingkungan kerja dengan risiko sedang.
This thesis aims to estimate pure premium towards zero inflated claim data of accident insurance through the Generalized Linear Model (GLM). This study focuses on modeling the claim frequency data with excess zeros through the Zero Inflated Poisson (ZIP) regression to bridge the gap between previous studies where it is generally assumed to be distributed in Poisson. Gamma regression is used to estimate the parameter of severity. Pure premiums are estimated by multiplying the frequency and severity in assumption of independence. The data is obtained from accident insurance company PT ABC. 1000 data samples consist of 2017, including the claim frequency and severity as dependent variable, as well as age, sex, occupational environment, and the active period of the insurance policy (exposure) as independent variables. The results indicate that ZIP regression model is suitable for estimating the claim frequency. The Gamma regression model also shows conformity in estimating the severity. The estimation of pure premiums shows that gender does not have a significant effect on its ammount, while age and occupational environment is the most significant variable. The severity is not always in line with pure premium so it can be concluded that the frequency of claims is a component that has more influence on the movement of pure premiums. Pure premiums produced by a work environment with a low risk are greater than those in a medium-risk work environment. The highest amount of pure premium is on 18 years insureds. Pure premium decline on age, both for the insured women and men, and increased on the end of 50 years to 56 years in the insured man."
Depok: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2019
T-Pdf
UI - Tesis Membership Universitas Indonesia Library
Asmaaul Khusna Ayil Jamiil
"Tujuan mendasar produk asuransi adalah memberikan proteksi atas kerugian yang tidak pasti kapan terjadi dengan membayar premi sebagai pembayaran transfer risiko tersebut. Mengingat semua risiko tidaksama, perusahaan asuransi tidak dapat memberikan premi murni yang sama untuk setiap risiko pemegang polis dalam portofolio asuransi. Metode umum untuk menghitung premi murni adalah dengan hasil perkalian antara ekspektasi dari frekuensi klaim dengan severitas klaim. Metode
Generalized Linear Models dapat digunakan dalam melakukan estimasi dua komponen tersebut dengan mempertimbangkan karakteristik dari pemegang polis. Metode lain yang dapat digunakan dalam penaksiran premi murni adalah
Tweedie Generalized Linear Models. Dimana model
Tweedie dapat mengakomodasi kekurangan pada
Generalized Linear Models, yakni dapat digunakan pada data klaim yang banyak terdapat nilai klaim sebesar nol rupiah. Dengan menggunakan
Tweedie generalized linear models, penaksiran premi murni menjadi lebih efisien karena dapat dilakukan langsung tanpa melakukan estimasi terpisah pada frekuensi dan severitas. Dalam penelitian ini akan ditampilkan komparasi pemodelan dengan menggunakan dua metode tersebut.
The fundamental objective product insurance is to provide financial protection from uncertain risk with premium as transferring the risk. Considering that not all risks are equal, the insurance company should not apply the same premium for all insured risks in portfolio. A commonly method to calculate the pure premium is to multiply the expectation of the claim frequency with the expected cost of claims. Separated- Generalized Linear Models are employed to estimate the two component of pure premium given the characteristic of the policyholders. Another method to estimate the pure premium is Tweedie Generalized Linear Models. Tweedie models can used in the data claims if there are many claims of zero value. Using Tweedie to estimate pure premium more efficient, Tweedie models can estimate pure premium directly without calculate the expectation frequency and severity separated. In this paper, will be practice implementation using these two models."
Depok: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2016
T-pdf
UI - Tesis Membership Universitas Indonesia Library
Alan Novaldi
"Sistem lampu lalu lintas cerdas merupakan sistem yang dapat melakukan pengaturan lampu lalu lintas secara adaptif berdasarkan kondisi kepadatan lalu lintas. Salah satu cara untuk mendapatkan kondisi kepadatan lalu lintas adalah melakukan komputasi penghitungan jumlah kendaraan dari video CCTV yang terpasang pada persimpanan. Pada penelitian ini dilakukan paralelisasi program penghitungan jumlah kendaraan menggunakan modul Multiprocessing pada python untuk mendapatkan data penghitungan kendaraan dari setiap jalan di persimpangan. Selanjutnya utilisasi GPU dilakukan untuk mendapatkan data secara real time dari suatu komputasi berat video processing. Pada penelitian ini, utilisasi GPU dilakukan dengan menggunakan CUDA sebagai platform yang dapat menghubungkan program dengan GPU pada low-level. Pengelolaan utilisasi GPU pada high-level dilakukan menggunakan TensorFlow yang sudah terintegrasi dengan CUDA. Uji coba eksekusi program dilakukan untuk mendapatkan runtime terbaik dari eksekusi program. Komputasi secara paralel menghasilkan runtime eksekusi komputasi 1.6 kali lebih cepat jika dibandingkan dengan komputasi secara sekuensial. Pada tingkat utilisasi GPU yang lebih optimal, runtime eksekusi komputasi dapat ditingkatkan hingga 2 kali lebih cepat dari komputasi normal. Utilisasi GPU juga terbukti meningkatkan runtime eksekusi program karena komputasi utama video processing tidak lagi dijalankan menggunakan CPU. Hasil uji eksekusi komputasi digunakan untuk membuat visualisasi data penghitung jumlah kendaraan. Visualisasi ini dilakukan agar data yang penghitungan dapat diproses lebih lanjut untuk sistem pengatur lampu lalu lintas. Pada akhir penelitian dilakukan profiling performa GPU menggunakan Nvprof dan NVIDIA Visual Profiler sebagai tools yang disediakan oleh CUDA. Hasil profiling menunjukkan analisis yang menyatakan bahwa tingkat penggunaan GPU untuk komputasi masih belum secara maksimal dilakukan. Hal ini terbukti dari rendahnya angka compute utilization, average throughput dan kernel concurency dari eksekusi program. Sehingga diperlukan adanya optimisasi program penghitungan kendaraan agar utilisasi GPU lebih optimal.
Traffic light intelligence system is an adaptive system which able to control traffic flow on road intersection based on traffic condition. Traffic density information can be obtained from vehicle counting computation using deep learning methodology on CCTV record video data of a road intersection. This study performed parallelization of the vehicle counting computation using the Multiprocessing module in python to get the number of vehicles approaching the intersection. GPU Utilization is performed to obtain vehicle counting data in real time from a heavy computation like video-processing. GPU utilization is carried out using CUDA as a platform that can connect programs with GPUs at low-level architecture. GPU utilization management at high-level is done using TensorFlow which has been integrated with CUDA. Some experiments are performed to get the best runtime from program execution. Parallel computation produces runtime execution 0.6 times faster compared to sequential computation. On more GPU compute utilization optimization, parallel computation can produce runtime 2 times more compared to normal computation. GPU utilization has also been proven to increase the program execution runtime because the main computational video processing is no longer run on the CPU. The experiment result on vehicle detection used to create data visualization about vehicle counting on a road intersection. Data visualization is done so that the vehicle data can be further processed for the traffic light control system. At the end of the study GPU performance profiling was done using Nvprof and NVIDIA Visual Profiler as tools provided by CUDA. Profiling results show that analysis states that the level of GPU usage for computing is still not maximally done. This analysis is shown from the low number of compute utilization, average throughput and kernel concurrency of program execution. GPU utilization need to be optimized in order the program can run optimally on GPU."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Herwindo Patiunus Munawar
"Indonesia merupakan pasar sepeda motor no. 3 didunia setelah China dan Amerika. Pertumbuhan kendaraan roda dua bermesin atau lebih dikenal dengan sepeda motor di Indonesia menunjukkan grafik menanjak setiap tahunnya. Tercatat kenaikan penjualan pertahunnya 1 juta unit sejak tahun 2000 sampai dengan 2005. Tingginya angka penjualan produk kendaraan bermotor juga berimbas pada tingginya angka kecelakaan. Tercatat kenaikan angka kecelakaan sebesar 1000 pertahunnya dan itu terjadi di Jakarta. Untuk meminimalisir angka kecelakaan yang ada penulis berkeinginan untuk mengadakan sebuah penelitian dengan menggunakan bantuan metoda Quality function Deployment atau QFD, Adapun cara yang dipakai untuk meminimalisir aspek kecelakaan adalah dengan menjabarkan stabilitas dinamik yang dimiliki sepeda motor tersebut dengan menggunakan rumus-rumus yang berkaitan dengan perhitungan stabilitas sebagai acuan untuk mendapatkan keinginan pelanggan. Hasil dari penjabaran rumus yang berkaitan dengan stabilitas dinamik tersebut nantinya di jadikan acuan dalam pengujian dengan menyertakan para responden dan dilakukan survey untuk mendapatkan hasil perhitungan. Hasil perhitungan dari seluruh survey yang diadakan tersebut nanti nya akan digunakan dalam pengisian House of Quality, sehingga hasil yang dicapai adalah perlu ditingkatkan kapasitas dari silinder motor tersebut, dan juga pengembangan Shocbreaker yang lebih baik sehingga dapat meminimalisir angka kecelakaan pada masa yang akan datang.
Indonesia's motorcycle market leading is no. 3 world ranking data after China and the United States. The growth of motorcycle sales in Indonesia are shows increase on graph each year. The increase of sales is 1 million units peryear since 2000 until 2005. The high number of motorcycle sales also effect on the high number of accidents. For in case, in Jakarta, there are more than 1.000 accidents occur each year. This paper describes the way that is used to minimize the accident trough defining the dynamic stability of the motorcycle using some equation which is related with the topic as a reference for the customer desires. Results From the explanation of dynamic calculations will create in the future as an anchor reference and it will tested with survey include the respondents to obtain the calculation results. The result of the calculation of the entire survey, which was held used to fill the House of Quality. The result from the whole suvey is to achived better condition that it will be used to fulfill the House Of Quality. Which mean position and shape of the saddle on the motorcycle must be enhanced and also the shocbeaker in order to reduce the accident that will be happen on next future."
Depok: Fakultas Teknik Universitas Indonesia, 2009
T26354
UI - Tesis Open Universitas Indonesia Library