Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 128206 dokumen yang sesuai dengan query
cover
M. Nuramzan Iftari
"Risk-Based Inspection (RBI) adalah metodologi untuk menentukan risiko pada peralatan sesuai dengan siklus hidupnya untuk mengoptimalkan rencana inspeksi yang membutuhkan penilaian kualitatif atau kuantitatif terhadap probabilitas kegagalan (POF) dan konsekuensi dari kegagalan (COF) yang terkait dengan masing-masing item peralatan, termasuk perpipaan, dalam unit proses tertentu dengan tujuan meningkatkan keselamatan operasional dan kehandalan fasilitas industri. Penelitian ini bertujuan untuk mengetahui prediksi risiko dataset infrastruktur transmisi gas di PT PGN Tbk, analisis perbandingan antara hasil penilaian risiko dengan machine learning dan penilaian RBI secara manual, serta optimalisasi program inspeksi RBI. Tahapan penelitian adalah pengumpulan data, rekayasa fitur, pelatihan model, evaluasi model, peningkatan model, analisis perbandingan, analisis risiko biaya dan optimalisasi program inspeksi. Hasil analisis perbandingan adalah dengan logistic regression (LR) sesuai 89,84%, support vector machine (SVM) sesuai 98,53%, k nearest neighbours (K-NN) sesuai 97,79%, decision tree (DT) sesuai 99,26% dan random forests (RF) sesuai 99,85% yang merupakan algoritma machine learning yang terbaik dengan menggunakan ukuran data test sebesar 10%. Berdasarkan analisis risiko biaya, biaya inspeksi dengan teknik RBI secara manual dan menggunakan machine learning memperoleh pengurangan biaya sebesar 60,83% daripada program inspeksi tidak berbasis risiko. Hasilnya menunjukkan bahwa dengan menggunakan machine learning dapat memprediksi tingkat risiko inspeksi berbasis risiko, mengoptimalkan rencana inspeksi, dan menurunkan biaya inspeksi.

Risk-Based Inspection (RBI) is a methodology for determining risks on equipment in accordance with its life cycle to optimize inspection plan that requires qualitative or quantitative assessment of the probability of failure (POF) and the consequences of failure (COF) associated with each item equipment, including piping, within a certain process unit with the aim of increasing the operational safety and reliability of industrial facilities. This study aims to determine the risk prediction of gas transmission infrastructure dataset at PT PGN Tbk, a comparison analysis between the results of the risk assessment of machine learning and the RBI assessment manually, as well as an optimization of RBI inspection program. Stages of research are data collection, feature engineering, model training, model evaluation, model enhancements, comparison analysis, cost risk analysis and optimization of inspection program. The results of comparison analysis are with logistic regression (LR) match 89.84%, support vector machine (SVM) match 98.53%, k-nearest neighbours (k-NN) match 97.79%, decision tree (DT) match 99.26% and random forests (RF) match 99.85% which is the best machine learning algorithm by using a data test size equal to 10%. Based on cost risk analysis, inspection costs with RBI techniques manually and using machine learning obtain a reduction in costs by 60.83% than inspection program not risk based. The result shows that using machine learning, it could predict the risk level of risk-based inspection, optimize the inspection plan, and lower the inspection cost."
Depok: Fakultas Teknik Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Taufik Aditiyawarman
"Peningkatan keselamatan dan efisiensi dalam industri minyak dan gas bumi di Indonesia masih memerlukan pendekatan yang canggih untuk memelihara sistem perpipaan yang ada. Disertasi ini membahas penerapan metode Risk Based Inspection (RBI) dengan dukungan teknologi machine learning (ML) dan deep learning (DL) untuk mengembangkan model yang mampu mengidentifikasi akar permasalahan dan solusi untuk menanggulangi kegagalan tersebut. Penelitian dilakukan pada sampel ex-spool berdiameter 16’’ melalui pengujian metalografi dan penggunaan algoritma AdaBoost, Random Forests, dan Gradient Boosting. Metode klasifikasi masalah dilakukan berdasarkan prinsip K-Means Clustering dan Gaussian Mixture Model dan penelitian divalidasi menggunakan metode k-fold cross-validation. Model yang dihasilkan mampu mengidentifikasi dan mengklasifikasikan jenis kegagalan ke dalam 3 kelompok sesuai jenis risikonya masing-masing serta memberikan beragam metode pemeliharaan material yang lebih ekonomis. Program artificial intelligence ini diharapkan mampu meningkatkan keselamatan dan keandalan operasi perpipaan minyak dan gas di Indonesia melalui penerapan berbagai metode pemeliharaan pipa di masa depan.

Improving safety and efficiency in the oil and gas industry in Indonesia still requires a sophisticated approach to maintain the existing piping systems. This dissertation discusses the application of the risk-based inspection (RBI) method with the support of machine learning (ML) and deep learning (DL) technology to develop a model that is able to identify the potential root-cause and its solutions to overcome these failures. The research was carried out on a 16'' diameter ex-spool sample through metallographic testing and the use of AdaBoost, Random Forests, and Gradient Boosting algorithms. The problem classification method was carried out based on the principles of K-means clustering and the Gaussian Mixture Model, while the research was validated using the k-fold cross-validation method. The resulting model is able to identify and classify types of failure into three groups according to each type of risk and provides a variety of more economical material maintenance solutions. It is hoped that this artificial intelligence program can support efforts to increase the safety and reliability of oil and gas pipeline operations in Indonesia through the application of various pipeline maintenance methods in the future."
Depok: Fakultas Teknik Universitas Indonesia, 2024
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Dea Amrializzia
"Pipa transmisi adalah cara teraman dan paling efektif untuk mengangkut gas alam dalam jumlah besar dalam jarak jauh. Meskipun transportasi menggunakan pipa adalah yang paling aman, kegagalan pipa transmisi dapat menyebabkan kerusakan, kerugian finansial, dan cedera. Kegagalan pipa perlu diprediksi untuk untuk menentukan prioritas pemeliharaan pipa sebagai salah satu strategi membuat jadwal pemeliharaan prefentif yang tepat sasaran dan efisien agar pipa dapat diperbarui atau direhabilitasi pipa sebelum terjadi kegagalan. Metode yang ditawarkan pada studi ini adalah machine learning, dimana metode merupakan bagian dari insiatif transformasi digital (Hajisadeh, 2019). Model dikembangkan berdasarkan data kegagalan historis dari jaringan pipa transmisi gas darat sekitar 2010-2020 yang dirilis oleh Departemen Transportasi AS dengan karakteristik data yang tidak terstruktur dan kompleks. Proses pembelajaran mesin dapat dibagi menjadi beberapa langkah: pra-pemrosesan data, pelatihan model, pengujian model, pengukuran kinerja, dan prediksi kegagalan. Pengembangan model pada studi ini dilakukan menggunakan dua algoritma yaitu regresi logistik dan random forest. Pola perilaku dari faktor-faktor yang paling berpengaruh adalah usia dan panjang segmen pipa meiliki korelasi positif terhadap kegagalan pipa. Kedalaman pipa, ketebalan, dan diameter pipa memiliki korelasi negatif. Kegagalan pipa paling sering terjadi pada pipa dengan class location 1 dan class location 4, pipa yang ditempatkan di bawah tanah, serta pipa dengan tipe pelapis coal tar. Hasil pengembangan model menggunakan machine learning menunjukan hasil performa model akurasi prediksi 0.949 dan AUC 0.950 untuk model dengan algoritma regresi logistik. Sedangkan akurasi prediksi 0.913 dan AUC 0.916 untuk model dengan algoritma random forest. Berdasrkan hasil uji performa kita dapat menyimpulkan bahwa machine learning adalah metode yang efektif untuk memprediksi kegagalan pipa. Berdasarkan model yang dilatih pada dataset nyata pipa transmisi gas, hasil prediksi pada studi kasus dapat menghindari 29% dari kegagalan pipa pada 2025, 53% kegagalan pipa pada tahun 2030, dan 64% pada tahun 2035.

Transmission pipe is the safest and most effective way to transport large amounts of natural gas over long distances. Although transportation using pipelines is the safest, transmission pipeline failures can cause damage, financial losses, and injuries. Pipeline failures need to be predicted to determine the priority of pipeline maintenance as one of the strategies to create a schedule of maintenance targets that is right on target and efficient so that the pipeline can be rehabilitated before a failure occur. The method offered in this study is machine learning, where the method is part of the digital transformation initiative (Hajisadeh, 2019). The model was developed based on historical failure data from the onshore gas transmission pipeline around 2010-2020 released by the US Department of Transportation with unstructured and complex data characteristics. The machine learning process can be divided into several steps: data pre-processing, model training, model testing, performance measurement, and failure prediction. The development of the model in this study was carried out using two algorithms namely logistic regression and random forest. The correaltion of the factors that most influence the failure of an onshore gas transmission pipeline is the age and length of the pipe segment has a positive correlation with pipe failure. Depth of cover, thickness, and diameter of pipes have a negative correlation with pipe failures. Pipe failures most often occur in pipes with class location 1 and class location 4, undersoil, and pipes with coal tar coating types. The results of the development of the model using machine learning showed the results of the model performance prediction accuracy is 0.949 and AUC is 0.950 for models with logistic regression algorithms. Whereas the accuracy of prediction is 0.913 and AUC is 0.916 for models using the random forest algorithm. Based on the results of performance tests we can conclude that machine learning is an effective method for predicting pipe failures. Based on the model trained on a real dataset of gas transmission pipelines, the prediction results in case studies can avoid 29% of pipe failures in 2025, 53% of pipe failures in 2030, and 64% in 2035. "
Depok: Fakultas Teknik Universitas Indonesia, 2020
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Iryanti Djaja
"Budidaya udang vaname (Litopenaeus vannamei) sangat diminati sehingga permintaan udang ini meningkat setiap tahunnya. Masalah terberat para petambak adalah kegagalan panen yang berakibat kepada keberlangsungan usaha mereka. Perlu adanya usaha perbaikan untuk meningkatkan keberhasilan panen. Penelitian ini bertujuan untuk lebih menggali mengenai penggunaan machine learning dalam prediksi hasil panen dari data kualitas air. Hasil prediksi ini selanjutnya dipakai dan digunakan dalam proses bisnis sehingga dapat meningkatkan produktivitas. Analisis yang digunakan pada penelitian ini adalah analisis kuantitatif dan kualitatif serta perbaikan proses bisnis. Analisis kuantitatif dengan metode big data dan machine learning. Model yang dipakai adalah k-Nearest Neighbor (kNN), Decision Tree (DT) dan Logistic Regression (LR). Analisis kualitatif dilakukan dengan observasi dan interview untuk memperbaiki proses bisnis. Proses bisnis diperbaiki mengikuti BPM Lifecycle dengan memasukan hasil analisis kuantitatif. Dari penelitian ini didapatkan bahwa prediksi machine learning dengan model Decision Tree dari variabel rasio bakteri merugikan dan NH4+ memberikan akurasi tertinggi mencapai 96%. Setelah didapatkan model dan variabel dengan akurasi tertinggi, penelitian ini juga melakukan penerapan ke dalam proses bisnis dengan pendekatan BPM Lifecycle sehingga hasil tersebut dapat diimplementasi dan memberikan hasil yang lebih produktif.

Interest in Vaname shrimp (Litopenaeus vannamei) farming is growing every year. The biggest problem for shrimp farming was the unsuccessful harvest that affected their business sustainability. So, there should be an improvement made to increase the chance of a successful harvest and its productivity. Past research mentioned that vaname shrimp harvest result can be predicted by machine learning approach from water quality data. It gave good accuracy and can be used to have faster decision making. The objective of this research is to deep dive into the utilization of machine learning to predict the successful harvest from water quality data. The predicted result will be utilized in the business process to improve productivity. Analysis that used at this research are quantitative and qualitative with business process improvement. Quantitative analysis used big data methode and machine learning. Models that have been applied are k-Nearest Neighbor (kNN), Decision Tree (DT) dan Logistic Regression (LR). Data that is used for analysis are pH, salinity, NOx, NH4+, and harmful bacteria index. Qualitative analysis was applied by observation and interview with the focus to improve business process. Business processes will be improved using BPM Lifecycle with the utilization of quantitative result. This research showed that prediction machine learning with Decision Tree model from harmful bacteria index and NH4+ giving the best accuracy until 96%. The next step was utilizing the quantitative result at the business process with BPM Lifecycle approach so the result can be implemented and gave more productive result."
Jakarta: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Eria Tri Utamy
"Jaringan optik adalah jaringan telekomunikasi berkapasitas tinggi dengan menggunakan teknologi dan komponen optik. Di Indonesia, CWDM biasanya digunakan pada jaringan optik di daerah urban, hal ini dikarenakan CWDM memiliki bandwidth yang lebar dan sesuai dengan kebutuhan daerah urban yang hanya butuh jarak yang pendek. Machine learning (ML) merupakan salah satu cabang kecerdasan buatan yang sangat cocok untuk menangani masalah kompleks yang sulit dijawab dalam waktu yang wajar. Prediksi Quality of Transmission (QoT) yang akurat sebelum pembentukan koneksi sangat penting untuk penyediaan layanan dan pemanfaatan sumber daya jaringan. Model Coarse Wavelength Division Multiplexing (CWDM) yang digunakan jaringan sesuai dengan standar ITU-T G.694.2 yaitu splitting sebesar 20nm, pada wavelength yang terdaftar pada standar yaitu 1551 nm, 1571 nm, 1591 nm, dan 1611 nm. Pendekatan yang digunakan adalah algoritma jenis linear regression dengan akurasi 82,47%, k-nearest neighbor regression dengan akurasi 77,18%, support vector regression dengan akurasi 83,88%, random forest regression 91,44%, dan deep learning ANN regression dengan akurasi 94,52%. Algoritma machine learning yang paling baik dalam memprediksi kualitas transmisi adalah random forest regressor. Algoritma ini tidak lebih baik dari deep learning yaitu, ANN regression. Namun waktu komputasi pada ANN regression cenderung lebih lama yaitu 12,451 ms sedangkan pada random forest regression hanya 1,9098 ms.

An optical network is a high-capacity telecommunications network using optical technology and components. In Indonesia, CWDM is usually used on optical networks in urban areas, this is because CWDM has a wide bandwidth and is in accordance with the needs of urban areas that only need a short distance. Machine learning (ML) is a branch of artificial intelligence that is very suitable for dealing with complex problems that are difficult to answer in a reasonable time. Accurate Quality of Transmission (QoT) prediction prior to connection establishment is critical for service provision and utilization of network resources. The Coarse Wavelength Division Multiplexing (CWDM) model used by the network complies with the ITU-T G.694.2 standard, which is 20nm splitting, the wavelengths registered in the standard are 1551 nm, 1571 nm, 1591 nm, and 1611 nm. The approach used is a linear regression type algorithm with an accuracy of 82.47%, k-nearest neighbor regression with an accuracy of 77.18%, support vector regression with an accuracy of 83.88%, random forest regression of 91.44%, and ANN deep learning regression. With an accuracy of 94.52%. The best machine learning algorithm for predicting transmission quality is the random forest regressor. This algorithm is no better than deep learning i.e., ANN regression. However, the computational time for ANN regression tends to be longer, namely 12.451 ms, while for random forest regression it is only 1.9098 ms. "
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hakim Amarullah
"Proses training model membutuhkan sumber daya komputasi yang akan terus meningkat seiring dengan bertambahnya jumlah data dan jumlah iterasi yang telah dicapai. Hal ini dapat menimbulkan masalah ketika proses training model dilakukan pada lingkungan komputasi yang berbagi sumber daya seperti pada infrastruktur komputasi berbasis klaster. Masalah yang ditimbulkan terutama terkait dengan efisiensi, konkurensi, dan tingkat utilisasi sumber daya komputasi. Persoalan efisiensi muncul ketika sumber daya komputasi telah tersedia, tetapi belum mencukupi untuk kebutuhan job pada antrian ter- atas. Akibatnya sumber daya komputasi tersebut menganggur. Penggunaan sumber daya tersebut menjadi tidak efisien karena terdapat kemungkinan sumber daya tersebut cukup untuk mengeksekusi job lain pada antrian. Selain itu, pada cluster computing juga mem- butuhkan sistem monitoring untuk mengawasi dan menganalisis penggunaan sumber daya pada klaster. Penelitian ini bertujuan untuk menemukan resource manager yang sesuai untuk digunakan pada klaster komputasi yang memiliki GPU agar dapat meningkatkan efisiensi, implementasi sistem monitoring yang dapat membantu analisis penggunaan sumber daya sekaligus monitoring proses komputasi yang sedang dijalankan pada klaster, dan melayani inference untuk model machine learning. Penelitian dilakukan dengan cara menjalankan eksperimen penggunaan Slurm dan Kubernetes. Hasil yang diperoleh adalah Slurm dapat memenuhi kebutuhan untuk job scheduling dan mengatur penggunaan GPU dan resources lainnya pada klaster dapat digunakan oleh banyak pengguna sekaligus. Sedangkan untuk sistem monitoring, sistem yang dipilih adalah Prometheus, Grafana, dan Open OnDemand. Sementara itu, sistem yang digunakan untuk inference model adalah Flask dan Docker.

The amount of computational power needed for the model training process will keep rising along with the volume of data and the number of successful iterations. When the model training process is conducted in computing environments that share resources, such as on cluster-based computing infrastructure, this might lead to issues. Efficiency, competition, and the level of resource use are the three key issues discussed.Efficiency problems occur when there are already computing resources available, yet they are insufficient to meet the demands of high-level workloads. The power of the machine is subsequently wasted. The utilization of such resources becomes inefficient because it’s possible that they would be adequate to complete other tasks on the front lines. A monitoring system is also necessary for cluster computing in order to track and assess how resources are used on clusters. The project seeks to set up a monitoring system that can assist in analyzing the usage of resources while monitoring the com- puting processes running on the cluster and locate a suitable resource manager to be utilized on a computing cluster that has a GPU in order to increase efficiency, also serve inference model in production. Slurm and Kubernetes experiments were used to conduct the investigation. The findings show that Slurm can handle the demands of job scheduling, manage the utilization of GPUs, and allow for concurrent use of other cluster resources. Prometheus, Grafana, and Open OnDemand are the chosen moni- toring systems. Else, inference model is using Flask and Docker as its system constructor.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Anis Abdul Aziz
"Proses training model membutuhkan sumber daya komputasi yang akan terus meningkat seiring dengan bertambahnya jumlah data dan jumlah iterasi yang telah dicapai. Hal ini dapat menimbulkan masalah ketika proses training model dilakukan pada lingkungan komputasi yang berbagi sumber daya seperti pada infrastruktur komputasi berbasis klaster. Masalah yang ditimbulkan terutama terkait dengan efisiensi, konkurensi, dan tingkat utilisasi sumber daya komputasi. Persoalan efisiensi muncul ketika sumber daya komputasi telah tersedia, tetapi belum mencukupi untuk kebutuhan job pada antrian ter- atas. Akibatnya sumber daya komputasi tersebut menganggur. Penggunaan sumber daya tersebut menjadi tidak efisien karena terdapat kemungkinan sumber daya tersebut cukup untuk mengeksekusi job lain pada antrian. Selain itu, pada cluster computing juga mem- butuhkan sistem monitoring untuk mengawasi dan menganalisis penggunaan sumber daya pada klaster. Penelitian ini bertujuan untuk menemukan resource manager yang sesuai untuk digunakan pada klaster komputasi yang memiliki GPU agar dapat meningkatkan efisiensi, implementasi sistem monitoring yang dapat membantu analisis penggunaan sumber daya sekaligus monitoring proses komputasi yang sedang dijalankan pada klaster, dan melayani inference untuk model machine learning. Penelitian dilakukan dengan cara menjalankan eksperimen penggunaan Slurm dan Kubernetes. Hasil yang diperoleh adalah Slurm dapat memenuhi kebutuhan untuk job scheduling dan mengatur penggunaan GPU dan resources lainnya pada klaster dapat digunakan oleh banyak pengguna sekaligus. Sedangkan untuk sistem monitoring, sistem yang dipilih adalah Prometheus, Grafana, dan Open OnDemand. Sementara itu, sistem yang digunakan untuk inference model adalah Flask dan Docker.

The amount of computational power needed for the model training process will keep rising along with the volume of data and the number of successful iterations. When the model training process is conducted in computing environments that share resources, such as on cluster-based computing infrastructure, this might lead to issues. Efficiency, competition, and the level of resource use are the three key issues discussed.Efficiency problems occur when there are already computing resources available, yet they are insufficient to meet the demands of high-level workloads. The power of the machine is subsequently wasted. The utilization of such resources becomes inefficient because it’s possible that they would be adequate to complete other tasks on the front lines. A monitoring system is also necessary for cluster computing in order to track and assess how resources are used on clusters. The project seeks to set up a monitoring system that can assist in analyzing the usage of resources while monitoring the com- puting processes running on the cluster and locate a suitable resource manager to be utilized on a computing cluster that has a GPU in order to increase efficiency, also serve inference model in production. Slurm and Kubernetes experiments were used to conduct the investigation. The findings show that Slurm can handle the demands of job scheduling, manage the utilization of GPUs, and allow for concurrent use of other cluster resources. Prometheus, Grafana, and Open OnDemand are the chosen moni- toring systems. Else, inference model is using Flask and Docker as its system constructor.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Richie Ghifari
"Rancang campur beton merupakan proses bertahap dan kompleks untuk mencoba menemukan komposisi bahan terbaik guna menghasilkan beton dengan performa terbaik. Kuat tekan beton merupakan sifat terpenting dalam kualitas beton dibandingkan sifat-sifat lain. Dalam proses pembuatannya, banyak variabel terutama jumlah komposisi material penyusun yang dapat memengaruhi kuat tekan beton. Terdapat beberapa metode konvensional dalam memprediksi beton yang terkadang memberikan hasil prediksi lebih atau kurang dari kuat tekan yang ditargetkan. Diperlukan metode yang akurat dalam memprediksi kuat tekan beton agar dapat memberikan keuntungan secara signifikan terhadap penggunaan bahan. Oleh karena itu, penelitian ini menggunakan Deep Neural Network (DNN) sebagai subbidang dari Machine Learning (ML) dan Artificial Intelligence (AI), untuk memprediksi kuat tekan beton berdasarkan komposisi campuran dan properti materialnya. Penelitian ini menghasilkan formula matematika berupa persamaan yang dihasilkan dari model DNN terbaik dengan melihat aspek error model dan grafik model loss. Terdapat total 2048 model yang dianalisis dengan variasi jumlah variabel input (feature) yang berbeda-beda. Model 280 pada kasus 1 dan model 23 pada kasus 5 merupakan model terbaik yang dihasilkan penelitian ini, dengan masing-masing nilai error model 43,8028 dan 5778,5850 untuk Mean Squared Error (MSE) serta 5,0073 dan 59,8225 Maen Absolute Error (MAE).

Concrete mix design is a gradual and complex process of trying to find the best ingredient composition to produce the best performing concrete. The compressive strength of concrete is the most important property in concrete quality compared to other properties. In the manufacturing process, many variables, especially the amount of material composition, can affect the compressive strength of concrete. There are several conventional methods of predicting concrete that sometimes give predictive results more or less than the targeted compressive strength. An accurate method of predicting the compressive strength of concrete is needed in order to significantly benefit the use of materials. Therefore, this research utilizes Deep Neural Network (DNN), a subfield of Machine Learning (ML) and Artificial Intelligence (AI), to predict the compressive strength of concrete based on its mix composition and material properties. This research produces mathematical formulas in the form of equations generated from the best DNN model by looking at the aspects of model error and model loss graphs. There are a total of 2048 models analyzed with different variations in the number of input variables (features). Model 280 in case 1 and model 23 in case 5 are the best models produced by this study, with model error values of 43.8028 and 5778.5850 for Mean Squared Error (MSE) and 5.0073 and 59.8225 Maen Absolute Error (MAE), respectively.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Daffa Reyhando Imama
"Pembangunan Ibu Kota Negara yang terletak di Kalimantan Timur menjadi proyek besar pemerintah dengan anggaran biaya Rp 466 Triliun. Untuk menjamin efisiensi biaya konstruksi dari proyek ini, diperlukan pendekatan estimasi biaya yang baik. Namun estimasi biaya dalam konstruksi di Indonesia saat ini masih didominasi metode konvensional yang masih memiliki kekurangan dalam hal akurasi maupun waktu pemantauan. Oleh karena itu, penelitian ini dilakukan dengan tujuan untuk mengembangkan model machine learning untuk memprediksi estimate at completion biaya konstruksi sebagai alternatif dari metode konvensional. Penelitian ini dilakukan dengan metode analisis studi literatur dan benchmarking dari penelitian yang telah ada untuk menjalankan simulasi model menggunakan perangkat lunak RapidMiner yang kemudian akan divalidasi oleh narasumber pakar melalui wawancara. Diperoleh hasil bahwa model terbaik didapat menggunakan algoritma neural network. Dari simulasi model tersebut dengan menggunakan data dari salah satu proyek pembangunan jalan raya di Ibu Kota Negara, didapat hasil output berupa prediksi penghematan sebesar 17,8% dari nilai budget at completion proyek. Hasil dari prediksi model tersebut menghasilkan output yang lebih konservatif apabila diperbandingkan dengan metode konvension menggunakan formula estimate at completion biaya.

The development of the National Capital City located in East Kalimantan has become a major government project with a budget of IDR 466 trillion. To ensure cost efficiency in the construction of this project, a good cost estimation approach is required. However, cost estimation in construction in Indonesia is currently dominated by conventional methods that still have shortcomings in terms of accuracy and monitoring time. Therefore, this research is conducted with the aim of developing a machine learning model to predict the estimate at completion of construction costs as an alternative to conventional methods. The research is carried out through the analysis of literature studies and benchmarking from existing research to execute a simulation model using the RapidMiner software, which will then be validated by expert informants through interviews. The results indicate that the best model is obtained by using neural network algorithm. From the simulation model using data from one of the road construction projects in the National Capital City, the output shows a predicted savings of 17.8% from the project’s budget at completion value. This model prediction produce a more conservative result than conventional methods of estimating costs at completion."
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Kinanthy Dwi Pangesty
"Manajemen rumah sakit yang baik dapat meningkatkan kualitas pelayanan medis. Rumah sakit merupakan institusi pelayanan kesehatan yang menyelenggarakan pelayanan kesehatan perorangan secara paripurna yang menyediakan pelayanan rawat inap, rawat jalan, dan gawat darurat. Rumah sakit diharuskan untuk mengelola berbagai jenis sumber daya untuk meningkatkan efisiensi manajemen secara keseluruhan, seperti mengelola jadwal tim dan staf medis, manajemen tempat tidur, dan jalur perawatan. Penyakit jantung merupakan penyakit penyebab kematian tertinggi di dunia yang sangat membutuhkan penanganan medis dengan segera. Penyakit jantung membutuhkan salah satu pelayanan pada rumah sakit yaitu pelayanan rawat inap. Pelayanan rawat inap melibatkan sumber daya yang berkaitan dengan biaya dan waktu. Dengan adanya prediksi durasi rawat inap pada pasien penyakit jantung akan membantu pihak pasien dalam menyiapkan kebutuhan yang diperlukan serta pihak rumah sakit dalam manajemen tempat tidur rawat inap pasien penyakit jantung. Pada penelitian ini, dilakukan prediksi durasi rawat inap pasien penyakit jantung dengan menggunakan pendekatan ensemble machine learning dengan tujuan untuk mendapatkan metode terbaik dalam memprediksi dengan membandingkan dua metode ensemble machine learning yaitu random forest dan extreme gradient boosting, serta metode logistic regression sebagai baseline. Kemudian tujuan lainnya yaitu untuk mengetahui faktor yang paling berpengaruh terhadap durasi rawat inap. Ketiga metode yang digunakan merupakan bagian dari supervised machine learning. Selain itu, dilakukan optimasi hyperparameter untuk meningkatkan performa dari hasil model prediksi. Setelah membuat model prediksi dan melakukan evaluasi terhadap model, didapatkan metode terbaik yaitu random forest dengan optimasi hyperparameter yang mendapat hasil akurasi sebesar 83,9% dan nilai AUROC sebesar 92,86% serta faktor-faktor yang paling berpengaruh terhadap durasi rawat inap antara lain jumlah limfosit total, urea, trombosit, hemoglobin, glukosa, usia, kreatinin, peptida natriuretik otak, fraksi ejeksi dan hipertensi.

Good hospital management can improve the quality of medical services. The hospital is a health service institution that provides complete individual health services in inpatient, outpatient, and emergency services. Hospitals are required to manage various types of resources to improve overall management efficiency, such as managing medical team and staff schedules, bed management, and clinical pathways. Heart disease is the leading cause of death in the world and requires immediate medical treatment. Heart disease requires one of the services at the hospital, namely inpatient services. Inpatient services involve resources related to cost and time. Predicting the duration of hospitalization in heart disease patients will help the patient prepare for the necessary needs and the hospital in managing inpatient beds for heart disease patients. In this study, the prediction of the duration of hospitalization for heart disease patients using an ensemble machine learning approach was carried out with the aim of getting the best method of predicting by comparing two ensemble machine learning methods, namely random forest and extreme gradient boosting, as well as the logistic regression method as a baseline. Then another goal is to find out the most influential factors on the duration of hospitalization. The three methods used are part of supervised machine learning. In addition, hyperparameter optimization is carried out to improve the performance of the prediction model results. After making a predictive model and evaluating the model, the best method was obtained, namely random forest with hyperparameter optimization which obtained an accuracy of 83.9% and an AUROC value of 92.86% and the factors that most influence the duration of hospitalization include the number of total lymphocytes, urea, platelets, hemoglobin, glucose, age, creatinine, brain natriuretic peptide, ejection fraction and hypertension.
"
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>