Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 170423 dokumen yang sesuai dengan query
cover
Gesha Mahendra Cunyadha
"Temperatur dan kelembaban dapat mengubah sifat dari suatu material sehingga akan menyebabkan penurunan kualitas material. Dalam penelitian ini dilakukan simulasi sistem pengendalian temperatur dan kelembaban relatif menggunakan permodelan heat-exchanger untuk mengubah nilai temperatur dan humidifier untuk mengubah nilai kelembaban relatif. Pengendalian dilakukan menggunakan Agent Reinforcement Learning dengan Algoritma Soft Actor-Critic (SAC) pada perangkat lunak Simulink-MATLAB. Penelitian ini bertujuan untuk menghasilkan pengendalian yang lebih baik daripada pengendalian yang telah digunakan dengan pengendali PI. Parameter pembanding yang digunakan merupakan respon transient yang meliputi nilai persentase overshoot, settling time, rise time, dan steady state error. Adapun batasan dalam penelitian ini adalah nilai temperatur dan kelembaban relatif yang dibatasi pada daerah kerja dengan temperatur dibawah 25°C dan kelembaban relatif dengan rentang 20-60%. Dari hasil penelitian ini agent RL-SAC dapat mengendalikan sistem temperatur dan kelembaban relatif dengan respon transient dengan rata-rata nilai overshoot 82% lebih cepat dan rata-rata nilai settling time 47% lebih cepat dibandingkan dengan pengendali PI.

Temperature and humidity can change the properties of a material so that it will cause a decrease in the quality of the material. In this study, a simulation of a temperature and relative humidity control system was carried out using a heat-exchanger model to change the temperature value and a humidifier to change the relative humidity value. Control is carried out using Reinforcement Learning Agent with the Soft Actor-Critic (SAC) Algorithm in the Simulink-MATLAB software. This study aims to produce a better control than the control that has been used with the PI controller. The comparison parameter used is the transient response which includes the percentage value of overshoot, settling time, rise time, and steady state error. The limitations in this study are the values of temperature and relative humidity which are limited to work areas with temperatures below 25°C and relative humidity with a range of 20-60%. From the results of this study the RL-SAC agent can control the temperature and relative humidity system with transient responses with an average overshoot value of 82% faster and an average settling time value of 47% faster than the PI controller."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Miftahur Roziqiin
"Sistem pengendalian merupakan suatu sistem yang banyak ditemukan dan berhubungan dengan beragam jenis proses yang ada pada berbagai bidang, terutama bidang industri. Proses pengendalian yang umum ditemukan dalam industri adalah proses thermal mixing. Salah satu contoh proses thermal mixing yang cukup sederhana adalah proses pencampuran air panas dan air dingin atau water thermal mixing, dengan tujuan untuk mencapai temperatur campuran yang diinginkan, tetapi tetap menjaga ketinggian air agar tidak melebihi kapasitas wadah. Nilai temperatur tersebut dapat dicapai dengan cara mengatur debit aliran air yang masuk ke dalam wadah pencampuran. Pada penelitian ini, diimplementasikan sistem pengendalian menggunakan Reinforcement Learning dengan algoritma Soft Actor-Critic pada simulasi pengendalian ketinggian dan temperatur air pada proses water thermal mixing menggunakan Simulink pada MATLAB. Agent dilatih agar dapat mengendalikan sistem secara cepat dan tepat dalam menentukan action berupa nilai untuk mengatur valve menghasilkan debit aliran air yang diperlukan. Hasil dari penelitian ini menunjukkan bahwa algoritma SAC dapat digunakan untuk mengendalikan sistem dengan baik, dengan nilai overshoot terbesar yaitu 1.33% untuk pengendalian ketinggian air dan steady-state error terbesar yaitu 0.33℃ saat mengendalikan temperatur campuran, dan nilai settling time terbesar yaitu 160 sekon saat terjadi perubahan set point untuk ketinggian air dari 2.5 dm menjadi 5 dm, serta mampu mengendalikan kestabilan sistem ketika mengalami gangguan dalam waktu 93 sekon.

The control system is a system that is widely found and relates to various types of processes that exist in various sector, especially the industrial sector. The control process commonly found in industry is the thermal mixing. One of the thermal mixing processes is the process of mixing hot and cold water or water thermal mixing, with the aim of reaching the desired temperature, but still maintaining the water level, so that it does not exceed the capacity of the container. This temperature value can be reached by adjusting the flow of water entering the mixing container. In this study, a control system was implemented using Reinforcement Learning with Soft Actor-Critic algorithm on a simulation of controlling water level and temperature in the water thermal mixing using Simulink in MATLAB. Agents are trained to be able to control the system quickly and precisely in determining the action in the form of a value to adjust the valve to produce the required water flow rate. The results of this study indicate that the SAC algorithm can be used to control the system properly, with the biggest overshoot of 1.33% for controlling water level and steady-state error of 0.33℃ when controlling the temperature of the mixture, and the settling time of 160 seconds when the set point value change for the water level from 2.5 dm to 5 dm, as well as being able to control the stability of the system when experiencing disturbances within 93 seconds."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fathan Akbar Rahmani
"Penelitian dilakukan dalam bentuk simulasi sistem pengendalian temperatur dan kelembaban relatif pada central air-conditioner pabrik tekstil. Pengendalian menggunakan Reinforcement Learning (RL) dengan algoritma Proximal Policy Optimization (PPO). RL dirancang dan diambil datanya menggunakan software RL Designer ToolBox di MATLAB. Dilakukan training pada agent PPO untuk mengendalikan sistem dengan range pengendalian temperatur 18 o C – 25 o C dan kelembaban relatif 55% - 85%. Hasil training agent diukur dan dibandingkan performanya terhadap PI controller menggunakan parameter step response yang terdiri dari rise time, settling time, error steady state, dan overshoot. Berdasarkan pengujian hasil training didapatkan secara keseluruhan iterasi pengendalian temperatur dan kelembaban relatif RL memiliki rise time dan settling time dibawah 90 detik, memiliki percent overshoot dalam rentang 0% s.d 150%, dan steady state error kurang dari 1%.

The research was conducted in the form of a simulation of the temperatur and relatif humidity control system in the central air-conditioner of a textile factory. The control uses Reinforcement Learning (RL) with Proximal Policy Optimization (PPO) algorithm. RL was designed and data was collected using RL Designer ToolBox software in MATLAB. PPO agent was trained to control the system with a temperatur control range of 18oC – 25oC and relative humidity of 55% - 85%. The results of agent training are measured and compared to PI controller performance using step response parameters consisting of rise time, settling time, steady state error, and overshoot. Based on testing the training results obtained overall iteration of temperatur control and relatif humidity RL has a rise time and settling time under 90 seconds, has a percent overshoot in the range of 0% to 150%, and steady state error less than 1%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ranya Andjani Khairunnisa Johan
"Proses industri banyak melibatkan penggunaan coupled tank, salah satu proses yang dilakukan adalah pengendalian ketinggian cairan. Pada penelitian ini dilakukan pengendalian ketinggian air pada sistem coupled tank menggunakan Reinforcement Learning berbasis algoritma Soft Actor Critic (SAC) menggunakan MATLAB dan Simulink. Sebelum diimplementasikan ke dalam sistem coupled tank dilakukan serangkaian proses training pada algoritma SAC. Hasil dari proses training ini merupakan action dalam bentuk besar bukaan control valve. Kinerja pengendali dievaluasi menggunakan nilai rise time, settling time, overshoot, dan steady state error. Berdasarkan parameter ini, algoritma SAC dapat mengendalikan sistem dengan baik dengan rise time kurang dari 47 sekon, settling time kurang dari 62 sekon, overshoot dibawah 10%, dan steady state error kurang dari 1%. Ketika diberikan gangguan algoritma SAC dapat kembali ke keadaan stabil dalam waktu kurang dari 45 sekon.

A lot of industrial processes utilize the use of coupled tanks, with one of the processes being liquid level control. In this study, Reinforcement Learning is implemented to control the water level in the coupled tank system using Soft Actor Critic (SAC) algorithm through MATLAB and Simulink. Before being implemented into the coupled tank system, the SAC algorithm went through a series of training processes. The result of this training process is an action in the form of adjusting control valve opening percentage. The controller performance is evaluated using parameters such as rise time, settling time, overshoot, and steady state error. Based on these parameters, the SAC algorithm manages to perform well in controlling the system with a rise time of less than 47 seconds, a settling time of less than 62 seconds, overshoot of less than 10%, and steady state error below 1%. When the system received a disturbance the SAC algorithm can return to a steady state in less than 45 seconds."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Hans Budiman Yusuf
"Sistem pengendalian temperatur dan kelembaban merupakan bagian dari sistem HVAC (Heating, Ventilation, and Air Conditioning) yang merupakan salah satu contoh sistem pengendalian yang banyak digunakan dalam berbagai sektor industri. Pengaturan temperatur dan kelembaban tersebut mempengaruhi kondisi ruangan yang umumnya dalam sektor industri digunakan sebagai tempat penyimpanan. Pengendalian temperatur dan kelembaban yang baik akan menjaga kualitas dari objek yang disimpan. Namun penggunaan sistem HVAC juga memberikan tanggungan biaya yang cukup besar untuk dapat beroperasi, sehingga dibutuhkan suatu sistem yang mempunyai kinerja yang lebih baik dan dapat meminimalisir biaya yang dikeluarkan untuk pengoperasian sistem. Penelitian ini bertujuan untuk melakukan pengendalian temperatur dan kelembaban yang baik dengan menggunakan Agent Reinforcement Learning dengan algoritma Deep Determinisitic Policy Gradient (DDPG) pada perangkat lunak MATLAB dan SIMULINK serta membandingkan hasil pengendalian berupa respon transiennya terhadap pengendalian berbasis pengendali PI. Hasil penelitian ini menunjukan bahwa sistem HVAC dapat dikendalikan lebih baik oleh Agent RL DPPG dibandingkan dengan pengendali PI yang ditandai dengan respon transien seperti settling time yang lebih unggul 55,84% untuk pengendalian temperatur dan 96,49% untuk pengendalian kelembaban. Kemudian rise time yang lebih cepat mencapai < 3 detik untuk mencapai nilai set point temperatur dan kelembaban.

The temperature and humidity control system is a part of the HVAC (Heating, Ventilation, and Air Conditioning) system, which is an example of a control system widely used in various industrial sectors. The regulation of temperature and humidity significantly affects the conditions of indoor spaces commonly utilized as storage areas in industrial settings. Proper temperature and humidity control are essential to maintain the quality of stored objects. However, the use of HVAC systems also comes with substantial operational costs, necessitating the development of a more efficient system that can minimize operational expenses. This research aims to achieve effective temperature and humidity control using the Agent Reinforcement Learning approach with the Deep Deterministic Policy Gradient (DDPG) algorithm implemented in MATLAB and SIMULINK software. The study also compares the control results, particularly the transient response, with those obtained from the Proportional-Integral (PI) controller-based system. The research findings demonstrate that the HVAC system can be better controlled by the Agent RL DPPG, as evidenced by superior transient responses, with a 55.84% improvement in settling time for temperature control and a 96.49% improvement for humidity control. Additionally, the rise time achieved is less than 3 seconds to reach the set point for both temperature and humidity."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Yonathan
"Penelitian ini melakukan proses simulasi pengendalian temperatur dan kelembaban pada sebuah pengendali MIMO, yang berkerja dengan mengatur temperatur air yang melewati heat-exchanger dan tingkat keaktifan humidifier untuk melakukan proses humidifikasi. Simulasi ini dilakukan menggunakan Agent Reinforcement Learninig dengan Algoritma Twin Delayed Deep Deterministic Policy Gradient Agent (TD3) pada perangkat lunak MATLAB dan Simulink. Tujuan dari penelitian ini adalah untuk mendapatkan respon pengendalian yang lebih baik dibanding pengendali umum PI Controller dengan membandingkan respon pengendalian yang dihasilkan berupa overshoot, settling time, rise time, dan steady state error. Batasan pada penlitian ini adalah perubahan temperatur yang dihasilkan dari proses pengendalian adalah 25°C dan perubahan kelembapan berada pada rentang +21% hingga – 60%. Didapatkan hasil Agent RL TD3 yang dapat melakukan proses kontrol sistem dengan performa yang jauh lebih baik dibandingkan PI Controller berdasarkan respon pengendalian yang dilakukan.

This research conducts a simulation process of temperature and humidity control in a Multiple Input Multiple Output (MIMO) controller, which operates by regulating the temperature of water passing through a heat exchanger and the activation level of a humidifier for the humidification process. The simulation is performed using Agent Reinforcement Learning with the Twin Delayed Deep Deterministic Policy Gradient Agent (TD3) algorithm in MATLAB and Simulink software. The objective of this study is to obtain better control responses compared to the conventional PI Controller by comparing the control responses in terms of overshoot, settling time, rise time, and steady-state error. The limitations of this study include temperature changes resulting from the control process being 25°C, and humidity changes ranging from +21% to -60%. The results show that the TD3 RL agent can control the system with significantly better performance than the PI Controller based on the control responses obtained."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Rafif Diyartazhar
"Konsumsi energi dari sistem pengkondisian udara pada gedung perkantoran menempati urutan tertinggi pada konsumsi energi keseluruhan dari gedung tersebut. Penelitian ini bertujuan untuk mengetahui pengaruh penggunaan heat pipe heat exchanger (HPHE) pada sistem heating, ventilation and air conditioning (HVAC) office building dan menganalisis penggunaan korelasi Sp number. HPHE yang digunakan pada penelitian ini merupakan straight HPHE yang terdiri dai 6 baris yang terdiri dari empat heat pipe pada tiap baris. Temperatur fresh air divariasikan pada temperatur 30, 35, 40 dan 45  °C dengan kecepatan udara masuk pada sisi evaporator (ve,in) sebesar 1,0; 1,5 dan 2,0 m/s. Penelitian dilakukan pada model sistem HVAC office building dengan beban ruangan pada chamber pengujian divariasikan pada nilai 200 dan 300 W. Hasil eksperimen menunjukkan Nilai efektifitas terbesar 40,324% pada kecepatan udara inlet (vin) 1,0 m/s dengan temperatur fresh air 45 °C dan beban ruangan sebesar 200 W. Heat recovery HPHE terbesar mencapai 398,72 W pada variasi kecepatan udara inlet 2,0 m/s dengan temperatur fresh air 45 °C dan beban ruangan 200 W. Nilai absolute error terkecil dari penggunaan korelasi Sp number terdapat pada variasi kecepatan udara inlet 2,0 m/s dengan beban ruangan 300 W, yaitu sebesar 11% dan absolute error terbesar pada variasi kecepatan udara inlet 1,0 m/s dengan beban ruangan 200 W, yaitu sebesar 51,17%.

 


The energy consumption of the air conditioning system in an office building ranks highest in the overall energy consumption of the building. This study aims to determine the effect of using a heat pipe heat exchanger (HPHE) on the heating, ventilation and air conditioning (HVAC) office building system and analyze the use of Sp number correlation. The HPHE used in this study is a straight HPHE consisting of 6 lines consisting of four heat pipes in each row. The temperature of fresh air was varied at temperatures of 30, 35, 40 and 45 °C with the air velocity entering the evaporator side (ve, in) of 1.0; 1.5 and 2.0 m/s. The research was conducted on an office building HVAC system model with room loads in the testing chamber varied at values of 200 and 300 W. The experimental results show the greatest effectiveness value is 40.324% at the inlet air velocity (vin) 1.0 m/s with a fresh air temperature of 45 °C. and room load of 200 W. The largest HPHE heat recovery reached 398.72 W at a variation of the inlet air velocity 2.0 m/s with a fresh air temperature of 45 °C and a room load of 200 W. The smallest absolute error value from the use of the Sp number correlation was found in the variation of the inlet air velocity of 2.0 m/s with a room load of 300 W, which is 11% and the largest absolute error in the variation of the inlet air velocity of 1.0 m/s with a room load of 200 W, which is 51.17%.

 

"
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Farhan Aditya Wibowo
"Sistem HVAC pada office building berperan penting untuk menyediakan kenyamanan yang ideal bagi pengguna di dalamnya. Hal ini menyebabkan besarnya konsumsi energi di sektor perkantoran. Penelitian ini bertujuan untuk mengetahui efektifitas dan heat recovery dari penggunaan heat pipe heat exchanger dan return air. Volume return air yang digunakan dalam penelitian ini sebesar 30% dan HPHE yang digunakan berjumlah dua modul yang terdiri dari 3 baris heat pipe per modul. Pada inlet evaporator dialiri udara dengan variasi temperatur: 30, 35, 40, dan 45°C, serta dengan kecepatan 1,0; 1,5; dan 2,0 m/s. Beban pada ruangan bervariasi 200 dan 300W. Hasil dari percobaan ini mendapatkan nilai efektifitas HPHE terbesar pada percobaan temperature udara masuk 45oC; vin 1m/s; vout 2m/s; dan beban ruangan 200W yaitu sebesar 0,403 atau 40,3%. Heat recovery HPHE terbesar didapatkan pada percobaan temperature udara masuk 45oC; vin 2m/s; vout 2m/s; dan beban ruangan 200W yaitu sebesar 398,720W. Hasil dari penelitian menunjukkan bahwa penggunaan return air memengaruhi temperatur inlet evaporator.

HVAC systems in office buildings play an important role in providing ideal comfort for users in the building. This causes a large amount of energy consumption in the office sector. This study aims to determine the effectiveness and heat recovery from the use of heat pipe heat exchangers and return air. The return air volume used in this study was 30% and the HPHE used was two modules consisting of 3 lines of heat pipe per module. At the inlet of the evaporator, air flows with variations in temperature: 30, 35, 40, and 45°C, and with a speed of 1.0; 1.5; and 2.0 m/s. The load on the room varies between 200 and 300W. The results of this experiment get the greatest HPHE effectiveness value at the 45oC intake air temperature experiment; vin 1m/s; vout 2m/s; and 200W room load that is equal to 0.403 or 40.3%. The largest HPHE heat recovery was found in the 45oC intake air temperature experiment; vin 2m/s; vout 2m/s; and the room load is 200W, which is 398,720W. The results of the study indicate that the use of return water affects the inlet temperature of the evaporator."
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Lintang Adyuta Sutawika
"Karya ini menggunakan encoder visual berbasis Concept-Map yang menanggulangi masalah penghubungan informasi dari citra yang telah di-encode oleh sebuah jaringan saraf tiruan konvolusional ke dalam ranah semantik yang diproses oleh jarinagn saraf tiruan berbasis waktu. Pendekatan ini menggunakan komponen attention visual yang mengembangkan jaringan konvolusional sebelum dipropagasi ke jaringan berbasis waktu. Untuk meningkatkan pembelajaran cross-entropy, model dilatih dengan metode reinforcement learning dengan cara melatih value dan policy network berdasarkan jarak visual-semantic embedding distance dari representasi vector sebagai sinyal reward. Visual-semantic embedding space belajar dan menghasilkan vector space untuk citra dan teks, lalu digunakan sebagai tolak ukur qualitas suatu teks yang mendeskripsikan suatu citra. Sinyal reward membantu mengarahkan dan memaksimalkan probabilitas suatu deskripsi bagus muncul. Dataset yang digunakan adalah Flickr8k dan metric yang dilaporkan adalah BLEU-1 hingga BLEU-4

This work features a Concept-Map visual encoder that tackles the issue of linking encoded image information from convolutional neural networks to semantic domain processed by recurrent neural networks. The approach utilizes visual attention that extends the convolutional network before being propagated to through the recurrent network. To improve upon cross entropy learning, the model is then trained on reinforcement learning by training a value and policy network on visual-semantic embedding distance of vector representations as reward signals. The visual-semantic embedding space that jointly learns a common vector space for encoding image and caption is used to measure the quality of generated caption computing how close the vector representation is to the vector representation of the input image. The reward signal guides the policy to maximize the probability of producing good captions. The Flickr8K dataset is used and BLEU-1 to BLEU-4 for is reported."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Tiva Rahmita
"Proses Thermal Mixing adalah jenis dari proses pencampuran yang penting di berbagai industri, Proses ini bekerja dengan mengendalikan flow air yang masuk yang memiliki temperatur yang berbeda untuk menghasilkan temperatur campuran yang diinginkan. Dalam penelitian ini dilakukan simulasi pengendalian temperatur air pada proses pencampuran dalam suatu tangki menggunakan Matlab. Tujuan dari penelitian ini adalah menjaga temperatur air di set point dengan mengendalikan flow air dingin yang masuk ke tangki pencampuran sedangkan flow air panas dan flow keluar dijaga konstan. Sistem dikendalikan menggunakan pengendali Reinforcement Learning (RL) dengan menerapkan algoritma Proximal Policy Optimization (PPO). Algoritma RL melakukan serangkaian tahapan training kepada agent untuk menghasilkan action yang sesuai berupa bukaan control valve. Pada proses training, sistem akan diberikan perubahan set point. Performa dari pengendali RL akan dilihat dari parameter-parameter seperti overshoot, rise time, dan settling time sebagai data kualitatif. Hasilnya secara keseluruhan menunjukkan bahwa pengendali RL dapat melakukan proses belajar dalam pengujian perubahan set point. Hal ini dapat dilihat dari grafik nilai process variable yang mendekati nilai set point (SP) dengan nilai overshoot terbesar saat SP 45 ℃ dan 60 ℃ yaitu sebesar 0,003% dan nilai steady state error terbesar senilai 0,3 ℃. Jika dibandingkan dengan pengendali PID yang diterapkan dengan menggunakan closed-loop PID autotuner, pengendalian yang dilakukan oleh agent PPO lebih baik dibandingkan PID. Hal ini didukung oleh data kecepatan respons yang menunjukkan nilai rise time dan settling time pada pengendali RL di semua nilai SP lebih kecil dibandingkan dengan PID.

Thermal Mixing Process is a type of mixing process that is important in various industries, This process works by controlling the incoming water flow which has different temperatures to produce the desired temperature mixture. In this study, a simulation of water temperature control in the mixing process in a tank was carried out using Matlab. The purpose of this research is to maintain the air temperature at the set point by controlling the flow of cold air entering the mixing tank while the hot air flow and flow are kept constant. The control system uses a Reinforcement Learning (RL) controller by applying the Proximal Policy Optimization (PPO) algorithm. The RL algorithm performs training stages for agents to produce actions in the form of control valve openings. In the training process, the system will be given a set point change. The performance of the RL controller will be seen from parameters such as overshoot, rise time, and settling time as qualitative data. The overall result shows that the RL controller can carry out the learning process in testing set point changes. This can be seen from the graph of the value of the process variable which is close to the set point (SP) value with the largest overshoot value at SP 45 and 60 which is 0.003% and the largest steady state error value is 0.3. When compared with PID control applied using a closed loop PID autotuner, the control performed by PPO agents is better than PID. This is supported by the data rate response which shows that the rise time and settling time values ​​for the RL controller in all SP values ​​are smaller than the PID."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>