Search Result  ::  Save as CSV :: Back

Search Result

Found 11 Document(s) match with the query
cover
Fakultas Teknik Universitas Indonesia, 2002
TA3297
UI - Tugas Akhir  Universitas Indonesia Library
cover
Annisa Khoirul Mumtaza
"Sistem coupled tank merupakan salah contoh penerapan sistem kontrol level industri yang memiliki karakteristik yang kompleks dengan non linieritas yang tinggi. Pemilihan metode pengendalian yang tepat perlu dilakukan untuk dapat diterapkan dalam sistem coupled tank agar dapat memberikan kinerja dengan presisi tinggi. Sejak awal kemunculannya, Reinforcement Learning (RL) telah menarik minat dan perhatian yang besar dari para peneliti dalam beberapa tahun terakhir. Akan tetapi teknologi ini masih belum banyak diterapkan secara praktis dalam kontrol proses industri. Pada penelitian ini, akan dibuat sebuah sistem pengendalian level pada sistem coupled tank dengan menggunakan Reinforcement Learning dengan menggunakan algoritma Twin Delayed Deep Deterministic Policy Gradient (TD3). Reinforcement Learning memiliki fungsi reward yang dirancang dengan sempurna yang diperlukan untuk proses training agent dan fungsi reward tersebut perlu diuji terlebih dahulu melalui trial and error. Performa hasil pengendalian ketinggian air pada sistem coupled tank dengan algoritma TD3 mampu menghasilkan pengendalian yang memiliki keunggulan pada rise time, settling time, dan peak time yang cepat serta nilai steady state eror sangat kecil dan mendekati 0%.

The coupled tank system is an example of the application of an industrial level control system that has complex characteristics with high non-linearity. It is necessary to select an appropriate control method to be applied in coupled tank systems in order to provide high-precision performance. Since its inception, Reinforcement Learning (RL) has attracted great interest and attention from researchers in recent years. However, this technology is still not widely applied practically in industrial process control. In this research, a level control system in a coupled tank system will be made using Reinforcement Learning using the Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm. Reinforcement Learning has a perfectly designed reward function that is required for the agent training process and the reward function needs to be tested first through trial and error. The performance of the results of controlling the water level in the coupled tank system with the TD3 algorithm is able to produce controls that have advantages in rise time, settling time, and peak time which are fast and the steady state error value is very small and close to 0%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Annisa Khoirul Mumtaza
"Sistem coupled tank merupakan salah contoh penerapan sistem kontrol level industri yang memiliki karakteristik yang kompleks dengan non linieritas yang tinggi. Pemilihan metode pengendalian yang tepat perlu dilakukan untuk dapat diterapkan dalam sistem coupled tank agar dapat memberikan kinerja dengan presisi tinggi. Sejak awal kemunculannya, Reinforcement Learning (RL) telah menarik minat dan perhatian yang besar dari para peneliti dalam beberapa tahun terakhir. Akan tetapi teknologi ini masih belum banyak diterapkan secara praktis dalam kontrol proses industri. Pada penelitian ini, akan dibuat sebuah sistem pengendalian level pada sistem coupled tank dengan menggunakan Reinforcement Learning dengan menggunakan algoritma Twin Delayed Deep Deterministic Policy Gradient (TD3). Reinforcement Learning memiliki fungsi reward yang dirancang dengan sempurna yang diperlukan untuk proses training agent dan fungsi reward tersebut perlu diuji terlebih dahulu melalui trial and error. Performa hasil pengendalian ketinggian air pada sistem coupled tank dengan algoritma TD3 mampu menghasilkan pengendalian yang memiliki keunggulan pada rise time, settling time, dan peak time yang cepat serta nilai steady state eror sama dengan 0%.

The coupled tank system is an example of the application of an industrial level control system that has complex characteristics with high non-linearity. It is necessary to select an appropriate control method to be applied in the coupled tank system in order to provide high-precision performance. Since its inception, Reinforcement Learning (RL) has attracted great interest and attention from researchers in recent years. However, this technology is still not widely applied practically in industrial process control. In this research, a level control system in a coupled tank system will be created using Reinforcement Learning using the Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm. Reinforcement Learning has a perfectly designed reward function that is required for the agent training process and the reward function needs to be tested first through trial and error. The performance of the results of controlling the water level in the coupled tank system with the TD3 algorithm is able to produce controls that have advantages in rise time, settling time, and peak time which are fast and the steady state error value is equal to 0%."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Ziyad Ain Nur Rafif
"Sistem coupled-tank merupakan konfigurasi yang digunakan pada industri dalam hal pengendalian ketinggian air, biasanya dengan metode pengendalian proportional, integral, derivative (PID). Namun, metode lain seperti reinforcement learning (RL) juga bisa diterapkan. Metode RL dapat dikombinasikan dengan programmable logic controller (PLC) yang sering digunakan dalam proses industri. PLC mengontrol ketinggian air dengan membaca data dari water level transmitter dan mengatur bukaan control valve berdasarkan algoritma RL yang sudah dilatih untuk mencapai kontrol optimal. Algoritma RL yang digunakan adalah twin-delayed deep deterministic (TD3) policy gradient. Performa algoritma ini diukur menggunakan parameter seperti overshoot, rise time, settling time, dan steady-state error, lalu dibandingkan dengan pengendali PID konvensional. Hasil simulasi dan pengujian pada hardware menunjukkan bahwa algoritma RL menghasilkan overshoot sebesar 6.59% dan steady-state error sebesar 3.53%, di mana steady-state error ini terjadi karena sensor yang sensitif sehingga data ketinggian air tidak pernah terekam konstan dan stabil. Sebagai perbandingan, pengendali PID memiliki overshoot sekitar 23.38% dan steady-state error terkecil berkisar pada 7.15%, yang berarti pengendali RL sudah memiliki performa yang lebih baik dibandingkan pengendali PID.

Coupled-tank system is a configuration commonly used in industry, mainly for water level control with proportional, integral, and derivative (PID) control method. But, other methods like reinforcement learning (RL) can be implemented for this control problem. This RL method can be combined with programmable logic controller (PLC) which is often used in industry process. PLC will control water level by reading data from water level transmitter and controlling a control valve opening according to a trained RL algorithm to gain an optimal control. The RL algorithm used is twin-delayed deep deterministic (TD3) policy gradient. The algorithm’s performance will be measured by parameters such as overshoot, rise time, settling time, and steady-state error, and then compared with the conventional PID control method. According to the results from simulation and from the real hardware, the overshoot value that happens is only in the range of 6.59% with the smallest steady-state error value ranged around 3.53%, which happens due to the sensitive sensor so that water level data never recorded at a constant and stable state. For comparison, the PID control has an overshoot around 23.38% and smallest steady-state error around 7.15%, which means that the RL control method has a better performance than the PID control method."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Aries Subiantoro
"Makalah ini membahas pemodelan sistem tangki terhubung berbasiskan data masukan-keluaran dengan menggunakan model fuzzy Takagi-Sugeno. Algoritma fuzzy clustering Gustafson-Kessel digunakan untuk mengelompokkan data masukan-keluaran menjadi beberapa cluster berdasarkan kesamaan jarak suatu anggota data masukan-keluaran dari titik tengah suatu cluster.
Cluster-cluster yang terbentuk diproyeksikan orthonormal ke setiap ruang variabel linguistik bagian premis untuk mendapatkan fungsi keanggotaan model fuzzy Takagi-Sugeno. Parameter konsekuen dari model fuzzy Takagi-Sugeno diperoleh dengan mengestimasi data setiap cluster dengan menggunakan metode weighted leastsquares.
Hasil model fuzzy Takagi-Sugeno yang diperoleh divalidasi dengan indikator kinerja variance-accounted-for (VAF) dan root mean square (RMS). Hasil uji simulasi menunjukkan model fuzzy Takagi-Sugeno sanggup meniru karakteristik nonlinier sistem tangki terhubung dengan nilai indikator kinerja model yang baik.

Modeling of Coupled-Tank System Using Fuzzy Takagi-Sugeno Model. This paper describes modeling of coupledtank system based on data measurement using fuzzy Takagi-Sugeno model. The fuzzy clustering method of Gustafson-Kessel algorithm is used to classify input-output data into several clusters based on distance similarity of a member of input-output data from center of cluster.
The formed clusters are projected orthonormally into each linguistic variables of premise part to determine membership function of fuzzy Takagi-Sugeno model. By estimating data in each cluster, the consequent parameters of fuzzy Takagi-Sugeno model are calculated using weighted least-squares method.
The resulted fuzzy Takagi-Sugeno model is validated by using model performance parameters variance-accounted-for (VAF) and root mean square (RMS) as performance indicators. The simulation results show that the fuzzy Takagi-Sugeno model is able to mimic nonlinear characteristic of coupled-tank system with good value of model performance indicators."
Depok: Lembaga Penelitian Universitas Indonesia, 2006
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Nur Fadilah Yuliandini
"Sistem Coupled tank umum digunakan pada bidang industri otomatis, salah satu pengendalian yang umum terjadi pada coupled tank adalah pengendalian ketinggian air. Sistem pengendalian tersebut bertujuan untuk menjaga ketinggian air yang berada pada tangki. Penelitian ini melakukan simulasi pengendalian ketinggian air pada coupled tank dengan menerapkan Reinforcement Learning (RL) dengan algoritma Deep Deterministic Policy Gradient (DDPG). Proses simulasi tersebut dilakukan menggunakan simulink pada MATLAB. Algoritma DDPG melalui serangkaian training sebelum diimplementasikan pada sistem coupled tank. Kemudian pengujian algoritma DDPG dilakukan dengan memvariasikan nilai set point dari ketinggian air dan sistem diberikan gangguan berupa bertambahnya flow in dari control valve lain. Performa dari algorima DDPG dalam sistem pengendalian dilihat dari beberapa parameter seperti overshoot, rise time, settling time, dan steady state error. Hasil yang diperoleh pada penelitian ini bahwa algoritma DDPG memperoleh nilai settling time terbesar sebesar 109 detik, nilai steady state error terbesar sebesar 0.067%. Algoritma DDPG juga mampu mengatasi gangguan dengan waktu terbesar sebesar 97 detik untuk membuat sistem kembali stabil.

The Coupled Tank system is commonly used in the field of industrial automation, and one of the common controls implemented in this system is water level control. The purpose of this study is to simulate water level control in a coupled tank using Reinforcement Learning (RL) with the Deep Deterministic Policy Gradient (DDPG) algorithm. The simulation process is performed using Simulink in MATLAB. The DDPG algorithm undergoes a series of training sessions before being implemented in the coupled tank system. Subsequently, the DDPG algorithm is tested by varying the set point values of the water level and introducing disturbances in the form of increased flow from another control valve. The performance of the DDPG algorithm in the control system is evaluated based on parameters such as overshoot, rise time, settling time, and steady-state error. The results obtained in this study show that the DDPG algorithm achieves a maximum settling time of 109 seconds and a maximum steady-state error of 0.067%. The DDPG algorithm is also capable of overcoming disturbances, with the longest recovery time of 97 seconds to restore system stability."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Kartika Sekarsari
"Pada tesis ini dibahas tentang simulasi dan perancangan pengendalian sistem multivariabel Coupled Tank Apparatus dengan menggunakan Neural Network model Direct Invers Control. Model sistem yang bersifat non linier akan dilinierisasi sehingga diperoleh fungsi alih yang mengandung persamaan karakteristik yang menyerupai sistem linier orde dua yang berada dalam keadaan over damped akan selalu stabil. Pengurangan interaksi (kopling) yang terjadi pada sistem multivariabel Coupled Tank Apparatus dilakukan dengan perancangan dekopling yang menggunakan metode Relative Gain Matrik. Perancangan dan simulasi sistem pengendalian Neural Network model Direct Invers Control menggunakan program Matlab Versi 5.3.1. Perbandingan antara analisa tanggapan waktu terhadap sistem kendali yang dirancang dengan sistem kendali Proportional Integral Derivatif serta sistem kendali logika Fuzzy menghasilkan tanggapan respon untuk mencapai keadaan steady state (setting time) pada Neural Network model Direct Invers Control lebih cepat dibandingkan dengan tanggapan waktu yang dihasilkan oleh pengendali konvensional PI, PID, dan Fuzzy.
Dalam hal ini, data parameter sistem untuk simulasi diperoleh dari hasil penelitian dan percobaan di Laboratorium Fakultas Teknik Universitas Indonesia.

In this thesis, a study on simulation and design of a multivariabel Control of Coupled Tank Apparatus Systems is presented. A Neural Network Controller based on a Direct Invers Control is applied. The linierized model of the Coupled Tank Apparatus Systems appears to be a stable second order transfer function with an over damped characteristic. A Decoupling Compensator is designed using Relative Gain Matrix Method of Bristol. The Simulation and control is implemented using Matlab 5.3.1 on apersonal computer. For comparison a PID controller and a Fuzzy Logic Controller are also implemented. It is found that NN Direct Invers Control shows a better performance than the other control method in terms of speed response.
All data for experiment and equipment used are done in the Control Laboratory, Dept of Electrical Engineering, Faculty of Technology University of Indonesia."
Depok: Fakultas Teknik Universitas Indonesia, 2002
T8480
UI - Tesis Membership  Universitas Indonesia Library
cover
Rayhan Ghifari Andika
"Pengendalian proses di industri desalinasi sangat penting untuk mengoptimalkan operasi dan mengurangi biaya produksi. Pengendali proporsional, integral, dan derivatif (PID) umum digunakan, namun tidak selalu efektif untuk sistem coupled-tank yang kompleks dan nonlinier. Penelitian ini mengeksplorasi penggunaan algoritma reinforcement learning (RL) dengan algoritma Deep Deterministic Policy Gradient (DDPG) untuk mengendalikan ketinggian air pada sistem coupled-tank. Tujuan penelitian ini adalah merancang sistem pengendalian ketinggian air menggunakan RL berbasis programmable logic controller (PLC) untuk mencapai kinerja optimal. Sistem diuji pada model coupled-tank dengan dua tangki terhubung vertikal, di mana aliran air diatur untuk menjaga ketinggian air dalam rentang yang diinginkan. Hasil menunjukkan bahwa pengendalian menggunakan RL berhasil dengan tingkat error steady-state (SSE) antara 4,63% hingga 9,6%. Kinerja RL lebih baik dibandingkan PID, dengan rise time dan settling time yang lebih singkat. Penelitian ini menyimpulkan bahwa RL adalah alternatif yang lebih adaptif untuk pengendalian level cairan di industri dibandingkan dengan metode konvensional.

Process control in the desalination industry is crucial for optimizing operations and reducing production costs. Proportional, integral, and derivative (PID) controllers are commonly used but are not always effective for complex and nonlinear coupled-tank systems. This study explores the use of reinforcement learning (RL) with the Deep Deterministic Policy Gradient (DDPG) algorithm to control the water level in a coupled-tank system. The objective of this research is to design a water level control system using RL based on a programmable logic controller (PLC) to achieve optimal performance. The system was tested on a coupled-tank model with two vertically connected tanks, where the water flow is regulated to maintain the water level within the desired range. Results show that control using RL achieved a steady-state error (SSE) between 4.63% and 9.6%. RL performance was superior to PID, with faster rise and settling times. This study concludes that RL is a more adaptive alternative for liquid level control in industrial settings compared to conventional methods."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Michael Johannes Nait
"Sistem coupled-tank MIMO banyak digunakan dalam industri untuk pengendalian ketinggian fluida dan menjadi platform ideal dalam studi sistem kendali. Metode Proportional-Integral-Derivative (PID) masih menjadi standar dalam pengendalian proses industri, namun memiliki keterbatasan pada sistem nonlinier dan tidak stabil karena memerlukan pemodelan matematis untuk penentuan parameternya. Penelitian ini mengusulkan penggunaan Reinforcement Learning (RL), khususnya algoritma Soft Actor-Critic (SAC), sebagai alternatif pengendali. SAC merupakan algoritma RL berbasis kebijakan stokastik yang mampu mempelajari aksi optimal melalui interaksi dengan lingkungan dan reward-based learning. Sistem dirancang dan diuji menggunakan MATLAB dan Simulink, dengan pengendali PID sebagai pembanding. Evaluasi performa dilakukan berdasarkan parameter overshoot, rise time, settling time, dan steady state error (SSE). Hasil menunjukkan bahwa agen SAC mampu mengendalikan ketinggian air dengan lebih baik dibanding PID dalam aspek overshoot (rata-rata 4,955% pada tangki 1 dan 2,43% pada tangki 2), rise time (32,6 detik pada tangki 1), serta settling time (102,46 detik pada tangki 1 dan 55,06 detik pada tangki 2). Kesimpulannya, SAC unggul dalam kestabilan jangka pendek dengan respons cepat dan akurat, sementara PID lebih baik dalam kestabilan jangka panjang berkat nilai SSE yang sangat kecil.

MIMO coupled-tank systems are widely used in industry for fluid level control and become an ideal platform in the study of control systems. Proportional-Integral-Derivative (PID) method is still the standard in industrial process control, but it has limitations in nonlinear and unstable systems because it requires mathematical modeling for parameter determination. This research proposes the use of Reinforcement Learning (RL), specifically the Soft Actor-Critic (SAC) algorithm, as an alternative controller. SAC is a stochastic policy-based RL algorithm capable of learning optimal actions through interaction with the environment and reward-based learning. The system was designed and tested using MATLAB and Simulink, with the PID controller as a comparison. Performance evaluation is performed based on overshoot, rise time, settling time, and steady state error (SSE) parameters. The results show that the SAC agent is able to control the water level better than the PID in terms of overshoot (average of 4.955% in tank 1 and 2.43% in tank 2), rise time (32.6 seconds in tank 1), and settling time (102.46 seconds in tank 1 and 55.06 seconds in tank 2). In conclusion, SAC excels in short-term stability with fast and accurate response, while PID is better in long-term stability thanks to very small SSE values. "
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Siahaan, Amanda Shane Gracia
"Sistem tangki berpasangan merupakan salah satu sistem yang banyak digunakan dalam industri proses untuk mengukur ketinggian air dengan akurat. Sistem tangki berpasangan bersifat nonlinear dan saling mempengaruhi antar tangki. Pada penelitian ini, dirancang sistem kendali untuk mengendalikan sistem MIMO coupled-tank menggunakan metode RL berbasis algoritma TD3 serta membandingkan performa kinerjanya dengan metode konvensional PID. Penelitian ini menghasilkan nilai overshoot yang lebih rendah pada metode RL daripada metode PID, yaitu sebesar 4%-56% (tangki 1) dan 2%-12% (tangki 2), sedangkan pada metode PID didapatkan sebesar 9%-55% (tangki 1) dan 9%-56% (tangki 2). Kemudian, nilai settling time relatif cepat pada metode RL yaitu sebesar 10s- 175s (tangki 1) dan 2s - 31s (tangki 2), sedangkan pada metode PID didapatkan nilai settling time sebesar 16s - 92s (tangki 1) dan 15s - 87s (tangki 2). Namun, nilai rise time yang didapat pada metode RL cenderung lebih lambat dibandingkan metode PID. Pada metode RL didapatkan nilai rise time sebesar 5s - 67s (tangki 1) dan 0.4s - 18s (tangki 2), sedangkan metode PID sebesar 5s - 24s (tangki 1) dan 3s - 25s (tangki 2). Terakhir, didapatkan nilai SSE yang lebih kecil pada metode RL yaitu sebesar 0.005% - 0.15% (tangki 1) dan 0.008% - 0.08% (tangki 2), sedangkan pada metode PID sebesar 0.01% - 0.7% (tangki 1) dan 0.01% - 0.8% (tangki 2). Berdasarkan hasil penelitian ini, metode RL TD3 memiliki keunggulan dari sisi kestabilan dan efisiensi kontrol pada sistem nonlinear. Sedangkan, metode PID memiliki respons awal yang cepat namun menghasilkan overshoot yang besar dan waktu stabilisasi yang lama.

The coupled-tank system is widely applied in process industries to measure water levels accurately. This system is nonlinear and exhibits mutual influence between tanks, making it a typical example of a multiple-input multiple-output (MIMO) system. In this study, a control system is developed using the TD3 reinforcement learning (RL) algorithm to manage the MIMO coupled-tank system, and its performance is compared to the conventional PID method. Results show that the RL method produces significantly lower overshoot: 4% - 56% (tank 1) and 2% - 12% (tank 2), compared to PID’s 9% - 55% (tank 1) and 9% - 56% (tank 2). The RL approach also achieves faster settling times 10s - 175s (tank 1) and 2s - 31s (tank 2), while PID requires 16s - 92s (tank 1) and 15s - 87s (tank 2). However, RL has slightly slower rise times: 5s - 67s (tank 1) and 0.4s - 18s (tank 2), compared to PID’s 5s - 24s and 3s - 25s. Finally, RL records smaller steady-state errors (SSE), namely 0.005% - 0.15% (tank 1) and 0.008% - 0.08% (tank 2), while PID yields 0.01% - 0.7% and 0.01% - 0.8%, respectively. Overall, the TD3-based RL controller demonstrates better stability and control efficiency, especially for nonlinear systems. In contrast, PID offers faster initial response but suffers from higher overshoot and prolonged stabilization. "
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2   >>