Ditemukan 1 dokumen yang sesuai dengan query
Rayhan Ghifari Andika
"Pengendalian proses di industri desalinasi sangat penting untuk mengoptimalkan operasi dan mengurangi biaya produksi. Pengendali proporsional, integral, dan derivatif (PID) umum digunakan, namun tidak selalu efektif untuk sistem coupled-tank yang kompleks dan nonlinier. Penelitian ini mengeksplorasi penggunaan algoritma reinforcement learning (RL) dengan algoritma Deep Deterministic Policy Gradient (DDPG) untuk mengendalikan ketinggian air pada sistem coupled-tank. Tujuan penelitian ini adalah merancang sistem pengendalian ketinggian air menggunakan RL berbasis programmable logic controller (PLC) untuk mencapai kinerja optimal. Sistem diuji pada model coupled-tank dengan dua tangki terhubung vertikal, di mana aliran air diatur untuk menjaga ketinggian air dalam rentang yang diinginkan. Hasil menunjukkan bahwa pengendalian menggunakan RL berhasil dengan tingkat error steady-state (SSE) antara 4,63% hingga 9,6%. Kinerja RL lebih baik dibandingkan PID, dengan rise time dan settling time yang lebih singkat. Penelitian ini menyimpulkan bahwa RL adalah alternatif yang lebih adaptif untuk pengendalian level cairan di industri dibandingkan dengan metode konvensional.
Process control in the desalination industry is crucial for optimizing operations and reducing production costs. Proportional, integral, and derivative (PID) controllers are commonly used but are not always effective for complex and nonlinear coupled-tank systems. This study explores the use of reinforcement learning (RL) with the Deep Deterministic Policy Gradient (DDPG) algorithm to control the water level in a coupled-tank system. The objective of this research is to design a water level control system using RL based on a programmable logic controller (PLC) to achieve optimal performance. The system was tested on a coupled-tank model with two vertically connected tanks, where the water flow is regulated to maintain the water level within the desired range. Results show that control using RL achieved a steady-state error (SSE) between 4.63% and 9.6%. RL performance was superior to PID, with faster rise and settling times. This study concludes that RL is a more adaptive alternative for liquid level control in industrial settings compared to conventional methods."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership Universitas Indonesia Library