UI - Skripsi Membership :: Kembali

UI - Skripsi Membership :: Kembali

Perancangan Pengendalian Ketinggian Air Pada Coupled-Tank MIMO System Berbasis Reinforcement Learning dengan Algoritma Soft Actor-Critic (SAC) = Design of Water Level Control in Coupled-Tank MIMO System Based on Reinforcement Learning with Soft Actor-Critic (SAC) Algorithm

Michael Johannes Nait; Prawito Prajitno, supervisor; Adhi Harmoko Saputro, examiner; Santoso Soekirno, examiner (Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2025)

 Abstrak

Sistem coupled-tank MIMO banyak digunakan dalam industri untuk pengendalian ketinggian fluida dan menjadi platform ideal dalam studi sistem kendali. Metode Proportional-Integral-Derivative (PID) masih menjadi standar dalam pengendalian proses industri, namun memiliki keterbatasan pada sistem nonlinier dan tidak stabil karena memerlukan pemodelan matematis untuk penentuan parameternya. Penelitian ini mengusulkan penggunaan Reinforcement Learning (RL), khususnya algoritma Soft Actor-Critic (SAC), sebagai alternatif pengendali. SAC merupakan algoritma RL berbasis kebijakan stokastik yang mampu mempelajari aksi optimal melalui interaksi dengan lingkungan dan reward-based learning. Sistem dirancang dan diuji menggunakan MATLAB dan Simulink, dengan pengendali PID sebagai pembanding. Evaluasi performa dilakukan berdasarkan parameter overshoot, rise time, settling time, dan steady state error (SSE). Hasil menunjukkan bahwa agen SAC mampu mengendalikan ketinggian air dengan lebih baik dibanding PID dalam aspek overshoot (rata-rata 4,955% pada tangki 1 dan 2,43% pada tangki 2), rise time (32,6 detik pada tangki 1), serta settling time (102,46 detik pada tangki 1 dan 55,06 detik pada tangki 2). Kesimpulannya, SAC unggul dalam kestabilan jangka pendek dengan respons cepat dan akurat, sementara PID lebih baik dalam kestabilan jangka panjang berkat nilai SSE yang sangat kecil.

MIMO coupled-tank systems are widely used in industry for fluid level control and become an ideal platform in the study of control systems. Proportional-Integral-Derivative (PID) method is still the standard in industrial process control, but it has limitations in nonlinear and unstable systems because it requires mathematical modeling for parameter determination. This research proposes the use of Reinforcement Learning (RL), specifically the Soft Actor-Critic (SAC) algorithm, as an alternative controller. SAC is a stochastic policy-based RL algorithm capable of learning optimal actions through interaction with the environment and reward-based learning. The system was designed and tested using MATLAB and Simulink, with the PID controller as a comparison. Performance evaluation is performed based on overshoot, rise time, settling time, and steady state error (SSE) parameters. The results show that the SAC agent is able to control the water level better than the PID in terms of overshoot (average of 4.955% in tank 1 and 2.43% in tank 2), rise time (32.6 seconds in tank 1), and settling time (102.46 seconds in tank 1 and 55.06 seconds in tank 2). In conclusion, SAC excels in short-term stability with fast and accurate response, while PID is better in long-term stability thanks to very small SSE values.

 File Digital: 1

Shelf
 S-Michael Johannes Nait.pdf :: Unduh

LOGIN required

 Metadata

Jenis Koleksi : UI - Skripsi Membership
No. Panggil : S-pdf
Entri utama-Nama orang :
Entri tambahan-Nama orang :
Entri tambahan-Nama badan :
Program Studi :
Subjek :
Penerbitan : Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2025
Bahasa : ind
Sumber Pengatalogan : LIbUI ind rda
Tipe Konten : text
Tipe Media : computer
Tipe Carrier : online resource
Deskripsi Fisik : xiii, 69 pages : illustration + appendix
Naskah Ringkas :
Lembaga Pemilik : Universitas Indonesia
Lokasi : Perpustakaan UI
  • Ketersediaan
  • Ulasan
  • Sampul
No. Panggil No. Barkod Ketersediaan
S-pdf 14-25-67111635 TERSEDIA
Ulasan:
Tidak ada ulasan pada koleksi ini: 9999920574959
Cover