Ditemukan 5 dokumen yang sesuai dengan query
Adam Liwo
Gdansk : TASK , 2018
600 SBAG 22:4 (2018)
Artikel Jurnal Universitas Indonesia Library
Robertus Hudi
"Improvement in this experiment are done for 3 following factors: running time, memory efficiency, and speedup. The speedup result achieved is as close as 100× increase. Naïve parallelization is used on mapping each matrices data to CUDA memories, for each major operation is done in parallel behavior via self-made CUDA kernels to suits the data dimensions. This make up the improvement of 2nd factor, which is memory efficiency. Results for kernels are captured with NVIDIA profiling tools for the increasing number of random targets on 4 transmitter-receiver (PV) combinations (without any knowledge about the approximation of targets direction). All results are taken according to the average running time of kernel calls and speed up for each size of the input, compared with serial and CPU parallel version data of the previous work. Among advanced techniques for the passive radar system’s target association, several experiments have been done based on Probability Hypothetic Density (PHD) function. The complex calculation makes the computation processes a very demanding task to be done, thus, this paper is focused on PHD function performance comparison between preceding attempts to the implementation using a pure C programming language with CUDA library. A further improvement is highly possible within algorithm optimization itself or applying more advanced parallelization technique.
Peningkatan yang dilakukan pada eksperimen ini meliputi 3 faktor: running time, memory efficiency, dan speedup. Hasil pengujian speedup yang diperoleh mencapai setidaknya 100x peningkatan daripada algoritma semula. Paralelisasi naif yang digunakan untuk memetakan setiap matriks data ke dalam memori CUDA, untuk setiap operasi major dilakukan secara paralel dengan CUDA kernel yang didesain mandiri sehingga dapat menyesuaikan secara otomatis dengan dimensi data yang digunakan. Hal ini memungkinkan peningkatan pada faktor yang kedua yaitu memory efficiency. Hasil dari masing-masing kernel diukur menggunakan data yang diambil dari NVIDIA profiling tools untuk data acak yang meningkat dari segi ukuran, dan diimplementasikan pada 4 kombinasi transmitter-reveiver (PV) tanpa mengetahui aproksimasi arah target. Seluruh hasil pengujian kernel diambil berdasarkan rata-rata running time dari pemanggilan kernel dan speed up dari setiap ukuran masukan, dibandingkan dengan implementasi asosiasi target secara serial dan versi paralel pada CPU dari penelitian terdahulu. Diantara teknik tingkat lanjut yang digunakan untuk menentukan asosiasi target pada sistem radar pasif, beberapa percobaan telah dilakukan berdasarkan fungsi Probability Hypothetic Density (PHD). Kalkulasi yang kompleks menghasilkan proses komputasi yang terlalu berat untuk dilakukan, maka dari itu, percobaan ini fokus kepada komparasi performa fungsi PHD antara penelitian-penelitian terdahulu dengan impleentasi fungsi tersebut pada pustaka CUDA menggunakan bahasa pemrograman C. Peningkatan lebih lanjut sangat dimungkinkan melalui optimisasi algoritma PHD sendiri atau menggunakan teknik paralelisasi yang lebih baik."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
T-pdf
UI - Tesis Membership Universitas Indonesia Library
Nayyara Airlangga Raharjo
"Dalam HPC, pemanfaatan GPU untuk kapabilitas pemrosesan paralelnya dapat mempercepat komputasi secara masif, terutama untuk masalah yang embarrassingly parallel. Namun, saat memilih model pemrograman GPU, portabilitas model pemrograman dan sistem vendor GPU harus dipertimbangkan. Untuk memahaminya dengan lebih baik, makalah ini menganalisis waktu eksekusi baseline CUDA, HIP, dan SYCL pada GPU NVIDIA dan AMD. Program UVaFTLE, sebuah program yang digunakan untuk menentukan Lagrangian Coherent Structures melalui ekstraksi Finite-Time Lagrangian Exponents (FTLE), digunakan untuk mengukur waktu eksekusi. Eksperimen ini menunjukkan kinerja CUDA dan SYCL pada kedua platform GPU, yang secara konsisten mengalahkan HIP dalam waktu eksekusi. Upaya untuk mengoptimalkan waktu eksekusi fungsi kernel GPU di seluruh platform juga dilakukan, secara drastis memangkas waktu eksekusi kernel preproc hingga lebih dari 90%. Setelah optimasi, SYCL tetap menjadi yang terbaik, sementara CUDA berada di posisi kedua, dan HIP yang terlihat jelas paling lambat. Makalah ini juga membahas tantangan development yang dihadapi. CUDA dan SYCL membanggakan dokumentasi dan dukungan komunitas yang sangat baik, sementara dokumentasi HIP tertinggal dan tidak memberikan pengalaman development yang positif seperti kedua model lainnya.
In HPC, leveraging GPUs for their parallel processing capabilities can massively accelerate computation, especially for embarrassingly parallel problems. However, when choosing a GPU programming model, one must take into consideration the portability of the programming model and the GPU vendor of their system. To understand them better, this paper analyzes the baseline execution time of CUDA, HIP, and SYCL on both NVIDIA and AMD GPUs. The UVaFTLE program, a program used to determine Lagrangian Coherent Structures through the extraction of Finite-Time Lagrangian Exponents (FTLE), is used to benchmark execution time. The experiment showcases the performance of CUDA and SYCL on both GPU platforms, which consistently beat HIP in execution time. An effort to optimize the execution time of the GPU kernel functions across is made, drastically cutting the execution time of the preproc kernel by over 90%. After the optimizations, SYCL remains as the champion, while CUDA comes second, and HIP is clearly the slowest. This paper also discusses the development challenges encountered. CUDA and SYCL boast excellent documentation and community support, while HIP’s documentation falls behind and does not provide a developer experience as positive as the other two."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Givarrel Veivel Pattiwael
"Dalam HPC, pemanfaatan GPU untuk kapabilitas pemrosesan paralelnya dapat mempercepat komputasi secara masif, terutama untuk masalah yang embarrassingly parallel. Namun, saat memilih model pemrograman GPU, portabilitas model pemrograman dan sistem vendor GPU harus dipertimbangkan. Untuk memahaminya dengan lebih baik, makalah ini menganalisis waktu eksekusi baseline CUDA, HIP, dan SYCL pada GPU NVIDIA dan AMD. Program UVaFTLE, sebuah program yang digunakan untuk menentukan Lagrangian Coherent Structures melalui ekstraksi Finite-Time Lagrangian Exponents (FTLE), digunakan untuk mengukur waktu eksekusi. Eksperimen ini menunjukkan kinerja CUDA dan SYCL pada kedua platform GPU, yang secara konsisten mengalahkan HIP dalam waktu eksekusi. Upaya untuk mengoptimalkan waktu eksekusi fungsi kernel GPU di seluruh platform juga dilakukan, secara drastis memangkas waktu eksekusi kernel preproc hingga lebih dari 90%. Setelah optimasi, SYCL tetap menjadi yang terbaik, sementara CUDA berada di posisi kedua, dan HIP yang terlihat jelas paling lambat. Makalah ini juga membahas tantangan development yang dihadapi. CUDA dan SYCL membanggakan dokumentasi dan dukungan komunitas yang sangat baik, sementara dokumentasi HIP tertinggal dan tidak memberikan pengalaman development yang positif seperti kedua model lainnya.
In HPC, leveraging GPUs for their parallel processing capabilities can massively accelerate computation, especially for embarrassingly parallel problems. However, when choosing a GPU programming model, one must take into consideration the portability of the programming model and the GPU vendor of their system. To understand them better, this paper analyzes the baseline execution time of CUDA, HIP, and SYCL on both NVIDIA and AMD GPUs. The UVaFTLE program, an program used to determine Lagrangian Coherent Structures through extraction of Finite-Time Lagrangian Exponents (FTLE), is used to benchmark execution time. The experiment showcases the performance of CUDA and SYCL on both GPU platforms, which consistently beat HIP in execution time. An effort to optimize the execution time of the GPU kernel functions across is made, drastically cutting the execution time of the preproc kernel by over 90%. After the optimizations, SYCL remains as the champion, while CUDA comes second and HIP is clearly the slowest. This paper also discusses the development challenges encountered. CUDA and SYCL boast excellent documentation and community support, while HIP’s documentation falls behind and does not provide adeveloper experience as positive as the other two."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Valerian Salim
"Dalam HPC, pemanfaatan GPU untuk kapabilitas pemrosesan paralelnya dapat mempercepat komputasi secara masif, terutama untuk masalah yang embarrassingly parallel. Namun, saat memilih model pemrograman GPU, portabilitas model pemrograman dan sistem vendor GPU harus dipertimbangkan. Untuk memahaminya dengan lebih baik, makalah ini menganalisis waktu eksekusi baseline CUDA, HIP, dan SYCL pada GPU NVIDIA dan AMD. Program UVaFTLE, sebuah program yang digunakan untuk menentukan Lagrangian Coherent Structures melalui ekstraksi Finite-Time Lagrangian Exponents (FTLE), digunakan untuk mengukur waktu eksekusi. Eksperimen ini menunjukkan kinerja CUDA dan SYCL pada kedua platform GPU, yang secara konsisten mengalahkan HIP dalam waktu eksekusi. Upaya untuk mengoptimalkan waktu eksekusi fungsi kernel GPU di seluruh platform juga dilakukan, secara drastis memangkas waktu eksekusi kernel preproc hingga lebih dari 90%. Setelah optimasi, SYCL tetap menjadi yang terbaik, sementara CUDA berada di posisi kedua, dan HIP yang terlihat jelas paling lambat. Makalah ini juga membahas tantangan development yang dihadapi. CUDA dan SYCL membanggakan dokumentasi dan dukungan komunitas yang sangat baik, sementara dokumentasi HIP tertinggal dan tidak memberikan pengalaman development yang positif seperti kedua model lainnya.
In HPC, leveraging GPUs for their parallel processing capabilities can massively accelerate computation, especially for embarrassingly parallel problems. However, when choosing a GPU programming model, one must take into consideration the portability of the programming model and the GPU vendor of their system. To understand them better, this paper analyzes the baseline execution time of CUDA, HIP, and SYCL on both NVIDIA and AMD GPUs. The UVaFTLE program, a program used to determine Lagrangian Coherent Structures through the extraction of Finite-Time Lagrangian Exponents (FTLE), is used to benchmark execution time. The experiment showcases the performance of CUDA and SYCL on both GPU platforms, which consistently beat HIP in execution time. An effort to optimize the execution time of the GPU kernel functions across is made, drastically cutting the execution time of the preproc kernel by over 90%. After the optimizations, SYCL remains as the champion, while CUDA comes second, and HIP is clearly the slowest. This paper also discusses the development challenges encountered. CUDA and SYCL boast excellent documentation and community support, while HIP’s documentation falls behind and does not provide a developer experience as positive as the other two. "
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership Universitas Indonesia Library