Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 6 dokumen yang sesuai dengan query
cover
Brian Samuel Matthew
"Skripsi ini menyajikan analisis kinerja komprehensif penyeimbang beban dalam konteks lingkungan Apache CloudStack berbasis Prometheus. Seiring dengan berkembangnya komputasi awan, efisiensi mekanisme penyeimbangan beban memainkan peran penting dalam memastikan pemanfaatan sumber daya yang optimal dan keandalan layanan. Memanfaatkan Prometheus untuk pemantauan dan pengumpulan metrik, penelitian ini bertujuan untuk mengevaluasi kinerja berbagai konfigurasi penyeimbang beban yang diterapkan di Apache CloudStack, serta memberikan analisis terhadap mengapa penyeimbang beban dapat meningkatkan efisiensi distribusi paket sebesar 23%.

This thesis provides a complete performance analysis of load balancers in Prometheus-based Apache CloudStack setups. As cloud computing evolves, the effectiveness of load balancing techniques becomes critical in guaranteeing optimal resource usage and service reliability. Using Prometheus for monitoring and metric collecting, this study seeks to assess the performance of several load balancer configurations implemented in Apache CloudStack, and also providing analysis as to why load balancer can increase the efficiency of traffic distribution by up to 23%."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Fauzul Akbar
"Large Language Model (LLM) generatif merupakan jenis model machine learning yang dapat diaplikasikan dalam industri jurnalisme, khususnya dalam proses pembuatan dan validasi berita. Namun, LLM memerlukan sumber daya yang besar untuk operasionalnya serta membutuhkan waktu proses inferensi yang relatif lama. Penelitian ini bertujuan untuk mengembangkan layanan web machine learning yang memanfaatkan LLM generatif untuk proses pembuatan dan validasi berita. Tujuan lainnya adalah menciptakan sistem dengan mekanisme manajemen beban yang efisien untuk meminimalkan waktu inferensi. Pengembangan melibatkan beberapa tahap, yakni analisis kebutuhan stakeholder, perancangan desain dan arsitektur, implementasi, serta evaluasi. Dalam implementasi layanan web machine learning, pengembangan ini berfokus pada manajemen GPU untuk meningkatkan kecepatan proses inferensi LLM. Selain itu, dilakukan implementasi design pattern untuk meningkatkan skalabilitas dalam penambahan model machine learning. Untuk manajemen beban, dikembangkan dua mekanisme, yaitu load balancer dan scheduler. Implementasi load balancer memanfaatkan NGINX dengan metode round-robin. Sedangkan untuk scheduler, digunakan RabbitMQ sebagai antrean, dengan publisher menerima permintaan dan subscriber mendistribusikan permintaan ke layanan yang tersedia. Berdasarkan API Test, layanan ini berhasil melewati uji fungsionalitas dengan waktu respons API sekitar 1-2 menit per permintaan. Evaluasi performa pada kedua mekanisme manajemen beban menunjukkan tingkat keberhasilan 100%, dengan waktu respon rata-rata meningkat seiring dengan peningkatan jumlah request per detik. Pengelolaan beban dengan load balancer menghasilkan waktu respon yang lebih cepat, sementara pengelolaan beban dengan scheduler menghasilkan mekanisme yang lebih efektif pada proses koneksi asinkron.

Generative Large Language Model (LLM) is a type of machine learning model that can be applied in the journalism industry, especially in the process of news generation and validation. However, LLM requires large resources for its operation and requires a relatively long inference process time. This research aims to develop a machine learning web service that utilizes generative LLM for news generation and validation. Another goal is to create a system with an efficient load management mechanism to minimize inference time. The development involves several stages, namely stakeholder needs analysis, design and architecture, implementation, and evaluation. In the implementation of machine learning web services, this development focuses on GPU management to increase the speed of the LLM inference process. In addition, the implementation of design patterns is done to improve scalability in adding machine learning models. For load management, two mechanisms are developed: load balancer and scheduler. The load balancer implementation utilizes NGINX with the round-robin method. As for the scheduler, RabbitMQ is used as a queue, with the publisher receiving requests and the subscriber distributing requests to available services. Based on the API Test, the service successfully passed the functionality test with an API response time of about 1-2 minutes per request. Performance evaluation on both load management mechanisms showed a 100% success rate, with the average response time increasing as the number of requests per second increased. The use of a load balancer results in faster response times, while load management with a scheduler results in a more effective mechanism for asynchronous connection processes. "
Depok: Fakultas Ilmu Komputer Universitas Indonesia , 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Christopher Ekaputra Loe
"Learning Management System (LMS) telah banyak digunakan di universitas di seluruh dunia. Penelitian ini bertujuan untuk mengembangkan LMS yang dapat digunakan secara umum. LMS yang dikembangkan diintegrasikan dengan kemampuan video streaming untuk meningkatkan pemahaman dan retensi materi oleh pelajar. Selain itu, diperlukan mekanisme load balancing yang efektif menggunakan NGINX untuk menangani jumlah permintaan yang besar dan mencakup pengguna yang lebih luas. Penelitian ini berhasil menghasilkan LMS yang dapat menunjang pembelajaran dengan fitur-fitur yang berfungsi baik dan mudah digunakan. Pengujian dengan NGINX sebagai load balancer menunjukkan bahwa sistem mampu menangani berbagai skenario permintaan dengan respons yang memadai. Sistem ini juga mampu memberikan pengalaman streaming yang lancar dan berkualitas tinggi. Hasil pengujian ini memberikan keyakinan bahwa LMS yang dikembangkan mampu memenuhi standar kualitas yang diharapkan dan dapat diandalkan untuk penggunaan intensif, memberikan pengalaman belajar yang optimal bagi pengguna.

Learning Management Systems (LMS) have been widely used in universities around the world. This research aims to develop an LMS that can be used universally. The developed LMS integrates video streaming capabilities to enhance students' understanding and retention of material. Additionally, an effective load balancing mechanism using NGINX is required to handle a large number of requests and accommodate a broader user base. This research successfully produced an LMS that can support learning with well-functioning and user-friendly features. Testing with NGINX as a load balancer demonstrated that the system could handle various request scenarios with adequate response times. The system also provides a smooth and high-quality streaming experience. These test results provide confidence that the developed LMS can meet expected quality standards and be reliable for intensive use, offering an optimal learning experience for users."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Jeremy Christianto
"Learning Management System (LMS) telah banyak digunakan di universitas di seluruh dunia. Penelitian ini bertujuan untuk mengembangkan LMS yang dapat digunakan secara umum. LMS yang dikembangkan diintegrasikan dengan kemampuan video streaming untuk meningkatkan pemahaman dan retensi materi oleh pelajar. Selain itu, diperlukan mekanisme load balancing yang efektif menggunakan NGINX untuk menangani jumlah permintaan yang besar dan mencakup pengguna yang lebih luas. Penelitian ini berhasil menghasilkan LMS yang dapat menunjang pembelajaran dengan fitur-fitur yang berfungsi baik dan mudah digunakan. Pengujian dengan NGINX sebagai load balancer menunjukkan bahwa sistem mampu menangani berbagai skenario permintaan dengan respons yang memadai. Sistem ini juga mampu memberikan pengalaman streaming yang lancar dan berkualitas tinggi. Hasil pengujian ini memberikan keyakinan bahwa LMS yang dikembangkan mampu memenuhi standar kualitas yang diharapkan dan dapat diandalkan untuk penggunaan intensif, memberikan pengalaman belajar yang optimal bagi pengguna.

Learning Management Systems (LMS) have been widely used in universities around the world. This research aims to develop an LMS that can be used universally. The developed LMS integrates video streaming capabilities to enhance students' understanding and retention of material. Additionally, an effective load balancing mechanism using NGINX is required to handle a large number of requests and accommodate a broader user base. This research successfully produced an LMS that can support learning with well-functioning and user-friendly features. Testing with NGINX as a load balancer demonstrated that the system could handle various request scenarios with adequate response times. The system also provides a smooth and high-quality streaming experience. These test results provide confidence that the developed LMS can meet expected quality standards and be reliable for intensive use, offering an optimal learning experience for users."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Farhan Hanif Saefuddin
"Learning Management System (LMS) telah banyak digunakan di universitas di seluruh dunia. Penelitian ini bertujuan untuk mengembangkan LMS yang dapat digunakan secara umum. LMS yang dikembangkan diintegrasikan dengan kemampuan video streaming untuk meningkatkan pemahaman dan retensi materi oleh pelajar. Selain itu, diperlukan mekanisme load balancing yang efektif menggunakan NGINX untuk menangani jumlah permintaan yang besar dan mencakup pengguna yang lebih luas. Penelitian ini berhasil menghasilkan LMS yang dapat menunjang pembelajaran dengan fitur-fitur yang berfungsi baik dan mudah digunakan. Pengujian dengan NGINX sebagai load balancer menunjukkan bahwa sistem mampu menangani berbagai skenario permintaan dengan respons yang memadai. Sistem ini juga mampu memberikan pengalaman streaming yang lancar dan berkualitas tinggi. Hasil pengujian ini memberikan keyakinan bahwa LMS yang dikembangkan mampu memenuhi standar kualitas yang diharapkan dan dapat diandalkan untuk penggunaan intensif, memberikan pengalaman belajar yang optimal bagi pengguna.

Learning Management Systems (LMS) have been widely used in universities around the world. This research aims to develop an LMS that can be used universally. The developed LMS integrates video streaming capabilities to enhance students' understanding and retention of material. Additionally, an effective load balancing mechanism using NGINX is required to handle a large number of requests and accommodate a broader user base. This research successfully produced an LMS that can support learning with well-functioning and user-friendly features. Testing with NGINX as a load balancer demonstrated that the system could handle various request scenarios with adequate response times. The system also provides a smooth and high-quality streaming experience. These test results provide confidence that the developed LMS can meet expected quality standards and be reliable for intensive use, offering an optimal learning experience for users."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sulthan Afif Althaf
"Large Language Model (LLM) generatif merupakan jenis model machine learning yang dapat diaplikasikan dalam industri jurnalisme, khususnya dalam proses pembuatan dan validasi berita. Namun, LLM memerlukan sumber daya yang besar untuk operasionalnya serta membutuhkan waktu proses inferensi yang relatif lama. Penelitian ini bertujuan untuk mengembangkan layanan web machine learning yang memanfaatkan LLM generatif untuk proses pembuatan dan validasi berita. Tujuan lainnya adalah menciptakan sistem dengan mekanisme manajemen beban yang efisien untuk meminimalkan waktu inferensi. Pengembangan melibatkan beberapa tahap, yakni analisis kebutuhan stakeholder, perancangan desain dan arsitektur, implementasi, serta evaluasi. Dalam implementasi layanan web machine learning, pengembangan ini berfokus pada manajemen GPU untuk meningkatkan kecepatan proses inferensi LLM. Selain itu, dilakukan implementasi design pattern untuk meningkatkan skalabilitas dalam penambahan model machine learning. Untuk manajemen beban, dikembangkan dua mekanisme, yaitu load balancer dan scheduler. Implementasi load balancer memanfaatkan NGINX dengan metode round-robin. Sedangkan untuk scheduler, digunakan RabbitMQ sebagai antrean, dengan publisher menerima permintaan dan subscriber mendistribusikan permintaan ke layanan yang tersedia. Berdasarkan API Test, layanan ini berhasil melewati uji fungsionalitas dengan waktu respons API sekitar 1-2 menit per permintaan. Evaluasi performa pada kedua mekanisme manajemen beban menunjukkan tingkat keberhasilan 100%, dengan waktu respon rata-rata meningkat seiring dengan peningkatan jumlah request per detik. Pengelolaan beban dengan load balancer menghasilkan waktu respon yang lebih cepat, sementara pengelolaan beban dengan scheduler menghasilkan mekanisme yang lebih efektif pada proses koneksi asinkron.

Generative Large Language Model (LLM) is a type of machine learning model that can be applied in the journalism industry, especially in the process of news generation and validation. However, LLM requires large resources for its operation and requires a relatively long inference process time. This research aims to develop a machine learning web service that utilizes generative LLM for news generation and validation. Another goal is to create a system with an efficient load management mechanism to minimize inference time. The development involves several stages, namely stakeholder needs analysis, design and architecture, implementation, and evaluation. In the implementation of machine learning web services, this development focuses on GPU management to increase the speed of the LLM inference process. In addition, the implementation of design patterns is done to improve scalability in adding machine learning models. For load management, two mechanisms are developed: load balancer and scheduler. The load balancer implementation utilizes NGINX with the round-robin method. As for the scheduler, RabbitMQ is used as a queue, with the publisher receiving requests and the subscriber distributing requests to available services. Based on the API Test, the service successfully passed the functionality test with an API response time of about 1-2 minutes per request. Performance evaluation on both load management mechanisms showed a 100% success rate, with the average response time increasing as the number of requests per second increased. The use of a load balancer results in faster response times, while load management with a scheduler results in a more effective mechanism for asynchronous connection processes."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library