Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 3 dokumen yang sesuai dengan query
cover
Muhammad Mawwalmazie Agitiananda
"Dengan evolusi teknologi yang pesat, kebutuhan dalam mengolah/membuat data, sumber komputasi, serta kapasitas layanan digital telah membengkak secara eksponensial. Kebutuhan tersebut telah melampaui kecepatan perkembangan infrastruktur yang ada secara fisik, sehingga dilakukan adaptasi dengan mengadopsi komputasi awan (Cloud Computing) secara global sebagai alternatif yang bisa diatur skalanya serta menghemat biaya secara signifikan. Fitur yang mengatur skala komputasi awan, disebut scalability, merupakan fitur penting yang menyesuaikan sumber daya digital secara dinamis sebagai respons langsung dari beban kerja (workload) yang fluktuatif. Performa dari sistem yang mengatur skala sistem Cloud secara otomatis, disebut Autoscaling, berpengaruh dari beberapa faktor termasuk batas scaling, akurasi dari prediksi traffic, termasuk pengetahuan dari topologi sistem. Dengan sistem autoscaling yang sudah melakukan tuning, hal tersebut akan memperkecil frekuensi terjadinya gangguan seperti packet-loss dan/atau latency yang berlebihan dari sistem cloud. Studi ini berfokus kepada evaluasi performa dari sistem autoscaling untuk tools instrumentasi private cloud yang bersifat open-source, menggunakan analisis perbandingan untuk menilai efektifitas dari implementasi autoscaling, mencari batasan tertentu serta potensi improvement dari tools yang ada. Dan Hasil pengujian pada platform Apache CloudStack menunjukkan bahwa mekanisme autoscaling dapat meningkatkan performa sistem secara dinamis. Berdasarkan lima metrik utama—waktu respon, penggunaan CPU, penggunaan RAM, throughput, dan error rate—diperoleh rata-rata waktu respon sebesar 1.143 ms, CPU usage 62,8%, dan RAM usage 6.957MB. Throughput sistem tercatat stabil pada 120 request/detik, dengan error rate mendekati 1%. Temuan ini menunjukkan bahwa CloudStack mampu mempertahankan kinerja yang efisien dan stabil saat terjadi lonjakan beban.

With the rapid evolution of technology, the demand for data processing, computational resources, and digital service capacity has grown exponentially. This demand has outpaced the capabilities of existing physical infrastructure, prompting global adaptation through the adoption of cloud computing as a scalable and significantly cost-efficient alternative. The feature responsible for adjusting the scale of cloud computing resources, known as scalability, plays a crucial role in dynamically aligning digital resources in response to fluctuating workloads. The performance of systems that automatically manage scaling in cloud environments, known as autoscaling, is influenced by several factors including scaling thresholds, the accuracy of traffic prediction, and knowledge of system topology. A well-tuned autoscaling systems can reduce the frequency of disruptions such as packet loss and/or excessive latency in cloud systems. This study focuses on evaluating the performance of autoscaling systems within open-source cloud instrumentation tools, using comparative analysis to assess the effectiveness of existing autoscaling implementations, identify specific limitations, and explore potential improvements. The test results on the Apache CloudStack platform demonstrate that the autoscaling mechanism can dynamically improve system performance. Based on five key metrics—response time, CPU usage, RAM usage, throughput, and error rate—the average response time was recorded at 1.143 ms, CPU usage at 62,8%, and RAM usage at 6.957MB. The system throughput remained stable at 120 requests per second, with an error rate close to 1%. These findings indicate that CloudStack can maintain efficient and stable performance under fluctuating loads."
Depok: Fakultas Teknik Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Binar Qalbu Cimuema
"

Berbeda dengan arsitektur monolith, arsitektur microservice dapat melakukan scaling secara independen pada service tertentu saja, memberikan fleksibilitas yang lebih besar dalam menanggapi lonjakan traffic dan tentunya lebih menghemat resource dibanding monolith. Tidak semua service pada suatu aplikasi perlu dilakukan scaling, hanya service dengan load processing tertinggi saat menerima banyak request yang perlu dilakukan horizontal scaling untuk menghemat resource. Tetapi penentuan service yang harus dilakukan scaling harus dilakukan secara benar agar sesuai dengan kebutuhan pengguna. Salah satu metode yang bisa digunakan adalah Customer Behavior Model Graph (CBMG) dengan melihat probabilitas perpindahan halaman yang dilakukan oleh pengguna. Dari metode tersebut dapat ditemukan halaman yang paling sering diakses oleh pengguna sebelum akhirnya ditentukan service dengan load processing tertinggi. Salah satu teknik yang dimiliki oleh kubernetes adalah Horizontal Pod Autoscaling (HPA) yang memungkinkan untuk melakukan scaling hanya pada salah satu pod. Pada kubernetes, service lebih dikenal sebagai pod. Dari pengimplementasian HPA didapatkan bahwa pada percobaan terjadi penurunan access failure rate dari sebelum implementasi sebesar 17.19% dan 20.52% dan setelah implementasi turun menjadi 4.86% dan 5.44%. Selain itu terdapat kenaikan throughput pada percobaan dari sebelum implementasi sebesar 25.00 request/detik dan 41.30 request/detik, setelah implementasi didapatkan sebesar 39.30 request/detik dan 51.10 request/detik. Pada percobaan lainnya didapatkan sebelum implementasi sebesar 4.60 request/detik dan 4.20 request/detik, setelah implementasi didapatkan sebesar 15.50 request/detik dan 13.80 request/detik. Dari hasil implementasi bisa dilihat bahwa melakukan peningkatan pada salah satu pod sudah cukup untuk meningkatkan kinerja aplikasi website dengan resource yang tersedia dan dapat dioptimalkan dengan maksimal. Implementasi dilakukan pada salah satu aplikasi website microservice teastore, dengan strategi scaling berdasarkan CBMG, optimasi yg dilakukan berhasil menurunkan access failure rate dan meningkatkan throughput, meksipun menggunakan jumlah resource yang sama. dengan kata lain, setelah strategi yang dirancang diimplementasikan, penggunaan resource menjadi lebih optimal untuk melayani request-request yang ada.


Unlike monolithic architecture, microservice architecture can independently scale specific services, providing greater flexibility in responding to traffic spikes and, of course, saving more resources compared to monoliths. Not all services in an application need to be scaled; only pods with the highest load processing when receiving many requests need to be horizontally scaled to save resources. However, determining which services need scaling must be done properly to meet user needs. One method that can be used is the Customer Behavior Model Graph (CBMG), which looks at the probability of user page transitions. From this method, the most frequently accessed pages by users can be identified before determining the service with the highest load processing. One technique available in Kubernetes is Horizontal Pod Autoscaling (HPA), which allows scaling to be done only on specific pods. From the implementation of HPA, it was found that there was a decrease in the access failure rate from before implementation by 17.19% and 20.52%, and after implementation, it decreased to 4.86% and 5.44%. Additionally, there was an increase in throughput from before implementation by 25.00 requests/second and 41.30 requests/second, after implementation, it was found to be 39.30 requests/second and 51.10 requests/second. In another experiment, before implementation was 4.60 requests/second and 4.20 requests/second, after implementation, it was 15.50 requests/second and 13.80 requests/second. Improving the performance of one pod is sufficient to enhance the performance of the website application with the available resources and can be optimized to the maximum. The implementation was carried out on one microservice website application, making it better than monolithic architecture, which needs to scale the entire application."
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Alfian Firmansyah
"Internet of Things merupakan teknologi perangkat terkoneksi yang memiliki angka pertumbuhan terpesat di dunia. Pada tahun 2020, perangkat IoT yang telah terkoneksi mencapai 31 miliar perangkat dan masih terus meningkat, sehingga teknologi ini akan mengubah cara hidup kita setelah hadirnya internet sebagai pionir. Hal tersebut mengakibatkan semakin kompleksnya diversifikasi topik IoT baru, mekanisme protokol, dan karakteristik perangkat keras yang terhubung pada infrastruktur server IoT. Indonesia akan segera mengimplementasikan 5G sebagai teknologi jaringan nirkabel generasi ke-5, sehingga hal ini mendorong adanya adaptasi yang dilakukan terhadap infrastruktur IoT pada cloud computing. Integrasi ini akan membuka sebuah ekosistem inovasi produk smart devices baru, baik itu produk skala kecil yang dilakukan oleh perorangan dan komunitas, maupun skala besar oleh sektor usaha, industri dan pemerintahan. Maka, dibutuhkan sebuah aplikasi IoT sebagai middleware, penghimpun data, router addressing ID unik, pemvisualisasi data, dan penganalisis ribuan bahkan jutaan perangkat IoT yang terkoneksi. Penyebaran arsitektur monolithic sudah perlahan ditinggalkan, melainkan mengubah pendekatan operasinya dengan menggunakan arsitektur microservice dengan containerization yang menawarkan fleksibilitas, pengembangan yang cepat, performa yang kuat dan loosely-coupled. Supaya pendekatan bersifat kontinyu, maka Continuous Integration dan Continuous Deployment Pipeline atau CI/CD Pipeline digunakan sebagai Software Development Life Cycle. Secara garis besar, penelitian ini membahas usulan arsitektur server IoT dengan Kubernetes dan aplikasinya, proses deployment secara CI/CD, analisis performa utilisasi dan autoscaling pada kubernetes cluster saat load tests sedang dijalankan, analisis berbasis model terhadap hasil metrik yang didapatkan guna meningkatkan performa deployment dari perspektif aplikasi IoT dengan akses request skala besar.

The Internet of Things is a connected device technology that has a rapid growth rate in the world. In 2020, there are 31 billion connected IoT devices and still increasing, thus this technology will change the way we live after the presence of the internet as a pioneer. We are getting more diversification of new IoT topics, protocol mechanisms, and characteristics of the hardware connected to the IoT server infrastructure becoming increasingly complex. Indonesia will soon implement the 5G as the fifth generation of wireless network technology, thus this will encourage adaptations to be made to the Indonesian IoT infrastructure in cloud computing. This integration will open an innovative ecosystem for new smart device products, both small-scale products carried out by individuals and communities, as well as large-scale by the business sector, industries and government as well. Therefore, an IoT application is needed as a middleware, data collector, unique-ID addressing router, data visualizer, and analyzer of thousands or even millions of connected IoT devices. Deployment of monolithic architectures is slowly being abandoned, instead changing its operating approach by using a microservice architecture with containerization that offers flexibility, fast development, robust performance, and loosely-coupled. To maximize the approach to be continuous, the Continuous Integration and Continuous Deployment Pipeline or CI/CD Pipeline are used as the Software Development Life Cycle. Broadly speaking, this research discusses the architectural design of IoT over Kubernetes and its applications, CI/CD deployment processes, performance analysis of the autoscaling during incoming traffic from running load tests, model-based analysis in accordance with metric results to enhance the deployment performance of IoT applications with large-scale request accesses perspective."
Depok: Fakultas Teknik Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library