Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 175338 dokumen yang sesuai dengan query
cover
Tomi Wirianata
"ABSTRAK
Pada skripsi ini telah dibangun infrastruktur cloud dengan menggunakan Openstack platform. Openstack menjanjikan infrastruktur yang scalable yang menjadikan platform cloud ini digemari banyak pengguna cloud. Tujuan dari skripsi ini adalah untuk mempelajari kinerja jaringan OpenStack berdasarkan implementasi Neutron dan memberikan rekomendasi rancangan jaringan optimal untuk integrasi high performance computing. Parameter kinerja jaringan seperti throughput, packet loss dan latency akan dievaluasi berdasarkan transmisi data TCP dan UDP dengan menggunakan alat benchmark IPerf. Hasil dari eksperimen menunjukkan kinerja Openstack hampir tidak memiliki hambatan dalam penggunaan bandwidth jaringan. Hasil penelitian juga menunjukkan bahwa lokasi virtual machine di instansiasi dan alamat jaringan akan mempengaruhi kinerja jaringan. Skripsi ini juga akan membahas alur yang digunakan untuk menganalisa perbedaan hasil kinerja jaringan virtual machine pada cloud serta menampilkan hasil pengolahan data kinerja jaringan yang kemudian akan memberikan rancangan cloud yang optimal untuk integrasi high performance computing.

ABSTRACT
In this thesis, a cloud infrastructure is built using Openstack platform. Openstack promises a scalable infrastructure that makes this platform as favourite for cloud users. The purpose of this thesis is to study the performance of Openstack network based on the implementation of Neutron to provide recommendations of the optimal network design for the integration of high performance computing. Network performance parameters such as throughput, packet loss and latency will be evaluated based on TCP and UDP transmission data using IPerf benchmarking tool. The result of the experiments show that Openstack performance have no network bandwidth bottleneck. The result also show that the location where virtual machine is instantiate and network address will affect network performance. This thesis will also discuss the flow used to analyze the differences in virtual machine network performance results in the cloud and display the results of virtual machine network performance which will then provide an optimal cloud design for the integration of high performance computing."
2017
S67603
UI - Skripsi Membership  Universitas Indonesia Library
cover
Pandu Wicaksono
"ABSTRAK
Teknologi di bidang perangkat lunak dan perangkat keras semakin berkembang cepat. Masalah keterbatasan kapasitas suatu komputer memicu berkembangnya sebuah inovasi yang disebut dengan High Performance Computing HPC . HPC merupakan sekumpulan komputer yang digabungkan dalam sebuah jaringan dan dikoordinasi oleh software khusus. Cloud Computing merupakan paradigma yang relatif baru dalam bidang komputasi. Pada penelitian ini dilakukan pengujian terhadap performansi High Performance Computing Cluster HPCC berbasis cloud menggunakan layanan OpenStack dalam menjalankan fungsi dasar Message Passing Interface. Pengujian dilakukan menggunakan program Mpptest dan SIMPLE-O. Penggunaan server yang tidak mendukung hypervisor KVM pada pengujian point-to-point communication dapat menurunkan performansi HPCC berbasis cloud sebesar 3,1 - 12,4 dibandingkan dengan HPCC berbasis non-cloud. Pada pengujian point-to-point communication dengan 2 server yang mendukung hypervisor KVM, HPCC berbasis cloud unggul dibandingkan HPCC berbasis non-cloud sebesar 1,6 ndash; 2,7 . Pada pengujian performansi HPCC dalam melakukan fungsi MPI collective communication tidak ditemukan perbedaan berarti antara kedua cluster dimana HPCC berbasis non-cloud mengungguli HPCC berbasis cloud sebesar 0 - 1,4 . Pada pengujian menggunakan program SIMPLE-O didapati performansi HPCC berbasis cloud dan non-cloud imbang jika semua instance dijalankan dengan server yang mendukung hypervisor KVM, apabila terdapat instance yang dijalankan server tanpa dukungan KVM maka HPCC berbasis non-cloud unggul 96,2 dibandingkan HPCC berbasis cloud. Ketersedian modul KVM pada server yang menjadi host suatu instance sangat berpengaruh terhadap performansi HPCC berbasis cloud.

ABSTRACT
Software and hardware technologies have been developing rapidly. Capacity limation problems found in computers triggered a development of a new innovation called High Performance Computing HPC . HPC is a cluster of computers in a network coordinated by a special software. Cloud Computing is a new paradigm in computation field. In this research, series of test are done to find out the performance of cloud and non cloud based High Performance Computing Cluster HPCC while running basic functions of Message Passing Interface. Tests are done using Mpptest and SIMPLE O program. By using a server that does not support KVM in point to point communication test could decrease the performance of cloud based HPCC by 3,1 to 12,4 compared to non cloud based HPCC. During the test of point to point communication using 2 servers that support KVM hypervisor, cloud based HPCC is ahead of non cloud based HPCC by 1,6 to 2,7 . During the test of collective communication, there are no significant differences between performances of the two cluster, with non cloud based HPCC is ahead by 0 to 1,4 compared to cloud based HPCC. During the test using SIMPLE O program, the two cluster is even in term of performance as long as every instance is run by servers that support KVM hypervisor, if there is an instance that is run by a server that does not support KVM hypervisor then the performance of non cloud based HPCC is still ahead by 96,2 compared to cloud based HPCC. During the performance testing of HPCC while running collective communication, noticable performance difference between cloud and non cloud based HPCC was not found. The availability of KVM module in a server that is used to host an instance is really essential to the cloud based HPCC performance."
2017
S66989
UI - Skripsi Membership  Universitas Indonesia Library
cover
Laili Gita
"Data kehadiran adalah data yang penting baik di lingkup sekolah, universitas, maupun perkantoran untuk karyawan. Presensi yang berupa tandatangan dapat dipalsukan oleh siapa saja dan kapan saja. Sehingga dibutuhkan sebuah perangkat yang dapat mempermudah proses absensi sekaligus mendeteksi keterlambatan siswa/pegawai sebelum memasuki ruangan. Skripsi ini mengembangkan Smart Presence System berbasis Face Recognition dengan machine learning yang dirancang dengan komputasi pada awan (Cloud Computing) dan komputasi pada sebuah node/titik (Fog Computing). Skripsi ini melakukan perbandingan performa Smart Presence System yang dibangun dengan Cloud Computing menggunakan layanan AWS Face Rekognition dan Fog Computing yang ditulis menggunakan bahasa Python dengan library OpenCV yang menggunakan perangkat Raspberry Pi sebagai titik komputasi. Penulis telah melakukan pengujian perbandingan waktu komputasi, penggunaan memori, serta penggunaan biaya antara Cloud Computing dan Fog Computing. Pengujian waktu komputasi dilakukan dengan menggeser router/titik uji sejauh 3 meter, 5 meter dan 7 meter dari sensor kamera. Pengujian waktu komputasi pada Cloud Computing didpat sebesar 11.02 detik, 2.99 detik dan 3.02 detik dengan total penggunaan memori sebesar 0.0042 MB dan total biaya yang diperlukan untuk membangun rancangan Cloud Computing sebesar Rp2.819.516 dalam penggunaan 12 bulan. Dan rata-rata waktu untuk komputasi pada fog sebesar 0.723 detik, 0.99 detik, 1.94 detik dengan total penggunaan memori sebesar 540MB dan total biaya untuk membangun rancangan ini sebesar Rp2.220.00 dalam penggunaan 12 bulan.

Attendance document is an important thing in schools, universities, and offices for employees. Attendance is usually done by giving a signature on a piece of paper, and it can be forged by anyone. In school, attendance is usually done manually by the teacher and it takes time. So we need a device that can simplify the attendance process and can not be forged. This thesis has developed a Smart Presence System with machine learing designed with Cloud Computing and Fog Computing. This Thesis compared the performance of The Smart Presence System that built with Cloud Computing using AWS Rekognition and Fog Computing that built in Raspberry pi and written in python and library Opencv. The author has tested the comparison of Cloud Computing and Fog Computing in Computing Time, Memory usage and Cost. Computing time testing is done by shifting the router/test point as far as 3 meters, 5 meters, and 7 meters. The computing time on Cloud Computing were 11.02s, 2.99s, and 3.02s with total memory usage of 0.0042MB and the total cost is Rp.2.819.516 in 12 months of use. And The computing time on Fog Computing were o.72s, 0.99s, and 1.94s with the total memory usage of 540MB and the total cost to build this architecture is Rp2.220.000 in 12 months of use.
"
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ni Made Dwi Warsiani
"Private Cloud merupakan pemodelan teknologi Cloud Computing yang hanya memberikan layanan kepada pengguna tertentu. Kebutuhan akan performa server yang baik, tentunya mempengaruhi layanan yang ditawarkan suatu provider cloud kepada penggunanya. Oleh karena itu, pembuatan Cloud Computing dengan memilih layanan Private Cloud pada skripsi ini dilakukan dengan membuat simulasi nyata pada jaringan fisik menggunakan CentOS dengan Eucalyptus di dalamnya. Metode instalasi menggunakan konfigurasi Cloud in a Box. Lima pengujian diimplementasikan untuk mengetahui performa server Private Cloud ini. Instances dibuat sibuk seolah-olah menjalankan sebuah aplikasi sehingga terlihat kinerja dari server cloud. Parameter pengujian yang digunakan untuk pengukuran performa server adalah Load Average, CPU Usage dan Memory Usage.
Dari hasil pengukuran menunjukkan bahwa parameter Load Average dengan load tertinggi sebesar 4,35 satuan proses dan CPU Usage tertinggi mencapai nilai 95,04% ketika seluruh instance aktif menjalankan aplikasi. Memory usage server mencapai 4740,95 MB dan untuk seluruh instance menggunakan memori sebesar 29,37% dari penggunaan memori pada server. Tiga parameter di atas menunjukkan kesesuaian server cloud dalam menangani pengguna pada jaringan privat IaaS ini dengan konsep Cloud IaaS pada umumnya.

Private Cloud is a technology model of Cloud computing that only provide service to a particular user. Requirement for a good server performance, of course, affect the service offered to the user of a cloud provider. Therefore, making cloud computing by choosing a Private Cloud service in this thesis was to create a simulation of the real physical network using CentOS with Eucalyptus in it. Installation method using configuration Cloud in a Box. Five tests are implemented to determine the performance of the server's Private Cloud. Instances kept busy as running an application and visible the performance of the server cloud. Testing parameters used to measure the performance of the server is the Load Average, CPU Usage and Memory Usage.
From the measurement results indicate that the parameter Load Average with the highest load of 4.35 units and the highest CPU usage reaches 95.04% when all active instances running the application. Memory usage of server and to achieve 4740.95 MB memory instances amounting to 29.37%. Three parameters above indicates suitability of cloud servers to handle the user's private network to the concept of Cloud IaaS IaaS in general.
"
Depok: Fakultas Teknik Universitas Indonesia, 2013
S52589
UI - Skripsi Membership  Universitas Indonesia Library
cover
Velte, Anthony T.
New York: McGraw-Hill, 2010
006.78 VEL c
Buku Teks SO  Universitas Indonesia Library
cover
Crookes, David
Unites States: Financial World, 2012
004.678 2 CRO c
Buku Teks SO  Universitas Indonesia Library
cover
Marinescu, Dan C.
""The first chapter gives an overview of cloud computing at a level accessible to a lay person. To motivate the reasons for a paradigm shift in the way we compute and store information, we introduce the concept of network-centric computing and network-centric content. A brief discussion of peer-to-peer systems, a first step in the shift from local to remote data storage and processing follows. The chapter continues with a discussion of technological advances that have made cloud computing possible and of the economical reasons why this new paradigm is attractive for many users and applications. Then we take a closer look at the cloud computing delivery models, Software as a Service (SaaS), Platform as a Service (PaaS), and Infrastructure as a Service (IaaS). SaaS gives the users capability to use applications supplied by the service provider but allows no control of the platform or the infrastructure. PaaS gives the capability to deploy consumer-created or acquired applications using programming languages and tools supported by the provider. IaaS allows the user to deploy and run arbitrary software, which can include operating systems and applications. The new paradigm raises ethical questions and has significant vulnerabilities each dissected in separate sections. Finally, the chapter presents the major challenges faced by this new paradigm. The chapter concludes with a overview of the literature and with a historic perspective"--"
Amsterdam: Elsevier , 2013
004.678 2 MAR c
Buku Teks SO  Universitas Indonesia Library
cover
Lababan, Tara Mazaya
"Penelitian ini menganalisis dampak dari penggunaan Virtual Machine (VM), container, dan bare-metal terhadap performa Graphics Processing Unit (GPU) dengan memanfaatkan VM pada OpenStack Nova, container pada OpenStack Zun, dan bare-metal pada OpenStack Ironic. Metode virtualisasi GPU yang digunakan pada penelitian ini adalah GPU passthrough. Pengukuran performa GPU dilakukan dengan menggunakan aplikasi Glmark2 untuk menguji performa graphic rendering, Phoronix NAMD untuk menguji performa simulasi molekuler, dan Phoronix PyTorch untuk menguji performa training model. Hasil analisis menunjukkan bahwa penggunaan VM pada OpenStack Nova mengakibatkan penurunan performa GPU sebesar 15.5% pada Glmark2, 44.0% pada Phoronix NAMD, dan 8.4% pada Phoronix PyTorch. Penggunaan container pada Open Stack Zun mengakibatkan penurunan performa GPU sebesar 5.8% pada Glmark2 dan 19.7% pada Phoronix NAMD, tetapi tak ada perbedaan signifikan pada Phoronix PyTorch jika dibandingkan dengan physical machine (α = 0.05). Penggunaan bare-metal pada OpenStack Ironic mengakibatkan penurunan performa sebesar 1.5% pada Phoronix NAMD dan peningkatan tak signifikan sebesar -6.2% pada Phoronix PyTorch. Pengujian Glmark2 pada OpenStack Ironic dengan perlakuan yang sama seperti benchmark lainnya menunjukkan adanya penurunan performa sebesar 8.7%. Namun, perlakuan khusus pada Glmark2 OpenStack Ironic menunjukkan peningkatan performa sebesar -1.0% pada resolusi 1920x1080 jika dibandingkan dengan physical machine. Perlakuan khusus ini berupa menjalankan dummy Glmark2 dengan resolusi yang sangat rendah dan Glmark2 utama secara bersamaan. Berdasarkan hasil penelitian, dapat disimpulkan bahwa urutan computing resource dengan penurunan performa GPU yang paling minimal adalah penggunaan bare-metal OpenStack Ironic, diikuti dengan penggunaan container OpenStack Zun, dan diikuti dengan penggunaan VM OpenStack Nova.

This research analyzes the effects of Virtual Machine (VM), containers, and bare-metal usage on Graphics Processing Unit (GPU) performance, using VMs provided by OpenStack Nova, containers provided by OpenStack Zun, and bare-metal provided by OpenStack Ironic. The GPU virtualization method employed in this paper is GPU passthrough. GPU performance is measured using multiple benchmark applications, those being Glmark2 to measure graphic rendering performance, Phoronix NAMD to measure molecular simulation performance, and Phoronix PyTorch to measure training model performance. The results of our analysis shows that the usage of OpenStack Nova’s VMs causes GPU performance slowdown of up to 15.5% on Glmark2, 44.0% on Phoronix NAMD and 8.4% on Phoronix PyTorch. Using OpenStack Zun’s containers also causes GPU performance slowdowns of up to 5.8% on Glmark2 and 19.7% on Phoronix NAMD, with no significant changes on GPU performance with Phoronix PyTorch compared to the physical machine (α = 0.05). In contrast, using OpenStack Ironic’s bare-metal causes GPU performance slowdown of 1.5% on Phoronix NAMD and an insignificant increase in performance on Phoronix PyTorch by 6.2%. Meanwhile the results of the Glmark2 benchmark on OpenStack Ironic following the normal procedures shows GPU performance slowdown of up to 8.7%. However, the same Glmark2 OpenStack Ironic benchmark with a special procedure shows an increase in GPU performance of up to 1.0% on the 1920x1080 resolution compared to the physical machine. This special procedure involves running a dummy Glmark2 process with a tiny resolution in parallel with the main Glmark2 process. Based on the results, we can conclude that the hierarchy of computing resources in terms of minimal GPU performance slowdown starts with the usage of OpenStack Ironic’s bare-metal, followed by the usage of OpenStack Zun’s containers, and lastly the usage of OpenStack Nova’s VMs."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Pradipta Davi Valendra
"Penelitian ini menganalisis dampak dari penggunaan Virtual Machine (VM), container, dan bare-metal terhadap performa Graphics Processing Unit (GPU) dengan memanfaatkan VM pada OpenStack Nova, container pada OpenStack Zun, dan bare-metal pada OpenStack Ironic. Metode virtualisasi GPU yang digunakan pada penelitian ini adalah GPU passthrough. Pengukuran performa GPU dilakukan dengan menggunakan aplikasi Glmark2 untuk menguji performa graphic rendering, Phoronix NAMD untuk menguji performa simulasi molekuler, dan Phoronix PyTorch untuk menguji performa training model. Hasil analisis menunjukkan bahwa penggunaan VM pada OpenStack Nova mengakibatkan penurunan performa GPU sebesar 15.5% pada Glmark2, 44.0% pada Phoronix NAMD, dan 8.4% pada Phoronix PyTorch. Penggunaan container pada Open Stack Zun mengakibatkan penurunan performa GPU sebesar 5.8% pada Glmark2 dan 19.7% pada Phoronix NAMD, tetapi tak ada perbedaan signifikan pada Phoronix PyTorch jika dibandingkan dengan physical machine (α = 0.05). Penggunaan bare-metal pada OpenStack Ironic mengakibatkan penurunan performa sebesar 1.5% pada Phoronix NAMD dan peningkatan tak signifikan sebesar -6.2% pada Phoronix PyTorch. Pengujian Glmark2 pada OpenStack Ironic dengan perlakuan yang sama seperti benchmark lainnya menunjukkan adanya penurunan performa sebesar 8.7%. Namun, perlakuan khusus pada Glmark2 OpenStack Ironic menunjukkan peningkatan performa sebesar -1.0% pada resolusi 1920x1080 jika dibandingkan dengan physical machine. Perlakuan khusus ini berupa menjalankan dummy Glmark2 dengan resolusi yang sangat rendah dan Glmark2 utama secara bersamaan. Berdasarkan hasil penelitian, dapat disimpulkan bahwa urutan computing resource dengan penurunan performa GPU yang paling minimal adalah penggunaan bare-metal OpenStack Ironic, diikuti dengan penggunaan container OpenStack Zun, dan diikuti dengan penggunaan VM OpenStack Nova.

This research analyzes the effects of Virtual Machine (VM), containers, and bare-metal usage on Graphics Processing Unit (GPU) performance, using VMs provided by OpenStack Nova, containers provided by OpenStack Zun, and bare-metal provided by OpenStack Ironic. The GPU virtualization method employed in this paper is GPU passthrough. GPU performance is measured using multiple benchmark applications, those being Glmark2 to measure graphic rendering performance, Phoronix NAMD to measure molecular simulation performance, and Phoronix PyTorch to measure training model performance. The results of our analysis shows that the usage of OpenStack Nova’s VMs causes GPU performance slowdown of up to 15.5% on Glmark2, 44.0% on Phoronix NAMD and 8.4% on Phoronix PyTorch. Using OpenStack Zun’s containers also causes GPU performance slowdowns of up to 5.8% on Glmark2 and 19.7% on Phoronix NAMD, with no significant changes on GPU performance with Phoronix PyTorch compared to the physical machine (α = 0.05). In contrast, using OpenStack Ironic’s bare-metal causes GPU performance slowdown of 1.5% on Phoronix NAMD and an insignificant increase in performance on Phoronix PyTorch by 6.2%. Meanwhile the results of the Glmark2 benchmark on OpenStack Ironic following the normal procedures shows GPU performance slowdown of up to 8.7%. However, the same Glmark2 OpenStack Ironic benchmark with a special procedure shows an increase in GPU performance of up to 1.0% on the 1920x1080 resolution compared to the physical machine. This special procedure involves running a dummy Glmark2 process with a tiny resolution in parallel with the main Glmark2 process. Based on the results, we can conclude that the hierarchy of computing resources in terms of minimal GPU performance slowdown starts with the usage of OpenStack Ironic’s bare-metal, followed by the usage of OpenStack Zun’s containers, and lastly the usage of OpenStack Nova’s VMs."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Immanuel
"Penelitian ini menganalisis dampak dari penggunaan Virtual Machine (VM), container, dan bare-metal terhadap performa Graphics Processing Unit (GPU) dengan memanfaatkan VM pada OpenStack Nova, container pada OpenStack Zun, dan bare-metal pada OpenStack Ironic. Metode virtualisasi GPU yang digunakan pada penelitian ini adalah GPU passthrough. Pengukuran performa GPU dilakukan dengan menggunakan aplikasi Glmark2 untuk menguji performa graphic rendering, Phoronix NAMD untuk menguji performa simulasi molekuler, dan Phoronix PyTorch untuk menguji performa training model. Hasil analisis menunjukkan bahwa penggunaan VM pada OpenStack Nova mengakibatkan penurunan performa GPU sebesar 15.5% pada Glmark2, 44.0% pada Phoronix NAMD, dan 8.4% pada Phoronix PyTorch. Penggunaan container pada Open Stack Zun mengakibatkan penurunan performa GPU sebesar 5.8% pada Glmark2 dan 19.7% pada Phoronix NAMD, tetapi tak ada perbedaan signifikan pada Phoronix PyTorch jika dibandingkan dengan physical machine (α = 0.05). Penggunaan bare-metal pada OpenStack Ironic mengakibatkan penurunan performa sebesar 1.5% pada Phoronix NAMD dan peningkatan tak signifikan sebesar -6.2% pada Phoronix PyTorch. Pengujian Glmark2 pada OpenStack Ironic dengan perlakuan yang sama seperti benchmark lainnya menunjukkan adanya penurunan performa sebesar 8.7%. Namun, perlakuan khusus pada Glmark2 OpenStack Ironic menunjukkan peningkatan performa sebesar -1.0% pada resolusi 1920x1080 jika dibandingkan dengan physical machine. Perlakuan khusus ini berupa menjalankan dummy Glmark2 dengan resolusi yang sangat rendah dan Glmark2 utama secara bersamaan. Berdasarkan hasil penelitian, dapat disimpulkan bahwa urutan computing resource dengan penurunan performa GPU yang paling minimal adalah penggunaan bare-metal OpenStack Ironic, diikuti dengan penggunaan container OpenStack Zun, dan diikuti dengan penggunaan VM OpenStack Nova.

This research analyzes the effects of Virtual Machine (VM), containers, and bare-metal usage on Graphics Processing Unit (GPU) performance, using VMs provided by OpenStack Nova, containers provided by OpenStack Zun, and bare-metal provided by OpenStack Ironic. The GPU virtualization method employed in this paper is GPU passthrough. GPU performance is measured using multiple benchmark applications, those being Glmark2 to measure graphic rendering performance, Phoronix NAMD to measure molecular simulation performance, and Phoronix PyTorch to measure training model performance. The results of our analysis shows that the usage of OpenStack Nova’s VMs causes GPU performance slowdown of up to 15.5% on Glmark2, 44.0% on Phoronix NAMD and 8.4% on Phoronix PyTorch. Using OpenStack Zun’s containers also causes GPU performance slowdowns of up to 5.8% on Glmark2 and 19.7% on Phoronix NAMD, with no significant changes on GPU performance with Phoronix PyTorch compared to the physical machine (α = 0.05). In contrast, using OpenStack Ironic’s bare-metal causes GPU performance slowdown of 1.5% on Phoronix NAMD and an insignificant increase in performance on Phoronix PyTorch by 6.2%. Meanwhile the results of the Glmark2 benchmark on OpenStack Ironic following the normal procedures shows GPU performance slowdown of up to 8.7%. However, the same Glmark2 OpenStack Ironic benchmark with a special procedure shows an increase in GPU performance of up to 1.0% on the 1920x1080 resolution compared to the physical machine. This special procedure involves running a dummy Glmark2 process with a tiny resolution in parallel with the main Glmark2 process. Based on the results, we can conclude that the hierarchy of computing resources in terms of minimal GPU performance slowdown starts with the usage of OpenStack Ironic’s bare-metal, followed by the usage of OpenStack Zun’s containers, and lastly the usage of OpenStack Nova’s VMs."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>