Ditemukan 1 dokumen yang sesuai dengan query
Fakhrul Arifin
"Diawali dengan Google File System dan MapReduce dari Google, Apache mengenalkan Hadoop sebagai teknologi pengolah data yang berukuran sangat besar. Karena tujuan awal Hadoop hanya untuk mengolah data yang berukuran besar, masalah keamanan data belum diantisipasi pada Hadoop versi 1.2.1. Pada skripsi ini membahas tentang program enkripsi yang dijalankan pada Hadoop versi 1.2.1. Program mengenkripsi file teks yang ada pada Hadoop Distributed File System(HDFS) dengan cara mengenkripsi setiap kata yang ada pada file. Program menggunakan algoritma enkripsi AES dan DES. Skripsi ini juga membandingkan program enkripsi yang berjalan tanpa Hadoop, Hadoop Standalone, dan Hadoop Distributed. Pada Hadoop Distributed menggunakan dua komputer dan satu virtual komputer. Melalui percobaan, terlihat bahwa program yang berjalan tanpa Hadoop memiliki troughput 0.99 MB/s sedangkan program yang berjalan pada Hadoop Standalone dan Hadoop Distributed masing-masing sebesar 0.53 MB/s dan 0.65 MB/s.
Beginning with the Google File System and MapReduce from Google, Apache introduce Hadoop as large data processing technology. Since the initial purpose of Hadoop for large data processing, data security issues have not been anticipated in the Hadoop version 1.2.1. In this final project discusses encryption programs that run on Hadoop version 1.2.1. The program encrypts text files that exist on the Hadoop Distributed File System (HDFS) by means of encrypting every word in the file. The program uses AES and DES encryption algorithm. This final project also compare the encryption program that runs without Hadoop, Hadoop Standalone, and Distributed Hadoop. Through experiments, it appears that the program is running without Hadoop having throughput 0.99 MB/s while the program is running on Hadoop Standalone and the Hadoop Distributed respectively 0.53 MB/s and 0.65 MB/s."
Depok: Fakultas Teknik Universitas Indonesia, 2014
S56276
UI - Skripsi Membership Universitas Indonesia Library