Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 121841 dokumen yang sesuai dengan query
cover
Fakhrul Arifin
"Diawali dengan Google File System dan MapReduce dari Google, Apache mengenalkan Hadoop sebagai teknologi pengolah data yang berukuran sangat besar. Karena tujuan awal Hadoop hanya untuk mengolah data yang berukuran besar, masalah keamanan data belum diantisipasi pada Hadoop versi 1.2.1. Pada skripsi ini membahas tentang program enkripsi yang dijalankan pada Hadoop versi 1.2.1. Program mengenkripsi file teks yang ada pada Hadoop Distributed File System(HDFS) dengan cara mengenkripsi setiap kata yang ada pada file. Program menggunakan algoritma enkripsi AES dan DES. Skripsi ini juga membandingkan program enkripsi yang berjalan tanpa Hadoop, Hadoop Standalone, dan Hadoop Distributed. Pada Hadoop Distributed menggunakan dua komputer dan satu virtual komputer. Melalui percobaan, terlihat bahwa program yang berjalan tanpa Hadoop memiliki troughput 0.99 MB/s sedangkan program yang berjalan pada Hadoop Standalone dan Hadoop Distributed masing-masing sebesar 0.53 MB/s dan 0.65 MB/s.

Beginning with the Google File System and MapReduce from Google, Apache introduce Hadoop as large data processing technology. Since the initial purpose of Hadoop for large data processing, data security issues have not been anticipated in the Hadoop version 1.2.1. In this final project discusses encryption programs that run on Hadoop version 1.2.1. The program encrypts text files that exist on the Hadoop Distributed File System (HDFS) by means of encrypting every word in the file. The program uses AES and DES encryption algorithm. This final project also compare the encryption program that runs without Hadoop, Hadoop Standalone, and Distributed Hadoop. Through experiments, it appears that the program is running without Hadoop having throughput 0.99 MB/s while the program is running on Hadoop Standalone and the Hadoop Distributed respectively 0.53 MB/s and 0.65 MB/s."
Depok: Fakultas Teknik Universitas Indonesia, 2014
S56276
UI - Skripsi Membership  Universitas Indonesia Library
cover
Priagung Khusumanegara
"Komputasi terdistribusi merupakan salah satu kemajuan teknologi dalam mengolah data. Penggunaan komputasi terdistribusi memudahkan user untuk mengolah data menggunakan beberapa komputer yang secara fisik terpisah atau terdistribusi. Salah satu teknologi yang menggunakan konsep komputasi terditribusi adalah Hadoop. Hadoop merupakan framework software berbasis Java dan open source yang berfungsi untuk mengolah data yang memiliki ukuran yang besar secara terdistribusi. Hadoop menggunakan sebuah framework untuk aplikasi dan programming yang disebut dengan MapReduce. Enam skenario diimplementasikan untuk menganalisa performa kecepatan MapReduce pada Hadoop. Berdasarkan hasil pengujian yang dilakukan diketahui penambahan jumlah physical machine dari satu menjadi dua physical machine dengan spesifikasi physical machine yang sesuai perancangan dapat mempercepat kecepatan rata-rata MapReduce. Pada ukuran file 512 MB, 1 GB, 1.5 GB, dan 2 GB, penambahan physical machine dapat mempercepat kecepatan rata-rata MapReduce pada masing-masing ukuran file sebesar 161.34, 328.00, 460.20, dan 525.80 detik. Sedangkan, penambahan jumlah virtual machine dari satu menjadi dua virtual machine dengan spesifikasi virtual machine yang sesuai perancangan dapat memperlambat kecepatan rata-rata MapReduce. Pada ukuran file 512 MB, 1 GB, 1.5 GB, dan 2 GB, penambahan virtual machine dapat memperlambat kecepatan rata-rata MapReduce pada masing-masing ukuran file sebesar 164.00, 504.34, 781.27, dan 1070.46 detik. Berdasarkan hasil pengukuran juga diketahui bahwa block size dan jumlah slot map pada Hadoop dapat mempengaruhi kecepatan MapReduce.

Distributed computing is one of the advance technology in data processing. The use of distributed computing allows users to process data using multiple computers that are separated or distributed physically. One of technology that uses the concept of distributed computing is Hadoop. Hadoop is a Java-based software framework and open source which is used to process the data that have a large size in a distributed manner. Hadoop uses a framework for application and programing which called MapReduce. Six scenarios are implemented to analyze the speed performance of Hadoop MapReduce. Based on the study, known that the additional the number of physical machines from one to two physical machines with suitable specifications design can speed up the average speed of MapReduce. On file 512 MB, 1 GB, 1.5 GB, and 2 GB size additional the number of physical machines can accelerate MapReduce average speed on each file size for 161.34, 328.00, 460.20, and 525.80 seconds. Meanwhile, additional the number of virtual machines from one to two virtual machines with suitable specifications design can slow down the average speed of MapReduce. On file 512 MB, 1 GB, 1.5 GB, and 2 GB size, additional the number of virtual machines can slow down the average speed of each MapReduce on a file size for 164.00, 504.34, 781.27, and 1070.46 seconds. Based on the measurement result is also known that the block size and number of slot maps in Hadoop MapReduce can affect speed.
"
Depok: Fakultas Teknik Universitas Indonesia, 2014
S55394
UI - Skripsi Membership  Universitas Indonesia Library
cover
Diyanatul Husna
"ABSTRAK
Apache Hadoop merupakan framework open source yang mengimplementasikan MapReduce yang memiliki sifat scalable, reliable, dan fault tolerant. Scheduling merupakan proses penting dalam Hadoop MapReduce. Hal ini dikarenakan scheduler bertanggung jawab untuk mengalokasikan sumber daya untuk berbagai aplikasi yang berjalan berdasarkan kapasitas sumber daya, antrian, pekerjaan yang dijalankan, dan banyaknya pengguna. Pada penelitian ini dilakukan analisis terhadapap Capacity Scheduler dan Fair Scheduler. Pada saat Hadoop framework diberikan 1 pekerjaan dengan ukuran data set 1,03 GB dalam satu waktu. Waiting time yang dibutuhkan Capacity Scheduler dan Fair Scheduler adalah sama. Run time yang dibutuhkan Capacity Scheduler lebih cepat 6% dibandingkan Fair Scheduler pada single node. Sedangkan pada multi node Fair Scheduler lebih cepat 11% dibandingkan Capacity Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set (1,03 GB ) yang sama dalam satu waktu. Waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 87% lebih cepat pada single node dan 177% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 55% lebih cepat pada single node dan 212% lebih cepat pada multi node. Turnaround time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 4% lebih cepat pada single node, sedangkan pada multi node Capacity Scheduler lebih cepat 58% dibandingkan Fair Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set yang berbeda dalam satu waktu yaitu data set 1 (456 MB), data set 2 (726 MB), dan data set 3 (1,03 GB) dijalankan secara bersamaan. Pada data set 3 (1,03 GB), waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 44% lebih cepat pada single node dan 1150% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 56% lebih cepat pada single node dan 38% lebih cepat pada multi node. Turnaround time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 12% lebih cepat pada single node, sedangkan pada multi node Fair Scheduler lebih cepat 25,5% dibandingkan Capacity Scheduler

ABSTRACT
Apache Hadoop is an open source framework that implements MapReduce. It is scalable, reliable, and fault tolerant. Scheduling is an essential process in Hadoop MapReduce. It is because scheduling has responsibility to allocate resources for running applications based on resource capacity, queue, running tasks, and the number of user. This research will focus on analyzing Capacity Scheduler and Fair Scheduler. When hadoop framework is running single task. Capacity Scheduler and Fair Scheduler have the same waiting time. In data set 3 (1,03 GB), Capacity Scheduler needs faster run time than Fair Scheduler which is 6% faster in single node. While in multi node, Fair Scheduler is 11% faster than Capacity Scheduler. When hadoop framework is running 3 tasks simultaneously with the same data set (1,03 GB) at one time. Fair Scheduler needs faster waiting time than Capacity Scheduler which is 87% faster in single node and 177% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 55% faster in single node and 212% faster in multi node. Fair Scheduler needs faster turnaround time than Capacity Scheduler which is 4% faster in single node, while in multi node Capacity Scheduler is 58% faster than Fair Scheduler. When hadoop framework is running 3 tasks simultaneously with different data set, which is data set 1 (456 MB), data set 2 (726 MB), and data set 3 (1,03 GB) in one time. In data set 3 (1,03 GB), Fair Scheduler needs faster waiting time than Capacity Scheduler which is 44% faster in single node and 1150% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 56% faster in single node and 38% faster in multi node. Capacity Scheduler needs faster turnaround time than Fair Scheduler which is 12% faster in single node, while in multi node Fair Scheduler is 25,5% faster than Capacity Scheduler"
2016
T45854
UI - Tesis Membership  Universitas Indonesia Library
cover
White, Tom
"Get ready to unlock the power of your data. With the fourth edition of this comprehensive guide, you'll learn how to build and maintain reliable, scalable, distributed systems with Apache Hadoop. This book is ideal for programmers looking to analyze datasets of any size, and for administrators who want to set up and run Hadoop clusters.Using Hadoop 2 exclusively, author Tom White presents new chapters on YARN and several Hadoop-related projects such as Parquet, Flume, Crunch, and Spark. You'll learn about recent changes to Hadoop, and explore new case studies on Hadoop's role in healthcare systems and genomics data processing.Learn fundamental components such as MapReduce, HDFS, and YARNExplore MapReduce in depth, including steps for developing applications with itSet up and maintain a Hadoop cluster running HDFS and MapReduce on YARNLearn two data formats: Avro for data serialization and Parquet for nested dataUse data ingestion tools such as Flume (for streaming data) and Sqoop (for bulk data transfer)Understand how high-level data processing tools like Pig, Hive, Crunch, and Spark work with HadoopLearn the HBase distributed database and the ZooKeeper distributed configuration service."
Sebastopol, CA : O'Reilly Media , 2015
005.74 WHI h
Buku Teks SO  Universitas Indonesia Library
cover
Parker Stefan
"ABSTRAK
Aktuator plasma adalah alat teknologi terbaru untuk mengontrol aliran secara aktif. Penelitian tentang aktuator plasma ini masih sangat dibutuhkan karena masih banyak parameter – parameter pada plasma yang belum diteliti lebih lanjut. Penelitian ini dilakukan untuk mengetahui aplikasi dari kontrol aktif aliran dengan teknologi plasma. Pada penelitian ini drag aerodinamik yang menjadi kendala dalam masalah kendaraan – kendaraan darat secara umum akan dikurangi melalui induksi plasma pada aliran sekitar model. Model uji yang dipakai adalah model Ahmed body yang diharapkan menggambarkan kendaraan – kendaraan bentuk bluff body secara umum. Ahmed body diuji di dalam terowongan angin dengan kecepatan 1,7 m/s, 4,3 m/s, dan 6,3 m/s. Tiga buah konfigurasi peletakan aktuator plasma diuji untuk melihat letak yang paling optimal dalam menginduksi aliran. Drag didapat dari pembacaan load cell yang dipasang pada model uji di dalam terowongan angin. Plasma dibangkitkan dengan tegangan AC 5.500 V dengan frekuensi 9 kHz. Hasil penelitian menunjukkan peletakan plasma pada leading edge menghasilkan penurunan drag aerodinamik yang paling optimal. Kecepatan 1,7 m/s adalah kecepatan yang paling optimal untuk melihat dampak dari induksi plasma. Pada kecepatan 1,7 m/s induksi plasma mengakibatkan penurunan drag aerodinamik Ahmed body sebesar 22,22 %.

ABSTRACT
Plasma actuators is the latest technological tools to actively control the flow. Research on the plasma actuator is still needed because there are many parameters in plasma that has not been investigated further. This research was conducted to determine the application of the active control of the flow with plasma technology. In this study, aerodynamic drag is a constraint on the issue of general land vehicles will be reduced through the plasma flow induction around the model. The test model used is a model that is expected to describe the body of Ahmed vehicles bluff body shape in general. Ahmed body was tested in a wind tunnel with speeds of 1.7 m/s, 4.3 m/s, and 6.3 m/s. Three layout configurations plasma actuator is tested to see the most optimal layout for flow induction. Drag obtained from load cell readings are mounted on test models in a wind tunnel. Plasma is generated with an AC voltage of 5500 V and a frequency of 9 kHz. Results showed plasma laying on the leading edge resulted in the most optimal aerodynamic drag decrease. Speed ​​of 1.7 m/s is the most optimal speed to see the impact of plasma induction. At a speed of 1.7 m/s, the result of plasma induction is a decrease in the aerodynamic drag of Ahmed body by 22.22%.
"
2015
S59755
UI - Skripsi Membership  Universitas Indonesia Library
cover
Romi Nur Ismanto
"PHP adalah bahasa pemrograman server-side scripting yang banyak digunakan untuk mengembangkan layanan website. Namun, aplikasi PHP berbasis web didistribusikan dalam bentuk source code sehingga sisi keamanannya rentan dan lemah karena baris source code mudah disalin, dimodifikasi, atau digunakan pada aplikasi lainnya. Penelitian bertujuan untuk mengimplementasikan rancangan teknis obfuskasi pada PHP extension code dengan menggunakan algoritma AES. Algoritma AES dipilih karena direkomendasikan NIST (National Institute of Standard and Technology) untuk melindungi sistem keamanan informasi nasional pemerintah Amerika Serikat. Melalui teknik obfuskasi menggunakan enkripsi diharapkan pemrogram memiliki opsi untuk melindungi source code PHP sehingga hak cipta atau kekayaan intelektual atas program dapat terproteksi.

PHP is a server-side scripting programming language that is widely used to develop website services. However, web-based PHP applications are distributed in source code so that the security is vulnerable and weak because the lines of source code can be easily copied, modified, or used in other applications. The research aims to implement obfuscation technique design in PHP extension code using AES algorithm. The AES algorithm recommended by NIST (National Institute of Standards and Technology) to protect the US government's national information security system. Through obfuscation technique using encryption, it is expected that programmers have an option to protect the PHP source code so that the copyright or intellectual property of the program can be protected.
"
Depok: Fakultas Teknik Universitas Indonesia, 2017
T47970
UI - Tesis Membership  Universitas Indonesia Library
cover
Gatot S.
"Seiring dengan perkembangan teknologi tuntutan akan kualitas layanan dan sekuritas (keamanan) terhadap kerahasiaan informasi yang saling dipertukarkan tersebut semakin meningkat. Sehingga bermunculah berbagai macam cara untuk mengamankan paket yang dilewatkan pada suatu jaringan, diantaranya adalah IPSec, MPLS-VPN, tunneling, kombinasi dan sebagainya yang tidak melupakan QoS. Untuk pengiriman informasi yang bersifat rahasia diperlukan jaringan yang berada pada kondisi top secret, salah satu caranya dengan membangun MPLS-VPN yang di kombinasikan dengan IPSec.
Skripsi ini membahas tentang hubungan antara perbandingan dari implementasi enkripsi AES & 3DES pada IPSec di atas MPLSVPN terhadap parameter QoS yang meliputi delay, jitter, dan throughput. Traffic yang di jadikan acuan yaitu UDP dengan RTP yang berbasis codec G.723.1 (audio) dan codec H.263(video), yaitu dengan menggunakan Netmeeting.
Pada pengujian diberikan paramater ketika jaringan tidak dibebani. Alasan pemilihan traffic yang digunakan realtime karena saat dan kedepan nanti banyak yang memanfaatkan IPBASED video Telephony.
Dari hasil pengujian didapatkan bahwa pada audio streaming 3DES memberikan QoS lebih baik sebesar 0.03% - 10.78%, sedangkan pada streaming video AES memberikan QoS lebih baik sebesar 2.56 % - 9.36 %, dan pada pengujian transfer data AES juga memberikan QoS lebih baik sebesar 5.24 % - 7.49%.

Along with the development of the technology, demands of the quality of service and security of the confidentiality of the information exchanged in the mutual increasing. So, appear various ways to secure the packet that cross on public network, such as IPSec, MPLS-VPN, tunneling, and so combination QoS. The information is confidential which required a network that is on top secret conditions, one can build with the MPLS-VPN on the combine with IPSec.
It discusses the relationship between the comparison of the implementation of AES & 3DES encryption in IPSec on MPLS-VPN QoS parameters, such as delay, delay jitter, and throughput. Traffic in the reference is made to the UDP-based RTP codec G.723.1 (audio) codec and H.263 (video), with using Netmeeting.
Those parameters are given in the test when the network is not burdened. Reason of election realtime traffic that is used as the fore later time and take advantage of the many IP-BASED video Telephony.
From test results obtained in streaming audio 3DES is better 0.03% - 10.78%, in video streaming AES is better 2.56 % - 9.36 % than 3DES, in testing transfer file AES is better 5.24 % - 7.49% than 3DES.
"
Depok: Fakultas Teknik Universitas Indonesia, 2009
S51473
UI - Skripsi Open  Universitas Indonesia Library
cover
Novita Angraini
"Advanced Encryption Standard (AES) adalah suatu standar algoritma block cipher yang digunakan sebagai penerapan dari kriptografi. Perkembangan serangan pada algoritma AES mendorong banyaknya penelitian terkait modifikasi pada algoritma AES dengan tujuan untuk meningkatkan keamanan pada algoritma tersebut serta untuk menghasilkan alternatif dari algoritma enkripsi yang dapat digunakan untuk mengamankan data. Pada penelitian ini, telah dilakukan modifikasi terhadap algoritma AES dengan mengganti S-box menggunakan perfect SAC S-box pada proses SubBytes dan menggunakan matriks MDS involutary yang merupakan matriks M0 Clefia pada proses Mixcolumn. Perfect SAC S-box memiliki nilai rata-rata SAC yang tepat 0,5. Berdasarkan hasil pengujian didapatkan bahwa perfect SAC S-box memiliki hasil uji SAC yang lebih baik dengan nilai error terkecil sebesar 0,0469. Selanjutnya modifikasi AES dilakukan dengan menggunakan perfect SAC S-box dan matriks M0 Clefia. Hasil uji strict avalanche criterion (SAC) menggunakan variabel bebas kunci pada algoritma modifikasi AES round kedua memiliki nilai yang lebih baik dengan nilai error rata-rata sebesar 0,0002. Hasil uji avalanche weight distribution (AWD) menggunakan variabel bebas kunci dan plaintext pada algoritma modifikasi AES round kedua memiliki nilai yang lebih baik dengan nilai distorsi rata-rata sebesar 0,0371 dan 0,1529. Waktu kecepatan dekripsi pada modifikasi AES dengan 1.000.000 sampel memiliki waktu yang lebih cepat, yaitu 4,1690 seconds. Berdasarkan hasil uji yang dilakukan, algoritma modifikasi AES memiliki ketahanan keamanan dan performa yang lebih baik dibandingkan dengan algoritma AES asli.

Advanced Encryption Standard (AES) is a standard block cipher algorithm used as an implementation of cryptography. The development of attacks on the AES algorithm has encouraged a lot of research related to modifications to the AES algorithm with the aim of increasing the security of the algorithm and to produce alternatives to encryption algorithms that can be used to secure data. In this study, modifications have been made to AES by replacing the S-box using the perfect SAC S-box in the SubBytes process and using the involutary MDS matrix which is the M0 Clefia matrix in the Mixcolumn process. The Perfect SAC S-box has an exact SAC average value of 0.5. Results Based on the test, it was found that the perfect SAC S-box has a better SAC test result with the smallest error value of 0.0469. Furthermore, AES modification is carried out using the perfect SAC S-box and the M0 Clefia matrix. The results of the strict avalanche criteria (SAC) test using the key-independent variables in the second round of modified AES algorithm have an average error value of 0.0002. The results of the avalanche weight distribution (AWD) test using the key-independent variables and plaintext in the second round of modified AES algorithm have an average distortion value of 0.0371 and 0.1529. Decryption speed time on AES modification with 1,000,000 samples has a faster time, which is 4.1690 seconds. results Based on the tests, the modified AES algorithm has better performance and security resistance than the original AES algorithm"
Depok: Fakultas Teknik Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Evan Benedict Zaluchu
"ABSTRAK
Big Data adalah salah satu fenomena yang sudah tidak jarang terjadi di berbagai aspek-aspek kehidupan, baik di bidang industri, keuangan, sosial, dan sebagainya. Dari segi sosial, penggunaan media sosial seperti Twitter merupakan salah satu aplikasi nyata dari teknologi Big Data. Melalui opini-opini yang disampaikan pada Twitter, kita dapat mengetahui hal-hal apa saja yang menjadi topik terkini. Dengan besarnya jumlah tweet yang dipublikasikan tiap hari, atau tiap jam, membuat analisis terhadap Twitter ini hampir mustahil dilakukan tanpa menggunakan teknologi komputasi. Environment seperti Hadoop, Flume, dan Hive merupakan salah satu teknologi dapat digunakan untuk menganalisis jumlah data yang besar, yang mengalir di dalam Twitter.

ABSTRACT
Big Data is one of the global phenomenon that has become broad thing in the various aspects of the daily life, such as in industry sector, finance sector, social sector, etc. From the social aspect, the usage of the social media such as Twitter is one of the real application of the Big Data technology. Through the opinions that expressed on Twitter, we can find out about the things that become the current trending topic. With the numbers of the tweets that published every day, or every hour, making it impossible to do the Twitter analyzing without the use of the computational technology. The environment such as Hadoop, Flume, dan Hive is one of the technologies that can be use to analyze the enormous size of data, that flows around Twitter. "
2017
S67967
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ansar Fitria
"Cloud computing adalah teknologi baru hasil pengembangan dari sistem berbasis Internet dengan sumber daya komputasi dalam skala besar yang disediakan melalui Internet untuk pengguna. Aplikasi multimedia pada cloud membutuhkan Quality of Service (QoS) seperti bandwidth, delay, dan lain-lain. Penyediaan QoS merupakan tantangan pada multimedia cloud computing.
Penelitian ini mengusulkan sistem QoS MEC, sebuah sistem QoS cloud computing dengan kombinasi teknologi Hadoop dan metode Load Balancing berbasis Eucalyptus untuk aplikasi multimedia. Hadoop merupakan platform yang bersifat open source digunakan untuk data berukuran besar yang diproses secara terdistribusi dan paralel. Load balancing merupakan metode untuk membagi beban kerja server.
Hasil pengujian menunjukkan bahwa terjadi percepatan response time dan peningkatan throughput, terbesar terjadi pada saat jumlah koneksi per detik 5000. Persentase percepatan response time video ukuran 58,4 MB, adalah 20,42 %; video ukuran 137 MB, adalah 21,36%; video ukuran 249 MB, adalah 21,51%. Persentase peningkatan throughput video ukuran 58,4 MB, adalah 12,52%; video ukuran 137 MB, adalah 13,39%; video ukuran 249 MB, adalah 14,09%.

Cloud computing is a new technology development results of Internet-based systems with computing resources on a large scale are provided via the Internet to the user. Multimedia application in the cloud requires Quality of Service (QoS) such as bandwidth, delay, and others. Provision of QoS is a challenge on a multimedia cloud computing.
This research proposed a QoS MEC system, a QoS cloud computing system with technology combination of Hadoop and Load Balancing method based Eucalyptus for multimedia applications. Hadoop is an open source platform which is used for large data that is distributed and processed in parallel. Load balancing is a method to divide the workload of the server.
The test results show that there is accelerated response time and increased throughput and largest occurred when the number of simultaneous access is 5000. Percentage of acceleration response time for video size of 58.4 MB is 20.42%; video size of 137 MB is 21,36%; and video size of 249 MB is 21,51%. The increased percentage of throughput for video size of 58.4 MB is 12,52%; video size of 137 MB is 13,39%; and video size of 249 MB is 14,09%.
"
Depok: Fakultas Teknik Universitas Indonesia, 2013
T35100
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>