Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 2 dokumen yang sesuai dengan query
cover
Diyanatul Husna
"Salah satu isu yang sangat penting dalam dunia internet saat ini adalah serangan-serangan dalam dunia maya dengan motivasi keuangan dan perangkat lunak berbahaya yang memiliki kemampuan untuk melakukan serangan secara otomatis. Honeypot dan IDS bekerja sama untuk memberikan solusi keamanan jaringan yaitu sebagai intrusion detection yang dapat mengumpulkan data serangan.
Pada penelitian ini, akan dibangun sistem keamanan jaringan menggunakan Honeynet multiple sensor yang berbasis open-source. Integrasi beberapa sensor Honeypot dan IDS dalam satu sistem disebut Honeynet. Honeypot dan IDS diimplementasikan pada suatu Host komputer dengan menggunakan MHN server sebagai web server, yang didalamnya dibangun sensor-sensor seperti Dionaea, Glastopf, Wortpot, p0f, Snort, dan Suricata.
Berdasarkan pengujian yang telah dilakukan diperoleh total keseluruhan alert yang berhasil direkam oleh sistem yaitu skenario 1: 5453 alert, skenario 2: 3021 alert, dan skenario 3:7035 alert dengan total keseluruhan serangan yaitu 15509 alert. Dari total keseluruhan serangan dideteksi 35% serangan berasal dari IP 192.168.1.103, 20% serangan berasal dari IP 192.168.1.104 , dan 45% serangan berasal dari IP 192.168.1.105.
Hasil pengujian ini menunjukkan bahwa sistem telah berhasil menjebak, memonitoring, dan mendeteteksi serangan. Pengimplementasian sistem Honeynet ini bertujuan agar kekurangan dari suatu sensor seperti halnya hanya dapat mendeteksi serangan terhadap port dan protocol tertentu dapat diatasi oleh sensor yang lain. Sehingga apapun bentuk serangan yang ada dapat dideteksi. Penggunaan Honeynet multiple sensor berbasis open-source dapat menjadi langkah awal yang baik untuk mitigasi resiko dan sebagai peringatan awal adanya serangan cyber.

Recently, some of the important issues in the internet things are the attacks in a network with profit motivation and malicious software which has the ability to do the attack automatically. Honeypot and IDS are working together to give the solution for network security and act as the instrusion detection which has the ability to collect the attack's log.
This research will build network security system using multiple sensor Honeynet based on open-source. The integration of Honeypot's sensors and IDS in one system is called Honeynet. Honeypot and IDS are implemented in a computer host using MHN server as the web server, that contains various of sensors such as Dionaea, Glastopf, Wortpot, p0f, Snort, and Suricata.
Based on the research that has been done, it showed total of alerts that is successfully recorded by system are for the first scenario, there are 5453 alerts, second scenario is 3021 alerts, and the third scenario is 7035 alerts with total of alerts are 15509. From the total attacks, it is detected that 35% of the attacks are from IP address 192.168.1.103, 20% are from IP 192.168.1.104, and the 45% are from IP 192.168.1.105.
This testing result showed that the system successfully monitores and detected the attacks. The purpose of this implementation of Honeynet system is that one sensor can be able to handle another sensor's lack of ability, such as that can only detect the attack to the particular port and protocol. So, it can detect all various of attack. The application of Honeypot multiple sensors based on open-source could be the first step for the risk mitigation and acts as the first alert for the possibility of attack.
"
Depok: Fakultas Teknik Universitas Indonesia, 2015
S59740
UI - Skripsi Membership  Universitas Indonesia Library
cover
Diyanatul Husna
"ABSTRAK
Apache Hadoop merupakan framework open source yang mengimplementasikan MapReduce yang memiliki sifat scalable, reliable, dan fault tolerant. Scheduling merupakan proses penting dalam Hadoop MapReduce. Hal ini dikarenakan scheduler bertanggung jawab untuk mengalokasikan sumber daya untuk berbagai aplikasi yang berjalan berdasarkan kapasitas sumber daya, antrian, pekerjaan yang dijalankan, dan banyaknya pengguna. Pada penelitian ini dilakukan analisis terhadapap Capacity Scheduler dan Fair Scheduler. Pada saat Hadoop framework diberikan 1 pekerjaan dengan ukuran data set 1,03 GB dalam satu waktu. Waiting time yang dibutuhkan Capacity Scheduler dan Fair Scheduler adalah sama. Run time yang dibutuhkan Capacity Scheduler lebih cepat 6% dibandingkan Fair Scheduler pada single node. Sedangkan pada multi node Fair Scheduler lebih cepat 11% dibandingkan Capacity Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set (1,03 GB ) yang sama dalam satu waktu. Waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 87% lebih cepat pada single node dan 177% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 55% lebih cepat pada single node dan 212% lebih cepat pada multi node. Turnaround time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 4% lebih cepat pada single node, sedangkan pada multi node Capacity Scheduler lebih cepat 58% dibandingkan Fair Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set yang berbeda dalam satu waktu yaitu data set 1 (456 MB), data set 2 (726 MB), dan data set 3 (1,03 GB) dijalankan secara bersamaan. Pada data set 3 (1,03 GB), waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 44% lebih cepat pada single node dan 1150% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 56% lebih cepat pada single node dan 38% lebih cepat pada multi node. Turnaround time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 12% lebih cepat pada single node, sedangkan pada multi node Fair Scheduler lebih cepat 25,5% dibandingkan Capacity Scheduler

ABSTRACT
Apache Hadoop is an open source framework that implements MapReduce. It is scalable, reliable, and fault tolerant. Scheduling is an essential process in Hadoop MapReduce. It is because scheduling has responsibility to allocate resources for running applications based on resource capacity, queue, running tasks, and the number of user. This research will focus on analyzing Capacity Scheduler and Fair Scheduler. When hadoop framework is running single task. Capacity Scheduler and Fair Scheduler have the same waiting time. In data set 3 (1,03 GB), Capacity Scheduler needs faster run time than Fair Scheduler which is 6% faster in single node. While in multi node, Fair Scheduler is 11% faster than Capacity Scheduler. When hadoop framework is running 3 tasks simultaneously with the same data set (1,03 GB) at one time. Fair Scheduler needs faster waiting time than Capacity Scheduler which is 87% faster in single node and 177% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 55% faster in single node and 212% faster in multi node. Fair Scheduler needs faster turnaround time than Capacity Scheduler which is 4% faster in single node, while in multi node Capacity Scheduler is 58% faster than Fair Scheduler. When hadoop framework is running 3 tasks simultaneously with different data set, which is data set 1 (456 MB), data set 2 (726 MB), and data set 3 (1,03 GB) in one time. In data set 3 (1,03 GB), Fair Scheduler needs faster waiting time than Capacity Scheduler which is 44% faster in single node and 1150% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 56% faster in single node and 38% faster in multi node. Capacity Scheduler needs faster turnaround time than Fair Scheduler which is 12% faster in single node, while in multi node Fair Scheduler is 25,5% faster than Capacity Scheduler"
2016
T45854
UI - Tesis Membership  Universitas Indonesia Library