Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 2 dokumen yang sesuai dengan query
cover
Muhammad Raihan Wijaya
"Di era big data, meningkatnya volume dan variasi data menambah kompleksitas pengelolaan data. Dalam pengembangan dan inovasi teknologi, optimasi kinerja basis data sering diabaikan. Para pengembang sering fokus pada penyelesaian fungsionalitas tanpa mempertimbangkan dampaknya terhadap performa, mengakibatkan penggunaan sistem basis data yang tidak optimal. Oleh karena itu, pemilihan sistem basis data yang tepat sangat penting untuk memastikan kinerja yang efisien dan optimal. Struktur basis data yang umum digunakan adalah Structured Query Language (SQL) dan Non-Structured Query Language (NoSQL). Dalam SQL, data disimpan dalam skema tabel relasional yang terstruktur, dengan PostgreSQL sebagai salah satu contohnya. Sebaliknya, dalam NoSQL, data disimpan dalam format yang fleksibel dan tidak terpaku pada struktur tabel, sehingga cocok untuk berbagai tipe data. Contoh basis data NoSQL adalah Cassandra dan MongoDB. Penelitian ini akan menguji sistem basis data PostgreSQL, Cassandra, dan MongoDB lalu membandingkan performa ketiga sistem tersebut pada platform Ubuntu. Penelitian ini menguji kinerja sistem basis data dalam proses impor data (bulk-loading) dan berbagai jenis operasi basis data, dengan variasi ukuran dataset dan limit. Hasil penelitian menunjukkan bahwa untuk dataset 1 juta baris, PostgreSQL memiliki performa terbaik dalam impor data dengan waktu rata-rata 1.207 detik, diikuti MongoDB mengikuti dengan waktu 16.614 detik, sementara Cassandra Single Node membutuhkan 72.199 detik dan Cassandra Multi Node membutuhkan 119.533 detik. Dalam total 17 pengujian operasi basis data, PostgreSQL unggul dalam 13 pengujian operasi basis data, Cassandra unggul dalam 4 pengujian, dan MongoDB tidak menunjukkan keunggulan dalam pengujian apa pun. Meskipun PostgreSQL unggul dalam operasi basis data umum, kinerjanya lebih lambat pada operasi yang kompleks. Cassandra menunjukkan kinerja yang baik tetapi terbatas dalam fitur operasi kompleks. Sebaliknya, MongoDB menunjukkan kinerja paling lambat secara keseluruhan namun dapat menangani semua jenis operasi yang diuji, menunjukkan fleksibilitas.

In the era of big data, the increasing volume and variety of data add complexity to data management and processing. In the development and innovation of technology, database performance optimization is often overlooked. Developers often focus on functionality without considering its impact on performance, resulting in suboptimal use of database systems. Therefore, selecting the right database system is crucial to ensure efficient and optimal performance of the database systems. Structured Query Language (SQL) and Non-Structured Query Language (NoSQL) are commonly used database structures. In SQL, data is stored in a structured relational table schema, with PostgreSQL as a notable example. Conversely, in NoSQL, data is stored in a flexible format not bound to table structures, making it suitable for various data types. Examples of NoSQL databases are Cassandra and MongoDB. This study examines PostgreSQL, Cassandra, and MongoDB systems and compares their performance on the Ubuntu platform. The study tests database performance in data import (bulk-loading) and various database operations using different dataset sizes and limits. The results show that for a dataset of 1 million rows, PostgreSQL has the best import performance with an average time of 1,207 seconds, followed by MongoDB with 16,614 seconds, while Cassandra Single Node takes 72,199 seconds and Cassandra Multi Node takes 119,533 seconds. Out of 17 database operation tests, PostgreSQL excelled in 13 tests, Cassandra in 4 tests, and MongoDB did not excel in any tests. Although PostgreSQL excels in general database operations, its performance is slower in complex operations. Cassandra shows good performance but is limited in complex operation features. In contrast, MongoDB shows the slowest overall performance but can handle all operations tested, demonstrating flexibility.

"
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Luthfi Misbachul Munir
"Penelitian ini mengoptimasi pengelolaan data domain masif pada Dashboard NetPro untuk mengatasi tantangan pemblokiran situs berbahaya secara efisien. Solusi yang dikembangkan menerapkan metode chunking dan teknologi WebSocket untuk mencapai efisiensi proses dan interaksi real-time. Hasil pengujian membuktikan keberhasilan pendekatan ini, di mana dengan pemilihan ukuran chunk optimal sebesar 10.000 data, sebuah nilai yang menyeimbangkan antara efisiensi pemrosesan batch dan kontrol penggunaan memori, sistem mampu menangani hingga sepuluh juta data dan memprosesnya lebih dari 9.000 kali lebih cepat dibandingkan metode input satuan. Sistem berbasis Node.js dan PostgreSQL ini berhasil mengubah proses manajemen data yang tidak efisien menjadi alur kerja yang cepat, andal, dan responsif.

This research optimizes massive domain data management on the NetPro Dashboard to efficiently address the challenge of blocking malicious websites. The developed solution implements the chunking method and WebSocket technology to achieve processing efficiency and real-time interaction. Testing proves the success of this approach, where with an optimal chunk size of 10,000 data entries, a value chosen to balance batch processing efficiency with memory usage control, the system can handle up to ten million entries and process them over 9,000 times faster than conventional single-entry input methods. This Node.js and PostgreSQL-based system successfully transforms an inefficient data management process into a fast, reliable, and responsive workflow."
Depok: Fakultas Teknik Universitas Indonesia, 2025
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library