Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 71921 dokumen yang sesuai dengan query
cover
Widodo
"

Privacy preserving data publishing (PPDP) merupakan bidang yang saat ini berkembang dengan fokus penelitian adalah mempertahankan data agar bersifat privat jika data tersebut dipublikasikan. Isu penting pada penelitian PPDP adalah meminimalkan nilai information loss yang diperoleh akibat proses penganoniman tabel mikrodata sehingga menjadi lebih privat. Berbagai model dan metode telah dikembangkan untuk mengatasi permasalahan tersebut. Model seperti k-anonymity, l-diversity, dan p-sensitive menjadi model dasar atas berkembangnya disiplin ilmu ini. Namun sebagian besar penelitian lebih banyak berfokus pada model untuk single sensitive attribute atau satu atribut sensitif pada tabel mikrodata. Padahal dalam dunia nyata atribut sensitif pada sebuah tabel bisa banyak atau multiple sensitive attributes. Penelitian yang membahas multiple-sensitive attributes pun masih banyak permasalahan yang belum terpecahkan karena hanya bertujuan untuk mengatasi satu permasalahan tertentu saja, misalnya untuk mengatasi serangan tertentu terhadap data. Sementara itu efek information loss kurang diperhatikan. Hal lain yang belum terlalu diperhatikan adalah bagaimana mendistribusikan nilai atribut sensitif ke seluruh grup data. Pendistribusian ini sangat penting untuk menghindari penumpukan data sensitif pada sebuah atau beberapa grup saja.

Penelitian ini berhasil mengusulkan dan mengevaluasi model PPDP dengan overlapped slicing pada multiple sensitive attributes dengan metode pendistribusian nilai atribut sensitif berupa simple distribution of sensitive values (SDSV) dan extended systematic clustering (ESC). Penelitian ini juga mengusukan sebuah pengukuran untuk menyempurnakan model pengukuran sebelumnya yaitu normalized and average discernibility metrics (NADM). Hasil dari penelitan ini menunjukkan overlapped slicing dengan tiga variasi metode untuk mencapai
model tersebut memiliki tingkat information loss yang minimal dibandingkan dengan yang lain. Overlapped slicing dengan menggunakan variasi systematic clustering, SDSV, dan extended systematic clustering berhasil menghasilkan PPDP dengan nilai information loss yang kecil. Demikian juga dibandingkan dengan model lain yang menggunakan multiple sensitive attributes, overlapped slicing memiliki nilai information loss yang lebih kecil. Pada saat dijalankam dengan adult dataset, Nilai information loss yang telah dinormalkan untuk overlapped slicing adalah 0.25, sedangkan systematic clustering 0.625, SDSV 0.871, dan ESC 0,704. Dengan data bank marketing overlapped slicing menghasilkan nilai information loss yang dinormalkan sebesar 0.397, lebih baik daripada systematic clustering 0.441.

 


Privacy preserving data publishing (PPDP) is a field with research focus is in maintaining data to be private when the data is published. An important issue in PPDP is minimizing the information loss that is obtained due to the anonymization process to the microdata table so that it becomes more private. Various models and methods have been developed to overcome these problems. Models such as k-anonymity, l-diversity, and p-sensitive are the basic models for the development of this discipline. However, most studies focus on models for single sensitive attributes in microdata table. Yet in the real world, sensitive attributes on a table can be multiple sensitive attributes. There are still many problems in research that discusses multiple-sensitive attributes, and it still has not been solved because it only aims to overcome one particular problem for each research, for example to overcome certain attacks on data. Meanwhile the effect of information loss is less noticed. Another thing that has not been given much attention is how to distribute sensitive attribute values across data groups. This distribution is very important to avoid the accumulation of sensitive data on just one or a few groups.

This study successfully proposes and evaluates the PPDP model with overlapped slicing on multiple sensitive attributes and proposes methods for distributing sensitive attribute values namely, simple distribution of sensitive values (SDSV) and extended systematic clustering (ESC). This study also proposes a measurement to perfect the previous measurement model, normalized and average discernibility metrics (NADM). The results of this research show that overlapped slicing with three variation methods in achieving the model, has a minimal
information loss compared to the others. Overlapped slicing by using systematic clustering, SDSV, and extended systematic clustering succeeded in producing PPDP with a small value of information loss. Likewise, compared to other models that use multiple sensitive attributes, overlapped slicing has a smaller information loss. When it is tested with adult dataset, the value of information loss that has been normalized for overlapped slicing is 0.25, while systematic clustering is 0.625, SDSV 0.871, and ESC is 0.704. With marketing bank dataset, it produces a normalized information loss value of 0.397, better than systematic clustering 0.441.

 

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
New York: Springer science, 2008
004.35 PRI
Buku Teks SO  Universitas Indonesia Library
cover
Testa, Matteo
"The objective of this book is to provide the reader with a comprehensive survey of the topic compressed sensing in information retrieval and signal detection with privacy preserving functionality without compromising the performance of the embedding in terms of accuracy or computational efficiency. The reader is guided in exploring the topic by first establishing a shared knowledge about compressed sensing and how it is used nowadays. Then, clear models and definitions for its use as a cryptosystem and a privacy-preserving embedding are laid down, before tackling state-of-the-art results for both applications. The reader will conclude the book having learned that the current results in terms of security of compressed techniques allow it to be a very promising solution to many practical problems of interest. The book caters to a broad audience among researchers, scientists, or engineers with very diverse backgrounds, having interests in security, cryptography and privacy in information retrieval systems. Accompanying software is made available on the authors’ website to reproduce the experiments and techniques presented in the book. The only background required to the reader is a good knowledge of linear algebra, probability and information theory."
Singapore: Springer Singapore, 2019
e20502523
eBooks  Universitas Indonesia Library
cover
Muhammad Raihan
"Pada tahun 2035 diperkirakan aka nada 305 juta penduduk di Indonesia. Selain itu, pada tahun 2021 jumlah smart-phone diperkirakan akan mencapai 8 milyar dan jumlah alat yang dapat berkomunikasi secara machine-to-machine (M2M) mencapai 13 milyar. Hal ini dapat menyebabkan terjadinya trafik data global sebesar 48.27 exabytes. Oleh karena itu, dibutuhkan sebuah terobosan agar operator seluler tetap dapat memenuhi kebutuhan traffic data namun tetap memperhatikan CAPEX/OPEX mereka. Untuk mencapai keseimbangan diantara keduanya, terdapat fitur yang dapat digunakan, yaitu fitur network slicing. Network slicing menggunakan prinsip virtualisasi yang menyebabkan sebuah jaringan fisik dapat terbagi menjadi beberapa jaringan virtual. Penelitian ini membahas tentang fitur network slicing dengan metode multiple-choice knapsack problem pada macro cell jaringan 5G yang diterapkan pada modulasi 16-QAM dan QPSK. Berdasarkan pengujian didapatkan bahwa modulasi QPSK lebih cocok untuk digunakan karena memiliki nilai bit error rate (BER) yang jauh lebih rendah dan nilai throughput yang sedikit lebih tinggi dibandingkan modulasi 16-QAM. Selain itu, nilai delay rata-rata yang dihasilkan oleh modulasi QPSK bernilai lebih rendah dibandingkan modulasi 16-QAM.

In 2035 it is estimated that there will be 305 million people in Indonesia. In addition, in 2021 the number of smart phones is expected to reach 8 billion and the number of machines that can communicate machine-to-machine (M2M) reaches 13 billion. This can lead to global data traffic of 48.27 exabytes. Therefore, a breakthrough is needed so that cellular operators can still meet data traffic needs but still pay attention to their CAPEX/OPEX. To achieve a balance between the two, there are features that can be used, namely the network slicing feature. Network slicing uses the principle of virtualization which causes a physical network to be divided into several virtual networks. This study discusses the features of network slicing with the multiple-choice knapsack problem method in the macro cell 5G network that is applied to 16-QAM and QPSK modulation. Based on the experiment it was found that the QPSK modulation was more suitable because it had a much lower bit error rate (BER) value and a slightly higher throughput value than the 16-QAM modulation. In addition, the average delay value generated by QPSK modulation is lower than 16-QAM modulation."
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
R. Ahmad Imanullah Zakariya
"Pengembangan aplikasi yang tidak dilengkapi dengan informasi detail mengenai aspek keamanan aplikasi menyebabkan pengguna mengalami kesulitan untuk menilai dan memahami risiko keamanan privasi yang mereka hadapi, sehingga banyak informasi sensitif yang terungkap tanpa sepengetahuan pengguna. Penelitian ini mengembangkan desain penilaian risiko privasi melalui pendekatan analisis statik dengan memanfaatkan permission dan beberapa atribut aplikasi (multiple application attributes), serta menggunakan majority voting ensemble learning dengan menerapkan teknik pemilihan fitur Random Forest Feature Importance untuk mendeteksi keamanan aplikasi. Nilai risiko diperoleh dari sebuah matriks risiko yang dibentuk dari dua aspek penilaian, yaitu frekuensi terjadinya risiko (likelihood) dan tingkat keparahannya (severity). Penilaian likelihood dilakukan dengan mengkombinasikan prediksi ensemble learning dan atribut aplikasi, sementara penilaian severity berdasarkan pada karakteristik dan jumlah permission. Untuk mengevaluasi model pembelajaran dan desain penilaian risiko privasi digunakan dataset CIC-AndMal2017 yang terdiri dari 2126 file APK. Jumlah data yang digunakan untuk membentuk model memiliki proporsi 80% data training dan 20% data testing, serta metode klasifikasi data yang digunakan adalah binary class (malicious dan benign). Penelitian ini menerapkan bahasa pemrograman Python dan menggunakan parameter default pada proses pembentukan model pembelajaran. Hasil percobaan menunjukkan bahwa model ensemble learning yang dibentuk dari algoritma Decision Tree, K-Nearest Neighbor, dan Random Forest memiliki performa model yang lebih baik dibandingkan single classification model, dengan accuracy sebesar 95.2%, precision 93.2%, dan F1-Score sebesar 92.4%. Penerapan teknik pemilihan fitur mampu meningkatkan efisiensi waktu selama pembelajaran model dengan total waktu sebesar 263 ms. Serta, hasil penilaian risiko mampu memberikan informasi yang komprehensif dan logis mengenai keamanan privasi aplikasi kepada pengguna. Hal ini menunjukkan bahwa desain penilaian risiko yang dibuat dapat menilai aplikasi secara efektif dan objektif.

Lack of detailed information about the application's security aspects leads to the user's inability to assess and understand the risk of privacy breaches and leads to the disclosure of a great deal of sensitive information without the user's knowledge. This study proposes a privacy risk assessment development through employing static analysis with permission and multiple application attributes and using majority voting ensemble learning with the Random Forest Feature Importance technique to detect app security. The risk score is obtained from a risk matrix based on two assessment aspects, namely the frequency of risk (likelihood) and its severity. The likelihood assessment is performed by combining ensemble learning predictions and information on multiple application attributes, while the severity assessment is performed by utilizing the number and characteristics of permissions. The dataset CIC-AndMal2017, which consists of 2126 APK files, was used to evaluate learning models and privacy risk assessment design. The amount of data used to build models consists of 80% data training and 20% data testing, while the data classification method used is binary class (malicious and benign). This study employs Python programming and implements default parameters in building a learning model. The experimental results show that ensemble learning model built from Decision Tree, K-Nearest Neighbor, and Random Forest algorithms provides better model performance than single classification models with accuracy of 95.2%, precision of 93.2%, and F1-Score of 92.4%. By applying feature selection technique, it could improve the efficiency of time used to learn the model with a total time of 263 milliseconds. Moreover, the results of the risk assessment provide comprehensive and rational information about the security of application privacy to users. This shows that the risk assessment design can assess the applications effectively and objectively. "
Jakarta: Fakultas Teknik Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Hari Siswantoro
"Sistem perekomendasi semakin menjadi bagian yang tak terpisahkan dengan sistem komersial online, seperti toko online atau layanan film/IPTV on-demand. Tugas utama sistem perekomendasi adalah memberikan rekomendasi produk atau konten kepada pelanggan. Sistem perekomendasi bekerja berdasarkan informasi pribadi pengguna seperti riwayat belanja, item yang dilihat atau diinginkan, se- hingga timbul resiko hilangnya privasi karena penggunaan sistem tersebut.
Penelitian sebelumnya telah mempelajari potensi untuk mempertahankan baik privasi pengguna maupun akurasi rekomendasi, namun masih terbatas pada algoritma sistem perekomendasi tertentu saja. Sistem perekomendasi terkini yang menghasilkan rekomendasi paling akurat, menggunakan teknik faktorisasi matriks, dan sejauh ini, sepengetahuan kami belum pernah dipelajari dalam penelitian privasi.
Dalam penelitian ini, kami mencoba menerapkan kerangka privasi diferensial ke dalam faktorisasi matriks. Privasi diferensial memberikan jaminan privasi yang terbukti secara teoritis, misalnya dalam kondisi pengetahuan awal apapun, data masing-masing individu tidak dapat diketahui berdasarkan output agregat (sistem perekomendasi). Kami menganalisa beberapa cara untuk menerapkan privasi diferensial dalam konteks ini, yaitu menambahkan derau pada input; di dalam proses (menggunakan gradient descent); dan pada output proses. Kami mengimplementasikan dan mengevaluasi semua metode pendekatan.
Di akhir, kami membahas dan memberikan hasil perbandingan tingkat kegunaan dan privasi. Hasil evaluasi menunjukkan bahwa meski perturbasi input lebih baik dibanding perturbasi gradient descent dan output, seluruhnya menunjukkan tingkat kegunaan yang baik hanya dapat diperoleh pada tingkat privasi yang kurang dapat diterima.

Recommender systems are becoming an integral part of commercial online systems, e.g., shopping websites or on-demand movie / IPTV services. The main task of a recommender system is to provide recommendations of products or content to customers. As recommender systems are based on personal information about users’ prior purchases, views or wish lists, there is an inherent loss of privacy resulting from the use of such systems.
Prior works explored to some extent the potential of attaining both users’ privacy and good recommendations, however only for a limited set of recommender system algorithms. The state-of-the-art recommender systems that provide the most accurate recommendations are based on the technique of matrix factorization, and so far, to the best of our knowledge, were not addressed in privacy research.
In this project, we address this gap by applying the differential privacy framework to matrix factorization. Differential privacy provides theoretically provable privacy guarantees, i.e., that under any conditions of prior knowledge, individuals data cannot be derived from the aggregated (recommender system) output. We analyze different ways of applying differential privacy in this context, including introduction of noise to the input; within the mechanism (using gradient descent); and at the output of the mechanism. We implement and evaluate all of the approaches.
Finally, we discuss and provide insights into the resulting utility and privacy tradeoffs. The evaluation shows that although input perturbation is superior to gradient descent and output perturbation, all demonstrate that satisfactory utility levels can be obtained only at the expense of unacceptable privacy levels.
"
Depok: Fakultas Teknik Universitas Indonesia, 2012
T32265
UI - Tesis Membership  Universitas Indonesia Library
cover
Dea Siska
"Metode triclustering merupakan pengembangan dari metode clustering dan biclustering. Berbeda dengan  metode clustering dan biclustering yang bekerja pada data dua dimensi, triclustering bekerja pada data tiga dimensi yang disusun dalam bentuk matriks. Matriks ini terdiri dari dimensi observasi, atribut, dan konteks. Triclustering mampu mengelompokkan ketiga dimensi tersebut secara simultan dan membentuk kelompok berupa subruang yang disebut tricluster. Metode ini umumnya diimplementasikan dalam bidang bioinformatika, terkhususnya dalam analisis data ekspresi gen tiga dimensi untuk menemukan profil ekspresi gen. Data atau matriks ini terdiri dari dimensi gen, kondisi eksperimen, dan waktu eksperimen (time point).
Salah satu algoritma triclustering, yaitu Order Preserving Triclustering (OPTricluster), adalah algoritma yang menggunakan pendekatan pattern based dan digunakan untuk menganalisis data ekspresi gen tiga dimensi yang merupakan short time series 3-8 time point). OPTricluster membentuk tricluster dengan mengidentifikasi gen-gen yang memiliki perubahan ekspresi yang sama di sepanjang time points pada sejumlah kondisi eksperimen.
Dalam penelitian ini, OPTricluster diimplementasikan pada data ekspresi gen sejumlah pasien yellow fever pasca vaksinasi dengan beberapa skenario yang menggunakan threshold yang berbeda-beda. Skenario dengan threshold yang optimum ditunjukkan oleh rata-rata skor Tricluster Diffusion terendah. Tricluster-tricluster yang dihasilkan berhasil menunjukkan hubungan biologis di antara pasien-pasien tersebut, di mana vaksin cenderung memberikan reaksi yang lebih signifikan pada pasien pria dibandingkan pasien wanita. Selain itu, ditemukan anomali pada pasien-pasien tersebut.

Triclustering method is the development of clustering method and biclustering method. Unlike clustering and biclustering that works on two-dimensional data, triclustering works on three-dimensional data that arranged in the form of a matrix consisting of observations, attributes, and contexts dimensions. Triclustering is able to group these dimensions simultaneously and form a subspace called a tricluster. This method is generally implemented in analysis of three-dimensional gene expression data to find profiles of gene expression. This data or matrix consists of genes, experimental conditions and time points dimensions.
One of the triclustering algorithms, Order Preserving Triclustering (OPTricluster), is an algorithm that uses a pattern-based approach and used to analyze short time series data (3-8 time points). The OPTricluster forms the tricluster by identifying genes that have the same expression change across time points under a number of experimental conditions. The change in expression is expressed in a rank pattern which is divided based on three types of patterns, namely constant, conserved and divergent patterns.
In this study, OPTricluster was implemented in gene expression data of yellow fever patients after vaccination using several scenarios with different thresholds. The scenario with the optimum threshold is indicated by the lowest average Tricluster Diffusion score. The resulting triclusters were successful in showing biological relationships among these patients, where the vaccine tending to have a more significant reaction in male patients than in female patients. In addition, anomalies were found in these patients.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
London: Thomson Reuters, 2012
342.085 8 DAT
Buku Teks  Universitas Indonesia Library
cover
Siregar, Natalina
"Multiple lapisan bawah air merusak refleksi primer dan membuangnya dari data seismik seismogram telah menjadi permasalahan sejak dulu bagi ahli geofisika, pengolahan data seismik. Jika multiple ini tidak dibuang, kehadirannya dapat membuat interpretasi data seismik menjadi sulit dan menghasilkan analisa yang salah. Tesis ini bertujuan untuk mempelajari konsep dan teori dibalik metode Surface Relative Multiple Elimination (SRME), serta kekuatan dan kelemahan dalam aplikasinya dengan menggunakan data sintetis dan rill. Data sintetik dibangun menggunakan software TESSERAL 2D dan data riil yang dipilih adalah survei North West Shelf Regional (NWSR). Hasil dari skema aliran kerja dan parameter test yang terbaik untuk data sintetik dapat digunakan sebagai acuan pada proses data lapangan survei NWSR. Analisa menunjukkan bahwa ada hubungan yang konsisten antara keberhasilan hasil data sintetik dengan data lapangan. Hasil dari seluruh penelitian tesis ini menyimpulkan bahwa metode SRME sangat efektif membuang multiple lapisan bawah air pada near offset tetapi masih menyisakan mutiple pada far offset.
Water bottom multiples destructively interfere with primary reflections and their removal from reflection seismograms has been a longstanding problem to seismic processing geophysicists. If not eliminated, their presence could make seismic data interpretation difficult and lead to erroneous results. This thesis is aimed to study concept and theory behind the Surface Relative Multiple Elimination (SRME), as well as the strengths and weaknesses in application by using synthetic and field data. Synthetic data was created by using TESSERAL 2D software and field data that was chosen in this research was seismic data from North West Shelf Regional (NWSR) survey. The work flows scheme and the best parameter of the tests for the synthetic data were used as a guide in processing of NWSR. It showed that there was a consistent result between the synthetic and field data. The results of this study had conclusion that SRME method was effective in near offset but there was still remaining multiple at far offset."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Arfiani
"Stroke merupakan penyakit yang menempati urutan ketiga sebagai penyebab kematian terbesar di dunia setelah penyakit jantung dan kanker. Stroke juga menduduki posisi pertama sebagai penyakit yang dapat menyebabkan kecacatan, baik ringan maupun berat. Salah satu jenis stroke yang umum terjadi adalah infark serebri. Di Indonesia, jumlah penderita stroke, terutama infark serebri, semakin meningkat setiap tahunnya. Tidak hanya terjadi pada seseorang yang berusia lanjut, namun infark serebri juga dapat terjadi pada seseorang yang masih muda dan produktif. Oleh sebab itu, pendeteksian dini terhadap infark serebri sangatlah penting. Berbagai metode medis selalu digunakan untuk mengklasifikasi infark serebri, namun dalam penelitian ini, akan digunakan metode machine learning. Metode yang diusulkan yaitu Multiple Support Vector Machine dengan Seleksi Fitur Information Gain (MSVM-IG). MSVM-IG merupakan metode baru yang menggunakan support vector sebagai data baru untuk selanjutnya dilakukan seleksi fitur dan evaluasi performa. Data yang digunakan berupa data numerik hasil CT Scan yang diperoleh dari RSUPN dr. Cipto Mangunkusumo, Jakarta. Berdasarkan hasil uji coba, metode yang diusulkan mampu mencapai nilai akurasi sebesar 88,71%. Sehingga, metode MSVM-IG ini dapat menjadi salah satu alternatif untuk membantu praktisi medis dalam mengklasifikasi infark serebri.

Stroke is a disease that ranks third as the biggest cause of death in the world after heart disease and cancer. Stroke also occupies the first position as a disease that can cause disability, both mild and severe. One type of stroke that is common is cerebral infarction. In Indonesia, the number of stroke patients, especially cerebral infarction, is increasing every year. Not only occurs in someone who is elderly, but cerebral infarction can also occur in someone who is young and productive. Therefore, early detection of cerebral infarction is very important. Various medical methods are always used to classify cerebral infarction, but in this study, machine learning methods would be used. The proposed method is Multiple Support Vector Machine with Information Gain Feature Selection (MSVM-IG). MSVM-IG is a new method that uses support vector as a new dataset, then feature selection step and performance evaluation are performed. The data used in the form of numerical data results of CT scan obtained from RSUPN Dr. Cipto Mangunkusumo, Jakarta. Based on the results, the proposed method is able to achieve an accuracy value of 88.71%. Thus, the MSVM-IG could be an alternative to assist medical practitioners in classifying cerebral infarction."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>