Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 42 dokumen yang sesuai dengan query
cover
Ardian Amping
"PT Telkom sebagai perusahaan telekomunikasi terbesar di Indonesia dengan portofolio bisnis TIMES (Telecommunication, Information, Media, Edutainment, Services) sedang merencanakan implementasi suatu platform yang dapat memberikan solusi terhadap kebutuhan Big Data Video Surveillance Analytic di Indonesia. Dengan adanya kerjasama dengan pihak PT Jasa Marga dalam bentuk pemasangan CCTV di beberapa titik di jalan tol, PT Telkom memulai penelitian Video Surveillance Analytic dalam bentuk pengembangan sistem otomasi analisis trafik. Berlatar belakang masalah tersebut, penelitian ini bertujuan untuk mendapatkan desain dan sekaligus mengimplementasikan solusi Video Surveillance Analytic untuk menghitung jumlah kendaraan di jalan tol. Penelitian ini menggunakan instrumen penelitian berupa notebook untuk mengimplementasikan desain dalam skala kecil. Sumber data penelitian berasal dari data video rekaman CCTV di jalan tol yang dimiliki DDS (Divisi Digital Service). Metodologi penelitian yang digunakan adalah metodologi observasi literatur dan metodologi pengembangan sistem menggunakan metodologi waterfall. Dari hasil wawancara, studi literatur, dan observasi, desain Video Surveillance Analytic yang sesuai dengan kebutuhan PT Telkom adalah sistem yang memiliki arsitektur terpusat menggunakan teknologi Spark. Desain sistem terdiri dari 3 blok yaitu blok masukan Video Streaming, blok Video Stream Collector, dan blok Video Stream Processor. Pengembangan sistem menggunakan bahasa pemograman Java dengan library OpenCV sebagai pengolah video, Spark berfungsi sebagai pemroses data streaming serta algoritma GMM (Gaussian Mixture Model) sebagai algoritma pendeteksi gerak. Metode analisis data menggunakan rumus akurasi deteksi. Hasil analisis data menyatakan bahwa tingkat akurasi penghitungan jumlah kendaraan pada kondisi pagi hari mencapai 98%, pada kondisi siang hari mencapai 94%, pada kondisi malam hari mencapai 50,83% dan pada kondisi macet siang hari mencapai 42,5%. Faktor yang mempengaruhi kurangnya tingkat presisi adalah pencahayaan yang kurang, dan objek bergerak yang tampak berhimpitan (trafik macet). Penelitian ini menjadi awal yang baik bagi perusahaan dalam pengembangan teknologi Spark dan video analytic dalam skala yang lebih besar.

PT Telkom as the largest telecommunications company in Indonesia with a TIMES business portfolio (Telecommunication, Information, Media, Edutainment, Services) is planning the implementation of a platform that can provide solutions to the needs of Big Data Video Surveillance Analytic in Indonesia. With the cooperation with PT Jasa Marga in the form of CCTV installation at several points on the toll road, PT Telkom began research on Video Surveillance Analytic in the form of developing a traffic analysis automation system. Against the background of this problem, this research aims to obtain a design and simultaneously implement a Video Surveillance Analytic solution to count the number of vehicles on the toll road. This research uses a research instrument in the form of a notebook to implement designs on a small scale. The source of the research data came from CCTV recorded video data on the toll road owned by DDS (Digital Service Division). The research methodology used is the literature observation methodology and system development methodology using the waterfall methodology. From interviews, literature studies, and observations, Video Surveillance Analytic design that suits PT Telkom's needs is a system that has a centralized architecture using Spark technology. The system design consists of 3 blocks namely the Video Streaming input block, the Video Stream Collector block, and the Video Stream Processor block. Development of the system uses the Java programming language with the OpenCV library as a video processor, Spark functions as a data streaming processor and the GMM (Gaussian Mixture Model) algorithm as a motion detection algorithm. The data analysis method uses the detection accuracy formula. The results of data analysis stated that the accuracy of the calculation of the number of vehicles in the morning conditions reached 98%, during the daytime conditions reached 94%, at night conditions reached 50.83% and in the daytime traffic jam conditions reached 42.5%. Factors affecting the lack of precision are low lighting and moving objects that appear coincide (traffic jam). This research is a good start for the company in developing Spark technology and video analytics on a larger scale. 

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia , 2020
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Septian Adiwibowo
"PT. XYZ adalah sebuah pasar daring dan salah satu dari empat unicorn teknologi di Indonesia. Untuk menyasar pasar luring, PT. XYZ meluncurkan aplikasi baru Mitra XYZ di awal 2018. Target utama aplikasi ini adalah warung dan toko kelontong tradisional dengan fitur seperti "Belanja Grosir". Namun, target penerimaan Belanja Grosir di akhir 2018 tidak mencapai target. Berdasarkan analisis akar masalah, isu yang berusaha dipecahkan oleh penelitian ini adalah mencari metode sistem rekomendasi produk yang bisa diterapkan bagi pembeli grosir. Penelitian dimulai dari pemahaman data terhadap struktur, karakteristik, hingga fungsinya. Data lalu diproses dan dibersihkan agar bisa menjadi masukan untuk teknik penggalian data. Penggalian data dilakukan menggunakan bahasa pemrograman R dengan paket utama cluster, arules, dan factoextra. Sistem rekomendasi terdiri dari dua tahapan: (1) segmentasi pelanggan dan (2) analisis keranjang belanja. Segmentasi pelanggan dilakukan dengan algoritme klustering CLARA dikombinasikan dengan model LRFM. Hasil segmentasi menemukan bahwa pelanggan Belanja Grosir terbagi ke dalam empat kelompok dengan karakteristik yang berbeda. Berikutnya, analisis keranjang belanja dilakukan untuk setiap empat kelompok ini menggunakan algoritme penggalian pola asosiasi ECLAT. Dari analisis, ditemukan bahwa produk rokok dan kopi sachet mendominasi kombinasi produk yang sering dibeli bersamaan. Berdasarkan informasi ini, PT. XYZ bisa membuat strategi penjualan dan pemasaran melalui rekomendasi produk.

PT. XYZ is an online marketplace and one of Indonesian tech unicorns. To acquire offline market, PT. XYZ launched new Mitra XYZ application on early 2018. The main user of this app is traditional mom-and-pop shops with feature like "Groceries Store". Unfortunately, Groceries Store revenue target was not achieved by the end of 2018. Based on the root cause analysis, the main issue that this research try to solve is finding a product recommendation system method for groceries user. The first step is data structure, characteristics, and function understanding. The raw data is then cleaned-up and preprocessed to be put to the data mining processes. The data mining technique is using R framework with main package cluster, arules, and factoextra. The recommendation system is a 2-step process: (1) customer segmentation and (2) market basket analysis. The customer segmentation part is implemented using CLARA clustering algorithm combined with LRFM model. The clustering results show that Groceries Store users are grouped into four clusters with unique characteristics. Next, the market basket analysis part for each of the four clusters is implemented using association rules mining ECLAT algorithm. The analysis show that cigarrettes and stick coffee products dominate the product combinations that are often bought together. Based on these findings, PT. XYZ can develop sales and marketing strategy by utilizing the proposed product recommendation system."
Depok: Fakultas Ilmu Komputer Universitas Indonesia , 2020
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Muhammad Faisal Adi Soesatyo
"Pendekatan transfer learning telah digunakan di beragam permasalahan, khususnya low-resource language untuk meningkatkan performa model di masing-masing permasalahan tersebut. Fokus pada penelitian ini ingin menyelidiki apakah pendekatan cross-lingual transfer learning mampu meningkatkan performa pada model constituency parsing bahasa Indonesia. Constituency parsing adalah proses penguraian kalimat berdasarkan konstituen penyusunnya. Terdapat dua jenis label yang disematkan pada konstituen penyusun tersebut, yakni POS tag dan syntactic tag. Parser model yang digunakan di penelitian ini berbasis encoder-decoder bernama Berkeley Neural Parser. Terdapat sebelas macam bahasa yang digunakan sebagai source language pada penelitian ini, di antaranya bahasa Inggris, Jerman, Prancis, Arab, Ibrani, Polandia, Swedia, Basque, Mandarin, Korea, dan Hungaria. Terdapat dua macam dataset bahasa Indonesia berformat Penn Treebank yang digunakan, yakni Kethu dan ICON. Penelitian ini merancang tiga jenis skenario uji coba, di antaranya learning from scratch (LS), zero-shot transfer learning (ZS), dan transfer learning dengan fine-tune (FT). Pada dataset Kethu terdapat peningkatan F1 score dari 82.75 (LS) menjadi 84.53 (FT) atau sebesar 2.15%. Sementara itu, pada dataset ICON terjadi penurunan F1 score dari 88.57 (LS) menjadi 84.93 (FT) atau sebesar 4.11%. Terdapat kesamaan hasil akhir di antara kedua dataset tersebut, di mana masing-masing dataset menyajikan bahwa bahasa dari famili Semitic memiliki skor yang lebih tinggi dari famili bahasa lainnya.

The transfer learning approach has been used in various problems, especially the low-resource languages, to improve the model performance in each of these problems. This research investigates whether the cross-lingual transfer learning approach manages to enhance the performance of the Indonesian constituency parsing model. Constituency parsing analyzes a sentence by breaking it down by its constituents. Two labels are attached to these constituents: POS tags and syntactic tags. The parser model used in this study is based on the encoder-decoder named the Berkeley Neural Parser. Eleven languages are used as the source languages in this research, including English, German, French, Arabic, Hebrew, Polish, Swedish, Basque, Chinese, Korean, and Hungarian. Two Indonesian PTB treebank datasets are used, i.e., the Kethu and the ICON. This study designed three types of experiment scenarios, including learning from scratch (LS), zero-shot transfer learning (ZS), and transfer learning with fine-tune (FT). There is an increase in the F1 score on the Kethu from 82.75 (LS) to 84.53 (FT) or 2.15%. Meanwhile, the ICON suffers a decrease in F1 score from 88.57 (LS) to 84.93 (FT) or 4.11%. There are similarities in the final results between the two datasets, where each dataset presents that the languages from the Semitic family have a higher score than the other language families."
Depok;;: Fakultas Ilmu Komputer Universitas Indonesia;;, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Fairuzi Teguh
"Open Information Extraction (Open IE) merupakan topik yang telah diteliti cukup lama terutama pada bahasa Inggris. Pada pekerjaan open information extraction, dikembangkan banyak model baik yang melakukan ekstraksi relasi umum maupun yang berfokus pada relasi khusus, misalnya relasi numerik. Pada bahasa Indonesia, telah dikembangkan beberapa model open information extraction namun belum ada model yang berfokus pada relasi numerik. Padahal, sangat banyak informasi yang disajikan dalam bentuk numerik sehingga informasi tersebut belum dapat dimanfaatkan dengan baik. Karena itu, pada riset ini kami berfokus pada ekstraksi relasi numerik pada teks berbahasa Indonesia. Tantangan dalam pekerjaan ini adalah banyaknya relasi yang mungkin dari ekspresi numerik serta kategori ekspresi numerik yang beragam yaitu kardinal, kuantitas, persen, dan uang. Selain itu, banyak juga ekspresi numerik yang tidak menyatakan sebuah relasi numerik. Kontribusi riset ini adalah model ekstraksi atribut numerik dari teks berbahasa Indonesia. Walaupun pekerjaan ini adalah pilot task, model kami memperoleh hasil yang cukup baik dengan precision score 61.06%.

Open Information Extraction (Open IE) is a widely studied topic, especially in English. In open information extraction research, many models have been developed for general relation extraction or for specific relations, for instance, numerical relations. In Indonesian language, there have been some works on open information extraction models but none is focusing on numerical relations. With so much information given in numerical expression, it is so unfortunate if that information can not be used. Thus, in this research, we focus on numerical relation extraction in Indonesian texts. The challenge in this work is a huge number of relations that can be produced from numerical expressions as well as several categories of numerical expressions: cardinal, quantity, percent, and money. Furthermore, many numerical expressions do not express any numerical relation. Our contribution is a numerical relation extraction model from Indonesian texts. While this work is a pilot task, our model obtained a good result with precision score of 61.06%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sinaga, Marshal Arijona
"Tugas Akhir ini menelaah least square adversarial autoencoder yang menggunakan least square generative adversarial network sebagai diskriminatornya. Diskriminator tersebut meminimalkan fungsi Pearson χ 2 divergence antara distribusi variabel laten dan suatu distribusi apriori. Adanya diskriminator memungkinkan autoencoder untuk membangkitkan data yang memiliki karakteristik yang menyerupai sampel pembelajarannya. Penelitian ini dilakukan dengan membuat program yang memodelkan least square adversarial autoencoder. Program memodelkan dua jenis autoencoder yaitu unsupervised least square adversarial autoencoder dan supervised least square adversarial autoencoder dengan memanfaatkan dataset MNIST dan FashionMNIST. Unsupervised least square adversarial autoencoder menggunakan variabel laten berdimensi 20 sementara supervised least square adversarial autoencoder menggunakan variabel laten masing-masing berdimensi 2, 3, 4, dan 5. Program diimplementasikan menggunakan framework PyTorch dan dieksekusi menggunakan Jupyter Notebook. Seluruh aktivitas pemrograman dilakukan pada environment cloud yang disediakan oleh Floydhub dan Tokopedia-UI AI Center yang masing-masing menggunakan GPU NVIDIA Tesla K80 dan NVIDIA Tesla V100 sebagai perangkat komputasinya. Proses pembelajaran pada unsupervised least square adversarial autoencoder berlangsung selama dua jam sementara pada supervised least square adversarial autoencoder berlangsung selama enam jam. Berdasarkan hasil eksperimen, nilai mean squared error unsupervised least square adversarial autoencoder untuk masing-masing dataset MNIST dan FashionMNIST adalah 0.0063 dan 0.0094. Sementara itu, nilai mean squared error supervised least square adversarial autoencoder pada dataset MNIST sebesar 0.0033. Selanjutnya, nilai Frechet Inception Distance unsupervised least square adversarial autoencoder untuk masing-masing dataset MNIST dan FashionMNIST adalah 15.7182 dan 38.6967. Sementara itu, nilai Frechet Inception Distance supervised least square adversarial autoencoder pada dataset MNIST sebesar 62.512. Hasil tersebut menunjukkan bahwa least square adversarial autoencoder mampu merekonstruksi citra dengan baik, namun kurang mampu membangkitkan citra dengan kualitas sebaik sampel pembelajarannya.

This Final Project (Tugas Akhir) investigates the least square adversarial autoencoder that uses least square generative adversarial network as its discriminator. The discriminator minimizes the Pearson χ 2 divergence between the latent variable distribution and the prior distribution. The presence of discriminator allows the autoencoder to generate data that has characteristics that resemble the original data. Python programs were developed to model the least square adversarial autoencoder. This programs try to model two types of autoencoder namely unsupervised least square adversarial autoencoder and supervised least square adversarial autoencoder by utilizing MNIST dataset and FashionMNIST dataset. The unsupervised least square adversarial autoencoder uses latent variables of dimension 20 while the supervised least square adversarial autoencoder uses latent variables with dimensions of 2, 3, 4, and 5, respectively. This programs were implemented using PyTorch and executed using Jupyter Notebook. All of the programming activities are carried out in the cloud environment provided by Floydhub and Tokopedia-UI AI Center, respectively using NVIDIA Tesla K80 GPU and NVIDIA Tesla V100 GPU as their computing resource. Training time in unsupervised least square adversarial autoencoder lasts for two hours while in supervised least square adversarial autoencoder lasts for six hours. The Results of experiments show that the mean squared error of unsupervised least square adversarial autoencoder for MNIST dataset and FashionMNIST dataset are 0.0063 and 0.0094, respectively. Meanwhile, the mean squared error of supervised least square adversarial autoencoder for MNIST dataset is 0.0033. Furthermore, the Frechet Inception Distance scores of unsupervised least square adversarial autoencoder for MNIST dataset and FashionMNIST dataset are 15.7182 and 38.6967, respectively. Meanwhile, the value of Frechet Inception Distance score of supervised least square adversarial autoencoder in MNIST dataset is 62.512. These results indicate that the least square adversarial autoencoder is able to reconstruct the image properly, but is less able to generate images with the same quality as the learning sample."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Ervan Adiwijaya Haryadi
"Pada masa pandemi COVID-19, banyak orang kehilangan pekerjaan karena perusahaan tidak mampu meraih keuntungan seperti pada kondisi normal dan terpaksa mengurangi jumlah pekerjanya. Kondisi ini bisa meningkatkan tingkat kejahatan terutama karena banyak orang tidak memiliki pendapatan. Salah satu metode efektif untuk mencegah terjadinya tindak kejahatan adalah dengan memasang sistem keamanan rumah (home security), dengan salah satu metode yang mudah dilakukan adalah memasang sistem pengawasan (surveillance). Penelitian ini bertujuan membuat sistem pengawasan yang memanfaatkan metode pelacakan wajah dan identifikasi wajah. Sistem ini menggabungkan 3 modul, yaitu pelacak Discriminative Single-Shot Segmentation (D3S), pendeteksi wajah MTCNN, dan pengenal wajah VGGFace2 untuk membuat sistem yang mampu melacak wajah orang yang tertangkap di kamera pengawasan. Sistem yang diusulkan juga memiliki fitur notifikasi untuk memberitahu jika ada orang asing yang terlalu lama berada di area pengawasan. Sistem ini akan mengevaluasi video bacaan dari Raspberry Pi dan PiCamera selaku alat penangkap citra. Sistem ini dievaluasi menggunakan metrik precision, recall, F-score untuk deteksi dan pelacakan, fps untuk evaluasi kecepatan komputasi, dan confusion matrix dengan akurasi untuk evaluasi identifikasi wajah. Dari hasil uji coba, sistem berjalan dengan kecepatan komputasi rata- rata sebesar 2.64 fps. Hasil pendeteksian dan pelacakan menunjukkan performa dengan nilai F-score 0.541 untuk dataset yang dikumpulkan sendiri. Akurasi identifikasi wajah memberikan hasil sebesar 50 persen.

During the COVID-19 pandemic, many people lost their jobs because companies were unable to make profits as normal conditions and were forced to reduce the number of workers. This condition could lead to increase of crime rate, especially because many people do not have any income. One way to prevent crime effectively is to install a safe home security system, in which a surveillance system is the most basic and effective. This study aims to create a surveillance system using face detection, face identification and face tracking method. This system combines 3 modules, namely Discriminative Single- Shot Segmentation (D3S) tracker, MTCNN face detector, and VGGFace2 face recognizer to create a system capable of tracking the faces of people caught on surveillance camera(s). The proposed system also have a notification feature to tell the house owner if a stranger have been staying in surveillance area for too long. This system will evaluate video readings from the Raspberry Pi as the camera capture tool. The system is evaluated using metrics such as precision, recall, F-score for detection and tracking, fps for computational speed evaluation, and confusion matrix with accuracy for evaluating the facial identification. From the test result, the system runs with a computation speed of 2.64 fps. The detection and tracking results show the performance with an F-score of 0.541. Facial identification accuracy gave a result of 50 percent."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adella Rakha Amadea
"Dalam era perkembangan teknologi, penerapan teknologi informasi menjadi kunci untuk meningkatkan efisiensi dan efektivitas operasional perusahaan. Data science memainkan peran penting dalam mengubah data besar menjadi pengetahuan yang berguna untuk pengambilan keputusan. Skripsi ini mengembangkan platform AutoML (Automated Machine Learning) pada aplikasi Lumba.ai yang dirancang untuk mempermudah proses prediksi tanpa memerlukan keterampilan teknis khusus. AutoML menawarkan tur otomatisasi untuk memilih model terbaik berdasarkan dataset yang diberikan, serta menyederhanakan proses pemrosesan data. AutoML diimplementasikan menggunakan message queuer dan worker secara asinkron. Prediksi pada tur AutoML dilakukan menggunakan tiga jenis metode prediksi, yaitu klasi kasi, regresi, dan klaster, dengan berbagai dataset untuk menilai kinerja model yang dihasilkan. Hasil penelitian menunjukkan bahwa Lumba.ai dapat memberikan hasil prediksi yang akurat dan e sien, serta memberikan visualisasi yang informatif untuk analisis lebih lanjut. Saran dan masukan dari pengguna juga diintegrasikan untuk meningkatkan fungsionalitas dan kegunaan platform.

In the era of technology development, the application of information technology is crucial for enhancing operational ef ciency and effectiveness. Data science plays a vital role in transforming big data into useful knowledge for decision-making. This thesis develops an AutoML (Automated Machine Learning) feature on Lumba.ai application, designed to facilitate prediction processes without requiring specialized technical skills. Lumba.ai offers automated features for selecting the best model based on the given dataset and simpli es data preprocessing. This feature is implemented by using asynchrnous worker and message queuer. Predictions from AutoML feature involves three types of prediction methods, that is classi cation, regression, and clustering, using various datasets to assess model performance. The results demonstrate that Lumba.ai provides accurate and ef cient predictions and offers informative visualizations for further analysis. User feedback is integrated to enhance the platform’s functionality and usability."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Fadhil Dzulfikar
"

Urgensi personalisasi e-commerce saat ini didorong oleh beberapa faktor, diantaranya pertumbuhan pasar e-commerce, ekpektasi konsumen, information overload dan keuntungan yang signifikan bagi pengembang. Akan tetapi, menerapkan personalisasi e-commerce yang efektif bukanlah permasalahan yang mudah (non-trivial). Terdapat berbagai macam tantangan dari setiap proses personalisasi, mulai dari  tahap memahami konsumen, menyajikan personalisasi hingga tahap mengevaluasi dampak personalisasi. Saat ini, penelitian pada bidang ilmu komputer banyak memfokuskan studi pada tahap memahami konsumen dan menyajikan personalisasi. Di sisi lain, tahapan terakhir yakni evaluasi belum dieksplor sehingga evaluasi performa personalisasi e-commerce yang ada belum efektif. Beberapa penyebab masalah ini di antaranya adalah tujuan dan metrics yang tidak jelas, evaluasi hanya menggunakan perspektif teknis, dan terbatasnya metode evaluasi performa personalisasi. Untuk itu penelitian ini mencoba untuk mengusulkan metode yang metrics evaluasi dipetakan berdasarkan tujuannya dengan jelas. Selain itu, metode ini juga tidak hanya mengevaluasi dari perspektif teknis, tetapi juga bisnis. Pengembangan metode dilakukan berdasarkan hasil analisis data primer (wawancara) dan data sekunder (literatur). Setelah itu metode diuji engan pendekatan online dan offline menggunakan dataset Amazon dan MovieLens. Kesimpulannya, hasil pengembangan metode ini jika dibandingkan metode Carvalho tidak hanya menggunakan perspektif teknis, tetapi juga bisnis berupa akurasi, cakupan konsumen dan daya tarik produk yang dipersonalisasi.


The urgency of e-commerce personalization is currently driven by several factors, including e-commerce growth, consumer expectations, information overload and significant benefits for enterprise. However, implementing an effective e-commerce personalization is a non-trivial problem. There are several challenges in every personalization process, start from understanding consumers, presenting personalization and evaluating personalization performance. Today, research in computer science focuses on understanding consumers and presenting personalization only. On the other hand, the evaluation process has not been explored. It causes ineffectiveness in the evaluation of e-commerce personalization. The causes of this problem are unclear goals and metrics, technical perspective only, and limited methods of evaluating personalization performance. Therefore, this research proposes a method which evaluation metrics are mapped based on their objectives clearly. In addition, this method also not only evaluates from a technical perspective, but also business perspectives. Method development is based on the analysis results of primary data (interviews) and secondary data (literatures). The proposes method was tested with online and offline approaches using the Amazon dataset and MovieLens. In conclusion, the results of developing this method when compared to the Carvalho’s method have another insight not only technical perspective but also business perspective, including consumer coverage and attractiveness.

 

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
T52457
UI - Tesis Membership  Universitas Indonesia Library
cover
Andika Candra Jaya
"ABSTRAK
Steganografi adalah metode pengamanan informasi yang dikembangkan untuk menutupi keberadaan informasi itu alih-alih mengacak informasi tersebut. Permasalahan dari steganografi adalah kapasitas yang terbatas karena keharusan steganografi untuk tidak menimbulkan kecurigaan akibat derau pada medium. Tesis ini membahas teknik yang dapat meningkatkan kapasitas steganografi dengan memanipulasi gambar sedemikian sehingga kapasitas steganografi dapat ditingkatkan dengan teknik-teknik manipulasi yang diijinkan dalam kompetisi fotografi. Teknik manipulasi gambar yang dapat menunjukkan peningkatan kapasitas steganografi gambar antara lain, peningkatan kontras, pengaturan kecerahan, peningkatan kualitas, perubahan dimensi terbatas, dan pemilihan gambar dengan banyak subyek.

ABSTRACT
Steganography is a way to secure information by hiding it as opposed to scrambling said information as in cryptography. The problem with steganography is that it often limited in capacity due to requirement to not raise suspicion regarding the image distortion. This thesis discussed techniques that enhance capacity using image manipulation techniques allowed in photography contests. Capacity-enhancing techniques are equalization, contrast stretching, brightness adjustment, quality improvement, limited image scaling, and choosing images with more subjects"
2018
T54462
UI - Tesis Membership  Universitas Indonesia Library
cover
IGM Surya A. Darmana
"

Sistem Isyarat Bahasa Indonesia (SIBI) adalah sistem bahasa isyarat yang diakui secara resmi oleh Departemen Pendidikan dan Kebudayaan Indonesia dan digunakan sebagai salah satu media komunikasi dalam proses pembelajaran di SLB (Sekolah Luar Biasa) bagi kaum tunarungu. Bagi kaum awam yang sama sekali tidak mengetahui gerakan isyarat SIBI tentunya akan mengalami kesulitan ketika harus berkomunikasi dengan kaum tunarungu. Berangkat dari hal tersebut, diperlukan suatu sistem penerjemah dari gerakan SIBI ke teks Bahasa Indonesia, ataupun sebaliknya dari teks Bahasa Indonesia ke gerakan SIBI. Penelitian ini merupakan tahapan awal dari sistem penerjemah dari teks Bahasa Indonesia ke bahasa isyarat yang memiliki fokus untuk melakukan proses pembangkitan gerakan isyarat dari suatu kalimat menjadi isyarat SIBI dalam bentuk animasi tiga dimensi gerakan tangan dan jari pada platform telepon pintar. Proses pembangkitan gerakan dimulai dari proses dekonstruksi kalimat menjadi komponen-komponen kata penyusunnya menggunakan look-up table kata berimbuhan, kata dasar, dan kamus slang. Komponen-komponen kata lalu direferensikan dengan animasi gerakannya. Data gerakan didapat melalui proses perekaman menggunakan sensor motion-capture perception neuron v2 yang mengacu pada kamus SIBI. Dalam proses penyusunan gerakan-gerakan SIBI, akan terdapat jeda antara gerakan awal menuju gerakan selanjutnya. Sehingga diperlukan beberapa gerakan transisi yang dibangkitkan menggunakan interpolasi cross-fading. Berdasarkan hasil evaluasi yang telah dilakukan, gerakan yang dibangkitkan dapat merepresentasikan gerakan SIBI yang benar dengan nilai akurasi terbesar 97.56%, dan 84% hasil pembangkitan dinyatakan Sangat Puas, 14% Puas, serta 2% Cukup.


Sign System for Bahasa Indonesia (SIBI) is the official sign language authorized by The Ministry of Education and Culture of Indonesia and being used as one of the communication media by School for Children with Special Needs (SLB) for people with hearing impairments in the process of learning. For people who have a lack of knowledge about SIBI gestures certainly will have difficulty to communicate with people with hearing impairments. Thus, a translation system from SIBI gestures to sentences in Bahasa Indonesia or vice versa is needed. This research is the initial stage of a translation system from sentences in Bahasa Indonesia to SIBI Gestures. The focus of this research is to generate sign gestures in the form of 3D Animation from a sentence input in text format and deployed on the smartphone device. The generation process started from deconstructing the input sentence into its word components using a look-up table that consists of affixes, root words, and a slang dictionary. Then, this word components referred to their gesture animations. The gesture data were recorded with motion-capture sensor Perception Neuron v2 and using the official SIBI Dictionary as reference. In the process of combining the SIBI gestures, a pause between the initial gesture and the next gesture has occurred. Thus, transition gestures also needed to be generated using the cross-fading interpolation. Based on evaluation results, generated gestures correctly represent smooth SIBI gestures with the largest accuracy score of 97.56% with a level of Very Satisfied 84%, Satisfied 14%, Fair 2%.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3 4 5   >>