Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 4 dokumen yang sesuai dengan query
cover
Yislam
"ABSTRAK
Perkembangan Internet di Indonesia cukup pesat, hal ini ditandai dengan meningkatnya penggunaan jejaring sosial, khususnya Twitter. Untuk mengetahui pandangan masyarakat terhadap suatu pemerintahan dapat digunakan analisis sentimen menggunakan data Twitter. Penelitian ini melakukan analisis sentimen terhadap pemerintahan Jokowi dalam bidang politik, ekonomi dan hukum. Metode untuk mengklasifikasikan sentimen pada tweet berdasarkan kamus leksikon. Data twitter dikumpulkan selama satu bulan dari tanggal 1 sampai 31 Oktober 2015 berjumlah 6489, 3967 dan 8018 untuk bidang politik, ekonomi dan hukum. Pengklasifikasian twitter menjadi tiga kelompok, positif, negatif dan netral. Secara umum hasil uji coba menunjukkan bahwa sebagian besar data twitter diklasifikasikan sebagai netral. Jika dilihat hanya sentimen positif dan sentimen negatif maka untuk bidang politik dan ekonomi sentimen positif lebih tinggi, sedangkan untuk bidang hukum sentimen negatif lebih tinggi.

ABSTRACT
The development of the Internet in Indonesia is quite rapid, it is marked by the increasing use of social networks, especially Twitter. To find out the public?s view of a government may use sentiment analysis using Twitter data. This research analyzes citizen sentiment to Indonesian government in the fields of politics, economics and law. The method to classify sentiment in a tweet based on lexicon of those fields. We collect data Twitter during one month in October 2015, the number of data are 6489, 3967 and 8018 for the fields of politics, economics and law, respectively. We classify the data into three groups: positive, negative and neutral. In general, results of experiments showed that most of the data twitter classified as neutral. When only include positive and negative sentiment, there is higher positive sentiment on politics and economic fields, while negative sentiment higher for the laws field.
"
2016
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Raksaka Indra Alhaqq
"Banyaknya ulasan aplikasi Info BMKG yang belum pernah diolah menyulitkan pengembang aplikasi dalam mengembangkan fitur berdasarkan masukan pengguna. Ulasan pengguna aplikasi terdapat informasi penting yang dapat dijadikan rujukan oleh pengembang untuk meningkatkan kualitas layanan aplikasi. Penelitian ini bertujuan untuk membuat model klasifikasi terbaik terhadap ulasan pengguna aplikasi Info BMKG. Dataset yang digunakan berasal dari ulasan pengguna aplikasi Info BMKG di Google Play Store sebanyak 10.286 data. Klasifikasi ulasan dibagi ke dalam dua label, yaitu label relevansi dan label kategori. Label relevansi terdiri atas kelas relevan dan tidak relevan. Untuk label kategori terbagi empat kelas yaitu bug report, user request, weather information performance (layanan cuaca), dan earthquake information performance (layanan gempa bumi). Algoritme klasifikasi yang digunakan adalah Naïve Bayes, Support Vector Machine (SVM), Logistic Regression, dan Random Forest. Penelitian ini menghasilkan dua model untuk klasifikasi relevansi dan klasifikasi kategori. Hasil pemodelan klasifikasi terbaik untuk relevansi diraih oleh SVM dengan nilai akurasi sebesar 92,61%. Sedangkan untuk klasifikasi kategori, hasil pemodelan terbaik diraih oleh Random Forest dengan nilai akurasi sebesar 87,69%. Kedua model terbaik melalui teknik over-sampling pada dataset dan normalisasi koreksi ejaan pada tahap prapemrosesan. Untuk ekstraksi fitur terbaik pada model klasifikasi relevansi menggunakan unigram dengan TF-IDF dan panjang teks. Sementara pada model klasifikasi kategori hanya menggunakan unigram dengan TF-IDF saja.

A large number of unprocessed Info BMKG app reviews makes it difficult for app developers to develop features based on user input. App user reviews contain important information that can be used as a reference by developers to improve the service quality of the app. This study aims to create the best classification model for user reviews of the Info BMKG app. Dataset used comes from user reviews of the Info BMKG app on the Google Play Store of 10,286 data. Review classification is divided into two labels, namely the relevance label and the category label. The relevance label consists of relevant and irrelevant classes. Category labels are divided into four classes, namely bug reports, user requests, weather information performance (weather services), and earthquake information performance (earthquake services). The classification algorithm used is Naïve Bayes, Support Vector Machine (SVM), Logistic Regression, and Random Forest. This research produces two models for relevance classification and category classification. Best classification modeling results for relevance were achieved by SVM with an accuracy value of 92.61%. For category classification, the best modeling results were achieved by Random Forest with an accuracy value of 87.69%. The two best models are over-sampling techniques on the dataset and normalization of spelling corrections at the pre-processing stage. The best feature extraction in the relevance classification model was carried out with the TF-IDF unigram and text length. Meanwhile, the category classification model only uses the TF-IDF unigram.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Dimas Sony Dewantara
"Berita palsu memiliki peranan yang besar terkait penyebaran informasi yang salah terhadap para pembacanya. Informasi yang salah dapat mempengaruhi persepsi atau dapat menimbulkan bias pada pemahaman hingga dapat mengubah pilihan seseorang dalam pengambilan keputusan. Kesalahan persepsi atau bias dalam pengambilan keputusan ini berpotensi menimbulkan konflik pada masyarakat. Dewasa ini, penyebaran berita palsu kian meningkat seiring berkembangnya media penyampaian informasi dalam bentuk daring atau online. Makin maraknya penyebaran berita palsu ini membuat perlunya dibangun suatu sistem yang dapat mendeteksi keberadaan berita palsu sehingga dapat meminimalisir dampak yang mungkin ditimbulkan. Permasalahan pendeteksian berita palsu ini merupakan permasalahan klasifikasi teks binomial yang mengelompokkan suatu konten berita menjadi berita asli atau berita palsu. Penelitian terkait pendeteksian berita palsu ini telah banyak dilakukan sebelumnya terutama dengan menggunakan pendekatan analisis pola tekstual pada konten berita. Namun pendekatan ini memiliki keterbatasan ketika produsen dari konten berisikan berita palsu memiliki kemampuan dalam mereplikasi pola tekstual tertentu yang menjadi ciri dari berita asli sehingga dapat mengelabuhi model prediksi yang digunakan. Penilaian kredibilitas sumber berita dapat dijadikan fitur tambahan selain fitur berupa pola tekstual. Sumber berita dengan kredibilitas yang baik memiliki kecenderungan dalam menghasilkan konten berita yang valid atau dapat dipercaya. Sebaliknya, sumber berita dengan kredibilitas yang buruk cenderung menghasilkan konten berita palsu atau menyesatkan. Penelitian ini menggunakan suatu sistem klasifikasi teks binomial untuk mendeteksi berita palsu melalui kombinasi metode analisis pola tekstual dengan kredibilitas sumber berita sebagai fitur tambahan. Algoritma yang digunakan penulis meliputi Multinomial Naive Bayes (MNB), Logistic Regression (LR), Support Vector Machine (SVM) dan Random Forest Decision Tree (RFDT) yang merupakan algoritma Machine Learning serta beberapa algoritma Deep Learning seperti Convolutional Neural Network (CNN), Long Short Term Memory (LSTM) serta kombinasi dari kedua algoritma tersebut. Penulis juga menggunakan metode Word Embedding Bahasa Indonesia sebagai penunjang penggunaan metode Deep Learning. Hasil dari percobaan menunjukan klasifikasi dengan CNN pada skenario fitur pernyataan dikombinasikan dengan fitur info redaksi menghasilkan F1-Score tertinggi sebesar 0.9354 atau sekitar 93%.

Fake news has a big role in spreading misinformation to its readers. Incorrect information can affect perceptions or can cause bias in understanding so that it can change a person's choices in decision making. Misperceptions or biases in making these decisions have the potential to cause conflict in the community. Today, the spread of fake news is increasing along with the development of information delivery media online or online. The more widespread the spread of fake news makes it necessary to build a system that can detect fake news to minimize the impact that may be caused. The problem of detecting fake news is classifying binomial text, which groups news content into original news or fake news. Many studies related to detecting fake news have been carried out before, especially by using a textual pattern analysis approaches on news content. However, this approaches has limitations when producers of content containing fake news have the ability to replicate certain textual patterns that characterize real news so that it can fool the predictive model used. Assessment of the credibility of news sources can be used as an additional feature in addition to features in the form of textual patterns. News sources with good credibility have a tendency to produce news content that is valid or trustworthy. On the other hand, news sources with poor credibility tend to produce false or misleading news content. This research uses a binomial text classification system to detect fake news using a combination of textual pattern analysis methods with news source credibility as an additional feature. The algorithms that will be used by the author include Multinomial Naive Bayes (MNB), Logistic Regression (LR), Support Vector Machine (SVM) and Random Forest Decision Tree (RFDT), which are Machine Learning algorithms as well as several Deep Learning algorithms such as Convolutional Neural Network (CNN) , Long Short Term Memory (LSTM) and the combination of the two algorithms. The author will also use the Indonesian Word Embedding method to support the use of the Deep Learning method. The results of the experiment show that classification with CNN in the statement feature scenario combined with the editorial info feature produces the highest F1-Score of 0.9354 or around 93%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Hamam Wulan Ayu
"Pemerintah Provinsi DKI Jakarta telah mengembangkan sistem Cepat Respon Masyarakat untuk mendukung partisipasi masyarakat. Masyarakat DKI Jakarta dapat menyampaikan keluhan non-darurat di 14 kanal dan memantau proses penyelesaiannya di portal yang tersedia. Namun, tidak semua aduan yang disampaikan masyarakat mempunyai keterangan yang lengkap. Beberapa aduan tidak menyertakan deskripsi, lokasi, maupun waktu kejadian. Hal ini menyulitkan petugas Operasi Perangkat Daerah (OPD) dalam melakukan penyelesaian aduan. Dalam menangani permasalahan tersebut, diperlukan suatu sistem yang dapat digunakan untuk mendeteksi kelengkapan suatu aduan dari masyarakat, sehingga dapat secara otomatis mengingatkan masyarakat untuk membuat laporan yang lengkap. Penelitian ini membahas performa model yang dapat mendeteksi kelengkapan keterangan laporan aduan. Rangkaian metode yang diterapkan adalah deteksi kelengkapan keterangan deskripsi, deteksi kelengkapan keterangan lokasi, dan deteksi kelengkapan keterangan waktu. Deteksi kelengkapan keterangan deskripsi diuji dengan pendekatan machine learning menggunakan fitur Term Frequency-Inverse Document Frequency (TF-IDF) dan N-gram. Algoritma machine learning yang diimplementasikan adalah Multinomial Na ̈ıve Bayes (MNB), Support Vector Machine (SVM), dan Random Forest Decision Tree (RDFT). Deteksi kelengkapan keterangan lokasi dan waktu diuji menggunakan sistem Named Entity Recognition (NER) Wirawan (2020) dengan model pre-trained Bidirectional Encoder Representations from Transformers (BERT) dan basis data NERGRIT. Ekstraksi kata kunci keterangan deskripsi dilakukan menggunakan pendekatan LIME explainer. Hasil eksperimen menunjukan bahwa algoritma RFDT menggunakan fitur TF dan word unigram dengan balancing data menggunakan Synthetic Minority Over-sampling Technique (SMOTE) menghasilkan performa tertinggi untuk klasifikasi kelengkapan keterangan deskripsi laporan aduan dengan nilai makro F1 sebesar 0.7154. Deteksi kelengkapan keterangan lokasi dan waktu menggunakan model NER pre-trained BERT menghasilkan nilai makro F1 sebesar 0.8634 dan 0.6252. Hasil pemetaan kata kunci keterangan deskripsi, lokasi dan waktu dievaluasi dengan metrik cosine similarity secara berurutan menghasilkan nilai sebesar 0.5890, 0.6252 dan 0.8487.

The Provincial Government of DKI Jakarta has developed a Cepat Respon Masyarakat system to support community participation and optimization of government performance. DKI Jakarta citizens can submit non-emergency complaints in 14 channels integrated with the Cepat Respon Masyarakat and monitor the resolution process on the available portal. However, not all complaints submitted by the public have complete information. Some complaints do not include a description, location, or time of occurrence. This will make it difficult for the Organisasi Perangkat Daerah (OPD) officers to resolve them. To deal with this problem, we need a system that can detect the completeness of a complaint from the public to automatically remind them to make a complete report. This study discusses the performance of models that can detect complaint report completeness. The methods applied are detection of completeness of description information, detection of completeness of location information, and detection of completeness of time information. Detection of completeness of descriptions was tested using the machine learning approach with the Term Frequency-Inverse Document Frequency (TF-IDF) and N-gram as the features. The implemented machine learning algorithms are Multinomial Na ̈ıve Bayes (MNB), Support Vector Machine (SVM), and Random Forest Decision Tree (RDFT). Detection of completeness of location and time descriptions was tested using Named Entity Recognition (NER) system by Wirawan (2020) with pre-trained Bidirectional Encoder Representations from Transformers (BERT) model dan NERGRIT as data basis. Description’s keyword extraction was performed by LIME explainer implementation. The experimental results show that the RFDT algorithm with TF and word unigram features and data balancing using Synthetic Minority Over-sampling Technique (SMOTE) produced the highest performance for the classification of the completeness of the description with F1 macro value of 0.7154. Classification of completeness of location and time information using the pre-trained BERT model resulted in F1 macro values of 0.8634 and 0.6252. The results of the detection of description keywords, location keywords, and time keywords were evaluated using the cosine similarity metric, respectively, yielding a value of 0.863448, 0.6252, and 0.8487."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library