Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 65629 dokumen yang sesuai dengan query
cover
Nofa Aulia
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
T51811
UI - Tesis Membership  Universitas Indonesia Library
cover
Fairuz Astari Devianty
"Dengan tumbuh dan berkembangnya platform media sosial, komunikasi bisa menjadi lebih mudah dilakukan. Namun, hal tersebut dapat disalahgunakan, seperti penyebaran hate speech melalui media sosial yang semakin marak terjadi. Meski kebebasan berekspresi adalah hak setiap orang di Indonesia, namun karena dampak negatifnya konten kebencian harus dihilangkan. Salah satu solusinya adalah dengan membangun sebuah model yang dapat mendeteksi hate speech secara otomatis. Untuk membangun model pendeteksian hate speech yang baik, dibutuhkan data beranotasi dengan jumlah yang besar untuk melatih model. Selain itu perlu juga diperhatikan target dan kategori dari hate speech tersebut. Namun, saat ini hanya ada satu multi-label hate speech dataset Bahasa Indonesia yang tersedia dan memiliki kekurangan proposi data dari setiap label yang tidak seimbang. Untuk mengatasi masalah kekurangan data ini, penulis mengusulkan sebuah metode yaitu Forward-Backward Translation untuk menghasilkan data secara otomatis. Metode ini merupakan gabungan dari forward translation dan back-translation. Forward translation dilakukan pada dataset dari high-resource language dan back-translation dilakukan pada dataset dari low-resource language. Dengan digabungkannya kedua proses ini dataset yang dihasilkan akan memiliki jumlah yang besar dan memiliki kualitas terjemahan yang baik. Metode ini digunakan untuk menambahkan data pada deteksi multi-label hate speech Bahasa Indonesia dengan tambahan data dari Bahasa Inggris. Performa pendeteksian multi-label hate speech pada dataset baru hasil penelitian ini berhasil meningkat bila dibandingkan dengan pada dataset hate speech Bahasa Indonesia yang sudah ada. Dataset ini mendapatkan F1-score sebesar 0.76 saat melakukan multi-label classification dan F1-score sebesar 0.78 saat melakukan hierarchical classification.

The growth and development of social media platforms make communication easier. However, this can be misused. For example, the spread of hate speech via social media is increasing. Freedom of speech is everyone's right in Indonesia, but malicious content must be eliminated due to its negative impact. One solution is to build a model that can automatically detect hate speech. Building a good hate speech detection model requires a large amount of annotated data to train the model. It is also necessary to pay attention to the target, category, and level of hate speech. However, there is currently only one multi-label hate speech dataset in Bahasa Indonesia available and the proportion of data for each label is unequal. To overcome this data scarcity problem, we propose a forward-backward translation method to generate data automatically. This method combines forward and backward translation. A forward translation is performed for dataset in high-resource languages and a backward translation is performed for dataset in low-resource languages. By combining these two processes, the resulting dataset will have a large amount of data and good translation quality. This method will be used to add data on multi-label hate speech detection in Bahasa Indonesia with additional data from English. As a result of this study, the performance of multi-label hate speech detection in the new dataset improved compared to the existing Bahasa Indonesia hate speech dataset. This dataset gets an F1-score of 0.76 for multi-label classification and an F1-score of 0.78 for hierarchical classification."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Ajeng Dwi Asti
"Ujaran kebencian dapat menyebabkan terjadinya konflik dan pembantaian di masyarakat sehingga harus segera ditangani. Indonesia memiliki lebih dari 700 bahasa daerah dengan karakteristik masing-masing. Ujaran kebencian yang ada di Indonesia juga pernah dilakukan menggunakan bahasa daerah. Media sosial Twitter paling sering digunakan dalam menyebarkan ujaran kebencian. Identifikasi target, kategori, serta level ujaran kebencian dapat membantu Polri dan Kemenkominfo dalam menentukan prioritas penanganan ujaran kebencian sehingga dapat meminimalisir dampaknya. Penelitian ini melakukan identifikasi ujaran kasar dan ujaran kebencian beserta target, kategori, dan level ujaran kebencian pada data Twitter berbahasa daerah menggunakan algoritma classical machine learning dan deep learning. Penelitian ini menggunakan data lima bahasa daerah di Indonesia dengan penutur terbanyak yaitu Jawa, Sunda, Madura, Minang, dan Musi. Pada data Bahasa Jawa performa terbaik diperoleh menggunakan algoritma Support Vector Machine (SVM) dengan transformasi data Classifier Chains (CC) serta kombinasi fitur word unigram, bigram, dan trigram dengan F1-score 70,43%. Algoritma SVM dengan transformasi data CC serta kombinasi fitur word unigram dan bigram memberikan performa terbaik pada data Bahasa Sunda dan Madura dengan masing-masing F1-score 68,79% dan 78,81%. Sementara itu, pada data Bahasa Minang dan Musi hasil terbaik diperoleh menggunakan algoritma SVM dengan transformasi data CC serta fitur word unigram dengan F1-score 83,57% dan 80,72%. Penelitian ini diharapkan dapat digunakan sebagai masukan bagi Polri dan Kemenkominfo dalam pembangunan sistem identifikasi ujaran kasar, ujaran kebencian serta target, kategori, dan level ujaran kebencian pada media sosial.

Hate speech can lead to conflict and massacres in society so it must be dealt immediately. Indonesia has more than 700 regional languages with their own characteristics. Hate speech in Indonesia has also been carried out using regional languages. Twitter is the most frequently used social media to spread hate speech. Identification of targets, categories, and levels of hate speech can help the National Police and the Ministry of Communication and Information to determine priorities for handling hate speech to minimize its impact. This study identifies abusive speech and hate speech along with the target, category, and level of hate speech on regional language Twitter data using classical machine learning and deep learning algorithms. This study uses data from five regional languages in Indonesia with the most speakers, namely Javanese, Sundanese, Madurese, Minang, and Musi. In Java language data, the best performance is obtained using the Support Vector Machine (SVM) algorithm with Classifier Chains (CC) data transformation and a combination of unigram, bigram, and trigram word features with an F1-score of 70.43%. The SVM algorithm with CC data transformation and the combination of unigram and bigram word features provides the best performance on Sundanese and Madurese data with F1-scores of 68.79% and 78.81%, respectively. Meanwhile, in Minang and Musi language data, the best results were obtained using the SVM algorithm with CC data transformation and word unigram features with F1-scores of 83.57% and 80.72%, respectively. This research is expected to be used as input for the National Police and the Ministry of Communication and Information in developing a system for identifying harsh speech, hate speech and the target, category, and level of hate speech on social media."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Amanda Nydia Augustizhafira
"Analisis sentimen merupakan bagian dari data mining text mining , yaitu proses memahami, mengekstrak, dan mengolah data tekstual secara otomatis untuk mendapatkan informasi. Pada penelitian ini, analisis sentimen diterapkan pada salah satu media sosial, yaitu Twitter. Analisis sentimen tergolong sebagai masalah klasifikasi yang dapat diselesaikan menggunakan salah satu metode machine learning, yaitu Neural Network. Pada machine learning, data dibagi menjadi data pelatihan dan data pengujian yang berasal dari domain yang sama.
Permasalahan utama pada penelitian ini adalah data pelatihan dan data pengujian berasal dari dua domain yang berbeda, sehingga perlu diterapkan pembelajaran lain selain machine learning. Masalah tersebut dapat diselesaikan dengan menggunakan transfer learning. Transfer learning merupakan suatu pembelajaran model yang dibangun oleh suatu data pelatihan dari suatu domain dan diuji oleh suatu data pengujian dari domain yang berbeda dari domain data pelatihan. Simulasi dalam penelitian ini menghasilkan suatu akurasi transfer learning dengan metode Neural Network yang nantinya akan diuji dengan fitur n-gram bi-gram dan tri-gram serta satu metode seleksi fitur, yaitu Extra-Trees Classifier.
Dalam penelitian ini, nilai akurasi transfer learning tertinggi didapat saat hidden layer berjumlah satu. Sebagian besar nilai akurasi tertinggi didapat saat penggunaan 250 neuron pada hidden layer. Fungsi aktivasi ReLU dan tanh menghasilkan nilai akurasi yang lebih tinggi dibandingkan fungsi aktivasi logistic sigmoid. Penggunakan metode seleksi fitur dapat meningkatkan kinerja transfer learning sehingga nilai akurasinya lebih tinggi dibandingkan simulasi tanpa penggunaan metode seleksi fitur.

Sentiment analysis is a part of data mining text mining , which is the process of understanding, extracting, and processing textual data automatically to obtain information. In this research, sentiment analysis is applied to one social media called Twitter. Sentiment analysis is categorized as a classification problem that can be solved using one of machine learning methods, namely Neural Network. In machine learning, data is divided into training data and test data from the same domain.
The main problem in this research is training data and test data come from two different domains, so it is necessary to apply other learning beside machine learning. The problem can be solved by using transfer learning. Transfer learning is a model learning constructed by a training data from a domain and tested by a test data from a different domain from the training data domain. The simulation in this research resulted in an accuracy of learning transfer with Neural Network method which will be tested using n grams bi grams and tri grams and one feature selection method called Extra Trees Classifier.
In this research, the highest value of transfer learning accuracy is obtained when one hidden layer is used. Most of the highest accuracy values are obtained from the use of 250 neurons on the hidden layer. The activation function of ReLU and tanh yield a higher accuracy value than the logical activation function sigmoid . The use of feature selection method can improve the transfer learning performance so that the accuracy value is higher than simulation without the use of feature selection method.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Riefky Arif Ibrahim
"Katarak merupakan salah satu jenis kelainan mata yang menyebabkan lensa mata menjadi berselaput dengan pandangan berawan, sehingga memungkinkan untuk mengalami kebutaan total. Penderita katarak dapat disembuhkan dengan operasi setelah sebelumnya dilakukan computed tomography (CT) scan dan magnetic resonance imaging (MRI) sebagai metode untuk mendapatkan citra digital mata. Namun, penggunaan metode ini tidak selalu memungkinkan, terutama untuk fasilitas kesehatan di negara berkembang, karena kurangnya rumah sakit atau klinik mata yang menyediakan fasilitas berteknologi lengkap. Penelitian ini bertujuan untuk membantu proses analisis citra mata agar lebih cepat dan akurat dengan menggunakan model deep learning untuk memprediksi mata katarak menggunakan arsitektur CNN dengan terlebih dahulu menganalisis performa model dan membandingkan akurasi/loss model dengan penelitian sebelumnya. Metode perancangan model deep learning ini dilakukan dimulai dari preprocessing, membangun arsitektur model, proses training, dan diakhiri dnegan evaluasi hasil model dengan mengguakan confusion matrix dan classification report. Dari perancangan ini, didapatkan hasil validasi akurasi model sebesar 92.97% dan hasil validasi loss 0.1539. Dari model yang penulis buat dihasilkan model deep learning dengan nilai evaluasi pendeteksian mata katarak dengan presisi 94.30%, recall 97.47%, dan f-1 score 95.85%. Hasil dari penelitian ini menunjukkan bahwa model yang penulis rancang telah dapat memprediksi gambar penyakit katarak dengan akurasi diatas 80 % dengan loss dibawah 30 % dengan hasil presisi, recall, dan f-1 score >90% dan menunjukkan tingkat overfitting yang minimal.

Cataract is an eye condition in which the lens of the eye becomes webbed and cloudy, resulting in total blindness. Cataract patients can be cured through surgery after undergoing computed tomography (CT) scans and magnetic resonance imaging (MRI) to obtain digital images of the eyes. However, due to a lack of hospitals or eye clinics that provide complete technology facilities, this method is not always feasible, particularly for health facilities in developing countries, particularly in Indonesia. By first examining the model's performance and comparing the model's accuracy/loss with prior research, this study intends to make the eye image analysis process faster and more accurate by employing a deep learning model to predict cataracts using the CNN architecture. Starting with preprocessing, designing the model architecture, training, and finally evaluating the model outcomes using a confusion matrix and classification report, this deep learning model design technique is followed. The model accuracy validation results from this design are 92.97 % and the loss validation results are 0.1539. A deep learning model with an evaluation value of cataract eye detection with a precision of 94.30 %, recall of 97.47 %, and an f-1 score of 95.85 % was produced from the author's model. According to the findings of this study, the author's model can predict cataract images with an accuracy of more than 80%, a loss of less than 30%, precision, recall, and f-1 score greater than 90%, and minimal overfitting.

"
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Helmi Qosim
"ABSTRAK
Synthesis loop merupakan salah satu sistem kritis di pabrik amoniak. Oleh karena itu, ada urgensi untuk menjaga reliability dan availability pada sistem ini. Sebagian besar peristiwa shutdown di pabrik amoniak terjadi tiba-tiba setelah alarm tercapai. Jadi, perlu ada sistem deteksi dini untuk memastikan masalah anomali ditangkap oleh operator sebelum menyentuh set point alarm. Implementasi algoritma machine learning dalam membuat model deteksi potensi kegagalan telah digunakan di berbagai industri dan objek sebagai penelitian. Algoritma yang digunakan adalah classifier dasar dan ensemble untuk membandingkan algoritma mana yang menghasilkan hasil klasifikasi terbaik. Penelitian ini dapat memberikan ide dan perspektif baru ke dalam industri pabrik amoniak untuk mencegah terjadinya shutdown yang tidak terjadwal dengan memanfaatkan data menggunakan algoritma machine learning.

ABSTRACT
Synthesis loop is one of the critical systems in ammonia plant. Therefore, there is urgency for maintaining the reliability and availability of this system. Most of the shutdown events occur suddenly after the alarm is reached. So, there needs to be an early detection system to ensure anomaly problem captured by the operator before
touching the alarm settings. The implementation of machine learning algorithms in making fault detection models has been used in various industries and objects. The algorithm used is the basic and ensemble classifier to compare which algorithms generate the best classification results. This research can provide a new idea and perspective into ammonia plant industry to prevent unscheduled shutdown by utilizing
data using machine learning algorithm."
Depok: Fakultas Teknik Universitas Indonesia , 2020
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Prajna Wira Basnur
"Klasifikasi dokumen adalah sebuah metode untuk menentukan suatu dokumen termasuk ke suatu kategori secara otomatis berdasarkan isi dokumen. Metode Naïve Bayes dan ontologi merupakan metode klasifikasi dokumen teks yang digunakan dalam penelitian ini. Data yang digunakan dalam penelitian ini berupa artikel berita berbahasa Indonesia dari situs http://www.kompas.com. Dalam penelitian ini menggunakan lima kategori dalam domain olahraga untuk melakukan klasifikasi dokumen, yaitu kategori bulutangkis, basket, otomotif, sepakbola, dan tenis. Klasifikasi dokumen dengan menggunakan ontologi dilakukan dengan membandingkan nilai kemiripan diantara dokumen dan sebuah node yang ada di ontologi. Sebuah dokumen diklasifikasikan ke sebuah kategori atau node, jika memiliki nilai kemiripan paling tinggi diantara semua node yang ada di ontologi. Hasil penelitian menunjukkan bahwa ontologi dapat digunakan untuk melakukan klasifikasi dokumen. Nilai recall, precision, dan f-measure untuk klasifikasi dokumen menggunakan ontologi berturut-turut adalah 97.03%, 91.63%, dan 94.02%.

Document classification is a method for determine document category automatically based on contents of document. In this research, we use Naïve Bayes and Ontology method for document classification. Mass media in Bahasa Indonesia is used as data in this research. Data is taken from http//www.kompas.com. We uses five category in sports domain for document classification that comprise with bulutangkis, basketball, automotive, soccer, and tennis category. Document classification uses ontology can be done with compare similarity value between document and a node in ontology. A document can classified to a category or node, if a document has highest similarity value between all node in ontology. In this research indicate that ontology can used for document classification. Recall, precision, and f-measure value for document classification using ontology in a row are 97.03%, 91.63%, and 94.02%."
2009
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Doni Pradana
"Customer churn merupakan masalah serius di banyak sektor, termasuk sektor telekomunikasi. Pengertian costumer churn adalah berhentinya penggunaan suatu layanan dan beralih ke penyedia lain atau tidak memperbarui kontrak. Untuk mengatasi risiko churn, perusahaan telekomunikasi perlu menggunakan model prediksi dengan bantuan metode machine learning. Terdapat beberapa model prediksi churn yang telah diajukan oleh para peneliti, termasuk pemilihan algoritma yang sesuai dan dataset untuk studi kasus. Pada tesis ini menggunakan dataset IBM Telco Customer Churn sebagai data pelatihan dan pengujian. Tantangan umum dalam klasifikasi adalah ketidakseimbangan data, yang dapat menyebabkan kegagalan dalam memprediksi kelas minoritas. Oleh karena itu, tesis ini menggunakan beberapa teknik augmentasi data seperti SMOTE, HAT, dan CVAE, sebagai teknik dalam menyeimbangkan data. Pembelajaran ensembel khususnya metode CART (Classification and Regression Tree) sering digunakan untuk menyelesaikan permasalahan klasifikasi dan regresi. Model Adaboost adalah algoritma pembelajaran ensemble yang menggunakan pohon keputusan sebagai dasar pembelajaran. Dalam pelatihan model Adaboost, Bayesian Optimization (BO) digunakan sebagai metode pencarian hyperparameter terbaik. Dari hasil percobaan dan pengujian yang diajukan, model Adaboost dapat memberikan nilai testing f1-score dan recall sebesar 0,661 dan 0,653 pada pelatihan dengan dataset tidak seimbang. Model Adaboost-SMOTE mempunyai nilai testing f1-score dan recall sebesar 0,646 dan 0,826. Penggunaan optimasi Bayesian Optimization pada model Adaboost-SMOTE dapat menaikkan testing f1-score dan recall menjadi 0,649 dan 0,849. Tes ANOVA dan Tukey HSD mengungkapkan variasi yang signifikan dalam hasil pelatihan dari model machine learning, dan menyoroti dampak penggunaan data seimbang dalam pelatihan model yang signifikan.

Customer churn is a severe problem in various sectors, including telecommunications. Customer churn refers to discontinuing the service, switching to another provider, or not renewing the contract. To deal with churn risk, telecommunication companies need to use predictive models with the help of machine learning methods. Several churn prediction models have been proposed by researchers, including the selection of suitable algorithms and data sets for case studies. In this thesis, research is conducted using the IBM Telco Customer Churn dataset. A common challenge in classification is data imbalance, which can lead to failure in predicting minority classes. Therefore, this thesis using several data augmentation techniques, such as SMOTE, HAT, and CVAE, for balancing data technique. Ensemble learning, especially the CART (Classification and Regression Tree) method, is often used to solve classification and regression problems. Adaboost is an ensemble learning algorithm that uses decision trees as the basis for learning. In the Adaboost model training, Bayesian Optimization (BO) is used to find the best hyperparameters. From the trials and tests carried out, Adaboost achieved an f1-score and recall test of 0.661 and 0.653, respectively, in training with an unbalanced dataset. The Adaboost SMOTE model achieved f1 and memory test scores of 0.646 and 0.826, respectively. Using Bayesian Optimization in the Adaboost SMOTE model increased the testing f1-score and recall scores to 0.649 and 0.849, respectively. ANOVA and Tukey HSD tests reveal significant variation in machine learning model training results and highlight the considerable impact of using balanced data in model training."
Depok: Fakultas Teknik Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Martin Hizkia Parasi
"

Perkembangan teknologi pemrosesan ucapan sangat pesat akhir-akhir ini. Namun, fokus penelitian dalam Bahasa Indonesia masih terbilang sedikit, walaupun manfaat dan benefit yang dapat diperoleh sangat banyak dari pengembangan tersebut. Hal tersebut yang melatarbelakangi dilakukan penelitian ini. Pada penelitian ini digunakan model transfer learning (Inception dan ResNet) dan CNN untuk melakukan prediksi emosi terhadap suara manusia berbahasa Indonesia. Kumpulan data yang digunakan dalam penelitian ini, diperoleh dari berbagai film dalam Bahasa Indonesia. Film-film tersebut dipotong menjadi potongan yang lebih kecil dan dilakukan dua metode ekstraksi fitur dari potongan audio tersebut. Ekstraksi fitur yang digunakan adalah Mel-Spectrogram dan MelFrequency Cepstral Coefficient (MFCC). Data yang diperoleh dari kedua ekstraksi fitur tersebut dilatih pada tiga model yang digunakan (Inception, ResNet, serta CNN). Dari percobaan yang telah dilakukan, didapatkan bahwa model ResNet memiliki performa yang lebih baik dibanding Inception dan CNN, dengan rata-rata akurasi 49%. Pelatihan model menggunakan hyperparameter dengan batch size sebesar 16 dan dropout (0,2 untuk Mel-Spectrogram dan 0,4 untuk MFCC) demi mendapatkan performa terbaik.


Speech processing technology advancement has been snowballing for these several years. Nevertheless, research in the Indonesian language can be counted to be little compared to other technology research. Because of that, this research was done. In this research, the transfer learning models, focused on Inception and ResNet, were used to do the speech emotion recognition prediction based on human speech in the Indonesian language. The dataset that is used in this research was collected manually from several films and movies in Indonesian. The films were cut into several smaller parts and were extracted using the Mel-Spectrogram and Mel-frequency Cepstrum Coefficient (MFCC) feature extraction. The data, which is consist of the picture of Mel-spectrogram and MFCC, was trained on the models followed by testing. Based on the experiments done, the ResNet model has better accuracy and performance compared to the Inception and simple CNN, with 49% of accuracy. The experiments also showed that the best hyperparameter for this type of training is 16 batch size, 0.2 dropout sizes for Mel-spectrogram feature extraction, and 0.4 dropout sizes for MFCC to get the best performance out of the model used.

"
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Theresia Gowandi
"Analisis sentimen adalah salah satu bidang dari Pemrosesan Bahasa Alami yang membangun sistem untuk mengenal opini dalam teks dan mengelompokkan ke dalam sentimen positif atau negatif. Banyak peneliti telah membangun model yang menghasilkan akurasi terbaik dalam melakukan analisis sentimen. Tiga diantaranya adalah Convolutional Neural Network (CNN), Long Short-Term Memory (LSTM), dan Gated Recurrent Unit (GRU), yang merupakan bagian dari deep learning. CNN digunakan karena kemampuannya dalam mengekstrak fitur penting dalam penggalan kalimat, sedangkan LSTM dan GRU digunakan karena kemampuannya yang memiliki memori akan input yang telah diproses sebelumnya. GRU memiliki struktur yang lebih sederhana dibandingkan dengan LSTM. Ketiga model tersebut dapat digabungkan menjadi model gabungan LSTM-CNN, CNN-LSTM, GRU-CNN, dan CNN-GRU. Penelitian sebelumnya telah membuktikan bahwa model gabungan tersebut memiliki akurasi yang lebih baik dibandingkan dengan model dasar LSTM, GRU, dan CNN. Implementasi model dilakukan pada data ulasan aplikasi berbahasa Indonesia. Hasilnya, didapatkan bahwa hampir seluruh model gabungan memiliki akurasi yang lebih baik dibandingkan dengan model dasar.

Sentiment analysis is one of the fields of Natural Language Processing that builds a system to recognize and extract opinion in the form of text into positive or negative sentiment. Nowadays, many researchers have developed methods that yield the best accuracy in performing analysis sentiment. Three particular models are Convolutional Neural Network (CNN), Long Short-Term Memory (LSTM), and Gated Recurrent Unit (GRU), which are part of deep learning architectures. CNN is used because of its ability to extract important features from each sentence fragment, while LSTM and GRU are used because of their ability to have a memory of prior inputs. GRU has a simpler and more practical structure compared to LSTM. These models can be combined into combined LSTM-CNN, CNN-LSTM, GRU-CNN, and CNN-GRU model. Former researches have proved that these models have better accuracy compared to standard models. This research is focused on the performance of all the combined LSTM-CNN, CNN-LSTM, GRU-CNN, CNN-GRU models and will be compared to the standard LSTM, GRU, CNN models. Implementation of the model is performed on a collection of application review data in Indonesian text. As a result, almost all of the combined models have better accuracy than the standard models."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>