Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 15 dokumen yang sesuai dengan query
cover
Gusman Dharma Putra
"Jenis bencana alam, lokasi, dan waktu kejadian adalah informasi minimal bisa mengindikasi terjadinya sebuah bencana alam. Salah satu sumber informasi kejadian bencana alam adalah dari berita di media siber. Suatu sistem informasi tentang bencana alam bisa memanfaatkan berita di media siber sebagai sumber data, namun harus mengubah data teks berita menjadi bentuk data terstruktur. Teknik penambangan teks yang bisa digunakan untuk mendapatkan data terstruktur dari suatu kumpulkan teks. Penelitian ini melakukan eksplorasi efektivitas teknik penambangan data untuk mengekstrak informasi jenis bencana alam, lokasi, dan waktu kejadian. Metode web scraping digunakan untuk mengumpulkan data teks berita dari media siber dan anotasi manual dilakukan untuk membuat data gold standard. Penelitian ini menggunakan klasifikasi teks dengan machine learning untuk mengetahui jenis bencana alam yang diberitakan. Klasifikasi biner diterapkan untuk mengetahui pemberitaan tentang bencana angin topan, banjir, erupsi, gempa, karhutla, kekeringan, longsor, dan tsunami. Algoritma yang diuji untuk klasifikasi teks adalah Multinomial Naive Bayes, Support Vector Machine, Random Forest, Linear Regression dan Adaboost. Penelitian ini memanfaatkan aplikasi Stanford NER untuk mengetahui entitas lokasi di suatu teks, kemudian gazetteer digunakan untuk pemetaan wilayah administrasi. Penelitian ini menggunakan pencocokan pola teks dengan regular expression untuk mengekstrak informasi tanggal kejadian bencana alam. Nilai F1 dari model klasifikasi penelitian ini untuk berita bencana angin topan, banjir, erupsi, gempa, karhutla, kekeringan, longsor, dan tsunami adalah 0,731, 0,767, 0,760, 0,761, 0,749, 0,680, 0,763, dan 0,600. Sedangkan Nilai F1 untuk hasil ekstraksi lokasi dan waktu adalah 0,795 dan 0,881.

The minimal information to notice the occurrence of a natural disaster is its type, location, and event time. News in the cyber media can be a source of information to discover disaster events. Furthermore, natural disaster information systems can utilize that news as the data source. The news needs to be converted into structured data to be processed by system information. Text mining is a method to extract structured information from a text collection. This research explored the effectiveness of data mining to extract natural disaster type, location, and event time reported by news in cyber media. The web scraping method was used to collect news in cyber media and manual annotation was performed to create gold-standard data. This study used text classification with a machine learning approach to identify the types of natural disasters reported. Binary classification was applied to label news for following disaster types: hurricanes, floods, eruptions, earthquakes, forest and land fires, droughts, landslides, and tsunami. This research evaluated Multinomial Naive Bayes, Support Vector Machines, Random Forests, Linear Regression, and AdaBoost algorithm for text classification tasks. This study utilized the Stanford NER application to recognize location entities in a text, then the gazetteer was used to get administrative area information. This study applied text patterns with regular expressions to extract date information of disaster events. The F1 value of 8 classification model in this research for following disaster news type: hurricanes, floods, eruptions, earthquakes, forest and land fires, droughts, landslides, and tsunami, are 0.731, 0.767, 0.760, 0.761, 0.749, 0.780, 0.680, 0.763, and 0.600. The F1 value of method to extract location and event time information are 0.795 and 0.881.

 

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia , 2020
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Muhammad Okky Ibrohim
"ABSTRAK
Penyebaran ujaran kebencian dan ujaran kasar di media sosial merupakan hal yang harus diidentifikasi secara otomatis untuk mencegah terjadinya konflik masyarakat. Selain itu, ujaran kebencian mempunyai target, golongan, dan tingkat tersendiri yang juga perlu diidentifikasi untuk membantu pihak berwenang dalam memprioritaskan kasus ujaran kebencian yang harus segera ditangani. Tesis ini membahas klasifikasi teks multi label untuk mengidentifikasi ujaran kasar dan ujaran kebencian disertai identifikasi target, golongan, dan tingkatan ujaran kebencian pada Twitter berbahasa Indonesia. Permasalahan ini diselesaikan menggunakan pendekatan machine learning menggunakan algoritma klasifikasi Support Vector Machine (SVM), Naïve Bayes (NB), dan Random Forest Decision Tree (RFDT) dengan metode transformasi data Binary Relevance (BR), Label Power-set (LP), dan Classifier Chains (CC). Jenis fitur yang digunakan antara lain fitur frekuensi term (word n-grams dan character n-grams), fitur ortografi (tanda seru, tanda tanya, huruf besar/kapital, dan huruf kecil), dan fitur leksikon (leksikon sentimen negatif, leksikon sentimen positif, dan leksikon kasar). Hasil eksperimen menunjukkan bahwa secara umum algoritma klasifikasi RFDT dengan metode transformasi LP memberikan akurasi yang terbaik dengan waktu komputasi yang cepat. Algoritma klasifikasi RFDT dengan metode transformasi LP menggunakan fitur word unigram memberikan akurasi sebesar 66,16%. Jika hanya mengidentifikasi ujaran kasar dan ujaran kebencian (tanpa disertai identifikasi target, golongan, dan tingkatan ujaran kebencian), algoritma klasifikasi RFDT dengan metode transformasi LP menggunakan gabungan fitur word unigram, character quadgrams, leksikon sentimen positif, dan leksikon kasar mampu memberikan akurasi sebesar 77,36%.


Hate speech and abusive language spreading on social media needs to be identified automatically to avoid conflict between citizen. Moreover, hate speech has target, criteria, and level that also needs to be identified to help the authority in prioritizing hate speech which must be addressed immediately. This thesis discusses multi-label text classification to identify abusive and hate speech including the target, category, and level of hate speech in Indonesian Twitter. This problem was done using machine learning approach with Support Vector Machine (SVM), Naïve Bayes (NB), and Random Forest Decision Tree (RFDT) classifier and Binary Relevance (BR), Label Power-set (LP), and Classifier Chains (CC) as data transformation method. The features that used are term frequency (word n-grams and character n-grams), ortography (exclamation mark, question mark, uppercase, lowercase), and lexicon features (negative sentiment lexicon, positif sentiment lexicon, and abusive lexicon). The experiment results show that in general RFDT classifier using LP as the transformation method gives the best accuracy with fast computational time. RFDT classifier with LP transformation using word unigram feature give 66.16% of accuracy. If only for identifying abusive language and hate speech (without identifying the target, criteria, and level of hate speech), RFDT classifier with LP transformation using combined fitur word unigram, character quadgrams, positive sentiment lexicon, and abusive lexicon can gives 77,36% of accuracy.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
T52442
UI - Tesis Membership  Universitas Indonesia Library
cover
Nofa Aulia
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
T51811
UI - Tesis Membership  Universitas Indonesia Library
cover
Zihan Nindia
"Pesatnya perkembangan teknologi informasi dan komunikasi telah membawa banyak perubahan dalam kehidupan manusia. Salah satu perkembangan yang paling signifikan adalah munculnya teknologi pesan singkat atau Short Message Service (SMS).  Media SMS sering disalahgunakan sebagai media penipuan terhadap pengguna telepon. Penipuan sering terjadi dengan cara mengirimkan SMS secara masif dan acak hingga mencapai sepuluh ribu per hari kepada semua pengguna dan menjadi SMS spam bagi banyak orang. Klasifikasi teks menggunakan Long-Short Term Memory (LSTM) dan BERT Embbeddings dilakukan untuk mengklasifikasi data SMS ke dalam dua kategori, yaitu spam dan non-spam. Data terdiri dari 5575 SMS yang telah diberi label. Dengan menggunakan metode LSTM + BERT, penelitian ini dapat mencapai nilai accuracy sebesar 97.85%. Metode ini menghasilkan hasil yang lebih baik dari ketiga model sebelumnya. Model LSTM + BERT menghasilkan nilai accuracy 0.65% lebih baik dari LSTM.

The rapid development of information and communication technology has brought many changes in human life. One of the most significant developments is the emergence of short message service (SMS) technology.  SMS media is often misused as a medium for fraud against telephone users. Fraud often occurs by sending massive and random SMS up to ten thousand per day to all users and becomes SMS spam for many people. Text classification using Long-Short Term Memory (LSTM) and BERT Embeddings is performed to classify SMS data into two categories, namely spam and ham. The data consists of 5575 SMS that have been labeled. By using the LSTM + BERT method, this research can achieve an accuracy value of 97.85%. This method produces better results than the three previous models. The LSTM + BERT model produces an accuracy value of 0.65% better than LSTM."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ilham Aulia Malik
"[ABSTRAK
Aplikasi Fajr merupakan aplikasi mobile yang memiliki konten islami dengan
fitur utama yaitu Fajr Cards. Namun, Fajr Cards belum mampu menarik
perhatian pengguna dengan minimnya jumlah pengguna fitur ini. Fajr Cards
sebagai fitur yang berbasiskan kepada konten dapat ditingkatkan dengan
memberikan konten yang relevan dengan pengguna. Twitter sebagai media sosial
memiliki data real-time dan jumlah yang banyak sehingga dapat menjadi sumber
data aktual untuk dianalisa. Data Twitter dapat dianalisa dengan menggunakan
text mining. Salah satunya yaitu text classification atau klasifikasi teks Tujuan
penelitian ini adalah untuk menentukan metode klasifikasi apa yang terbaik untuk klasifikasi tema konten Fajr Cards. Metodologi yang digunakan menggunakan tahapan preprocess Text Mining dan
penggunaan metode Text Mining yaitu Text Classification. Hasil yang diharapkan adalah gambaran bagaimana data Twitter diproses untuk proses klasifikasi dan metode klasifikasi apa yang terbaik untuk klasifikasi tema konten Fajr Cards.

ABSTRACT
Fajr application is a mobile application that contains Islamic contents for moslem daily life. To get more users, the developers create a main feature called Fajr Cards. But, Fajr Cards has not been able to attract users. It is based on the minimum of users that using Fajr Cards. Fajr Cards as a feature based on contents can be improved by adding more content that have relevance value to users. Twitter as microblog social media have real time and a lot of data. Those data can be used as an actual source data for analyze. Text mining such as text classification will be used to analyze the data. The purpose of this research is to get what classification method that suited best for this classification. Methodology that used in this research is Text Mining including preprocess and Text Classification. The expected results is to know what classification method that suited best for Fajr Card?s theme classification.;Fajr application is a mobile application that contains Islamic contents for moslem
daily life. To get more users, the developers create a main feature called Fajr
Cards. But, Fajr Cards has not been able to attract users. It is based on the
minimum of users that using Fajr Cards. Fajr Cards as a feature based on contents
can be improved by adding more content that have relevance value to users.
Twitter as microblog social media have real time and a lot of data. Those data can
be used as an actual source data for analyze. Text mining such as text
classification will be used to analyze the data. The purpose of this research is to
get what classification method that suited best for this classification.
Methodology that used in this research is Text Mining including preprocess and
Text Classification. The expected results is to know what classification method that suited best for Fajr Card?s theme classification.;Fajr application is a mobile application that contains Islamic contents for moslem
daily life. To get more users, the developers create a main feature called Fajr
Cards. But, Fajr Cards has not been able to attract users. It is based on the
minimum of users that using Fajr Cards. Fajr Cards as a feature based on contents
can be improved by adding more content that have relevance value to users.
Twitter as microblog social media have real time and a lot of data. Those data can
be used as an actual source data for analyze. Text mining such as text
classification will be used to analyze the data. The purpose of this research is to
get what classification method that suited best for this classification.
Methodology that used in this research is Text Mining including preprocess and
Text Classification. The expected results is to know what classification method that suited best for Fajr Card?s theme classification., Fajr application is a mobile application that contains Islamic contents for moslem
daily life. To get more users, the developers create a main feature called Fajr
Cards. But, Fajr Cards has not been able to attract users. It is based on the
minimum of users that using Fajr Cards. Fajr Cards as a feature based on contents
can be improved by adding more content that have relevance value to users.
Twitter as microblog social media have real time and a lot of data. Those data can
be used as an actual source data for analyze. Text mining such as text
classification will be used to analyze the data. The purpose of this research is to
get what classification method that suited best for this classification.
Methodology that used in this research is Text Mining including preprocess and
Text Classification. The expected results is to know what classification method that suited best for Fajr Card’s theme classification.]"
2015
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Tansa Trisna Astono Putri
"ABSTRAK
Kebebasan berpendapat melalui media sosial untuk mengungkapkan pikiran, pendapat dan tanggapan terhadap suatu topik tertentu menimbulkan dampak negatif berupa konten yang menebarkan kebencian. Penelitian ini bertujuan untuk melakukan deteksi sebuah informasi yang merupakan ujaran kebencian di media sosial Twitter. Data yang digunakan berjumlah 4.002 data sentimen terkait topik politik, agama, suku dan ras di Indonesia. Pada pembangunan model, penelitian ini menggunakan metode klasifikasi sentimen dengan algoritma machine learning seperti Na ve Bayes, Multi Level Perceptron, AdaBoost Classifier, Random Forest Decision Tree dan Support Vector Machine SVM . Di samping itu, penelitian ini juga melakukan perbandingan performa model dengan menggunakan unigram, bigram dan unigram-bigram dalam proses fitur ekstraksi dan penggunaan SMOTE untuk mengatasi imbalanced data. Evaluasi dari percobaan yang dilakukan menunjukkan bahwa algoritma AdaBoost menghasilkan model terbaik dengan nilai recall tertinggi yaitu 99.5 yang memiliki nilai akurasi sebesar 70.0 dan nilai F1-score sebesar 82.2 untuk klasifikasi ujaran kebencian apabila menggunakan bigram.

ABSTRACT
Freedom of expression through social media to express idea, opinion and view about current topic causes negative impact as the rise of hateful content. This study aims to detect a hate speech information through Twitter. Dataset of this study consists of 4.002 sentiment data related to politic, race, religion and clan topic. The model development of this study conducted by sentiment classification method with machine learning algorithm such as Na ve Bayes, Multi Level Perceptron, AdaBoost Classifier, Random Forest Decision Tree and Support Vector Machine SVM . We also conduct a comparison of model performance that used unigram, bigram, unigram bigram feature and SMOTE to handle imbalanced data. Evaluation of this study showed that AdaBoost algorithm resulted the best classification model with the highest recall model which was 99.5 , accuracy score as much as 70.0 and F1 score 82.2 to classify hate speech when using bigram features."
2018
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Rinda Wahyuni
"Emoji merupakan karakter gambar yang digunakan dalam komunikasi informal khususnya pada media sosial. Emoji digunakan oleh penulis pesan untuk mengekspresikan emosi sebuah pesan. Besarnya penggunaan emoji, membuat emoji sangat berpengaruh terhadap komunikasi dimedia sosial. Emoji digunakan sebagai salah satu fitur untuk analisis sentimen dan ekstraksi emosi dalam penelitian Natural Language Processing dan Information Retrieval, namun masih sedikit penelitian yang fokus menentukan emoji dari sebuah teks. Banyaknya emoji dan kemiripan makna antar emoji membuat klasifikasi emoji menjadi lebih kompleks jika dibandingkan dengan analisis sentimen atau klasifikasi teks pada umumnya. Penelitian ini menggunakan fitur leksikal, fitur semantik, dan fitur linguistik pada permasalahan klasifikasi emoji untuk mengetahui pengaruh setiap fitur pada performa klasifikasi emoji dan mengetahui kombinasi fitur terbaik dalam klasifikasi emoji. Hasil eksperimen menunjukkan fitur semantik memiliki performa terbaik saat digunakan secara individu. Sedangkan fitur leksikal memiliki pengaruh besar terhadap kenaikan performa klasifikasi emoji saat dikombinasikan dengan fitur baseline. Hasil uji statistik paired t-test menunjukkan kombinasi tiga fitur dan kombinasi empat fitur menaikkan akurasi baseline secara signifikan. Kombinasi terbaik didapatkan ketika mengkombinasikan baseline, fitur linguistik, fitur leksikal, dan fitur semantik dengan peningkatan akurasi 12.19 dan f1-score sebesar 12 jika dibandingkan dengan hanya menggunakan fitur baseline.

Emoji is a picture character used in informal communication especially in social media. Emoji used by message writer to express emotion of a text. The massive use of emoji make emoji have a great influence on social media communication. Emoji used as one of the features for sentiment analysis and mood extraction In Natural Language Processing and Information Retrieval Researches, yet there is still researches that focus to predict emoji from a text. Due to diversity of emoji and the similarity meaning between emoji, emoji classification task is more relative complex than common text classification task. This researched used semantic feature, linguistic feature, and lexicon feature used to know the influence of each feature on emoji classification task and the best combinaton feature in emoji classification performan. The experiment showed that semantic feature has the best performance in emoji classification when it used individually. Whereas lexicon feature has the greatest positive influence in baseline feature. The analysis using paired t test showed that combination of two features and three features increase baseline performance significantly. The best combination achieved when combined baseline feature, semantic feature, linguistik feature, and lexicon feature with accuration excalation about 12.19 and f1 score of 12 from baseline."
Depok: Universitas Indonesia, 2018
T50889
UI - Tesis Membership  Universitas Indonesia Library
cover
Eki Aidio Sukma
"Indonesia merupakan salah satu negara terbesar didunia dan rawan terhadap bencana alam. Dalam penanggulangan bencana alam dibutuhkan informasi mengenai jenis bencana alam, tingkat bahaya, dan lokasi terjadinya bencana alam agar dapat ditanggulangi dengan cepat. Sosial media merupakan salah satu sumber informasi kejadian bencana alam yang dapat membantu masyarakat untuk bertindak, karena dianggap informasi yang realtime dan banyak. Walaupun terdapat beberapa sistem pemantauan bencana alam, namun informasi yang diterima oleh pengguna atau masyarakat masih tidak lengkap / kurang lengkap, contohnya pada sistem yang dikembangkan oleh BNPB, Petabencana.id dan GDASC. Sistem tersebut belum menampilkan keseluruhan tipe bencana alam dan tingkat lokasi yang lebih detail. Penelitian ini berfokus memanfaatkan data media sosial Twitter untuk digunakan dalam mendeteksi bencana alam di Indonesia dengan realtime dan lebih detail. Jenis analisa yang digunakan pada penelitian ini adalah klasikasi yang mengategorikan ke dalam relevan/tidak relevan, jenis bencana alam, dan tingkat bahaya bencana alam. Algoritma klasifikasi yang digunakan pada penelitian ini adalah Naïve Bayes, Decision Tree, Support Vector Machiness (SVM). Metode ekstraksi fitur digunakan pada penelitian ini dengan memanfaatkan fitur Bag Of Words (BOW) dan Term Frequency - Inverse Document Frequency (TF-IDF). Teknik ekstraksi informasi lokasi yang digunakan pada penelitian ini adalah metode Named Entity Recognition (NER) pada sebuah data teks. Selanjutnya lokasi akan dikonversi menggunakan metode geocoding ke dalam koordinat latitude dan longitude untuk pembuatan peta spasial. Sehingga didapatkan sistem yang mampu mendeteksi bencana alam di Indonesia secara realtime dan detail

Indonesia is one of the largest countries in the world and is prone to natural disasters. In dealing with natural disasters, information is needed on the types of natural disasters, the level of danger, and the location of the natural disasters so that they can be handled quickly. Social media is a source of information on natural disasters that can help people to act, because it is considered real-time and a lot of information. Although there are several natural disaster monitoring sistems, the information received by users or the community is still incomplete / incomplete, for example in the sistems developed by BNPB, Petabencana.id and GDASC. The sistem does not yet display all types of natural disasters and at a more detailed location level. This research focuses on utilizing Twitter social media data to be used in realtime and more detailed detection of natural disasters in Indonesia. The type of analysis used in this study is a classification categorizing it into relevant / irrelevant, types of natural disasters, and level of natural disaster hazards. The classification algorithm used in this study is Naïve Bayes, Decision Tree, Support Vector Machiness (SVM). The feature extraction method is used in this study by utilizing the Bag Of Words (BOW) and Term Frequency - Inverse Document Frequency (TF-IDF) features. The location information extraction technique used in this study is the Named Entity Recognition (NER) method on a text data. Furthermore, the location will be converted using the geocoding method into latitude and longitude coordinates for making spatial maps. So that we get a system that is able to detect natural disasters in Indonesia in real time and in detail"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Alif Mahardhika
"Ujaran kasar dan ujaran kebencian telah menjadi fenomena yang banyak ditemukan di media sosial. Penyalahgunaan kebebasan berpendapat ini berpotensi memicu terjadinya konflik dan ketidakstabilan sosial dikalangan masyarakat, baik dalam interaksi sosial secara digital maupun secara fisik. Diperlukan upaya identifikasi ujaran kasar dan ujaran kebencian secara otomatis, akurat, dan efisien untuk mempermudah penegakkan hukum oleh pihak berwenang. Penelitian pada skripsi ini melakukan perbandingan performa klasifikasi ujaran kasar dan ujaran kebencian pada data teks mixed-coded berbahasa Indonesia-Jawa, menggunakan model klasifikasi berbasis BERT. Eksperimen perbandingan dilakukan dengan membandingkan pre-trained model berbasis BERT dengan berbagai arsitektur dan jenis berbeda, yaitu BERT (dengan arsitektur base dan large), RoBERTa (arsitektur base), dan DistilBERT (arsitektur base). Untuk mengatasi keterbatasan mesin dalam memahami teks mixed-coded, penelitian ini dirancang dalam dua skenario yang membandingkan performa klasifikasi pada teks mixed-coded Indonesia-Jawa dan teks mixed coded yang diterjemahkan ke Bahasa Indonesia. Hasil terbaik berdasarkan F1-Score didapatkan pada klasifikasi menggunakan model berbasis BERT dengan nama IndoBERT-large-p2 pada kedua skenario, dengan F1-Score 78,86% pada skenario tanpa proses translasi, dan F1-Score 77,22% pada skenario dengan proses translasi ke Bahasa Indonesia.

Hateful and abusive speech has become a phenomenon that becomes common in social media. This abuse of freedom of speech presents significant risk of starting social conflicts, be it in the form of digital or physical social interactions. An accurate, efficient, and automated hate speech and abusive language identification effort needs to be developed to help authorities address this problem properly. This research conducts a comparison on hate speech and abusive language identification using several BERT-based language models. The comparisons are made using a variety of BERT-based language models with different types and architecture, including BERT (base and large architecture), RoBERTa (base architecture), and DistilBERT (base architecture). To address the mixed-coded nature of social media texts, this research was conducted under two different scenario that compares the classification performance using a mixed-coded Indonesian-Javanese text and texts that have been translated to Indonesian. The best classification output was measured using F1-Score, with a BERT-based model named IndoBERT-large-p2 outscoring the other BERT-based models in both scenario, scoring an F1-Score of 78.86% in untranslated scenario, and 72.22% F1-Score on the Indonesian-translated scenario."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Denanir Fadila Nasiri
"Legal reasoning merupakan metode yang digunakan untuk menerapkan aturan atau Undang-Undang terhadap fakta yang dimiliki dengan tujuan untuk memperoleh argumentasi hukum. Salah satu metode legal reasoning adalah dengan penalaran induktif, yaitu didasarkan pada kasus-kasus terdahulu. Mahkamah Agung di Indonesia melalui situs Direktori Putusan Pengadilan, yang menyediakan dokumen hasil proses pengadilan yang saat ini menampung jumlah dokumen yang sangat besar. Kumpulan dokumen tersebut dapat dimanfaatkan untuk melakukan aktivitas legal reasoning, seperti klasifikasi jenis tindak pidana (criminal offense). Pada penelitian ini, penulis mengusulkan metode deep learning untuk mengklasifikasikan jenis tindak pidana. Hal ini dapat berguna untuk memberikan efisiensi dan referensi kepada praktisi hukum maupun memudahkan masyarakat untuk memahami dasar hukum dari suatu kasus. Secara spesifik, salah satu rancangan model yang diusulkan adalah dengan penerapan model LEAM (Label Embedding Attentive Model) dengan penambahan sejumlah keyword pada label embedding. Model ini secara konsisten memberikan performa yang baik dalam eksperimen, termasuk pada imbalanced dataset dengan perolehan f1-score 68%.

Legal reasoning is a sequence of activities to identify law rules and obtain legal arguments. One of the method in legal reasoning is by using inductive reasoning, which analyzes previous decided cases. Indonesia’s Supreme Court stores the court decision documents online in a large sum. These collections can be utilized to perform legal reasoning, where in this research we focus on the classification of criminal offense. We performed pre-processing tasks including conversion of document to text and cleaning text. We then compared deep learning models, such as LSTM, BiLSTM, CNN+LSTM, and LEAM (Label Embedding Attentive Model). Instead of using only the label name in LEAM, we also carried out experiments by adding related keywords for each label. The LEAM model with additional keywords obtained the best result in an imbalanced dataset with 68% macro average f1-score."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2   >>