Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 72380 dokumen yang sesuai dengan query
cover
Muhammad Faisal M
"Terdapat beberapa media online yang ditutup oleh Kementrian Komunikasi dan Informatika (Kemkominfo) dikarenakan menjual obat aborsi. Hal tersebut karena aborsi merupakan tindakan yang dilarang yang tertulis pada Kitab Undang-Undang Hukum Pidana (KUHP) pada pasal 346. Oleh karena itu, agar situs dari PT XYZ tidak ditutup oleh Kemkominfo, PT XYZ melakukan penanganan terkait peredaran obat aborsi ini yaitu dengan pending system. Namun, pending system hanya mendeteksi judul dari produk dengan menggunakan kata kunci spesifik yang berhubungan dengan obat aborsi yang diinput oleh tim sehingga masih terdapat produk obat aborsi yang lolos beredar karena terdapat produk yang menggunakan kata kunci yang umum dan gaming keyword. Oleh karena itu, penelitian ini membahas terkait penerapan text mining untuk membangun sebuah classification model yang berasal dari korpus obat aborsi yang ada di PT XYZ yang akan digunakan untuk pendeteksian obat aborsi kedepannya yang ada di PT XYZ.
Penelitian ini menggunakan model CRISP-DM untuk siklus hidup data mining. Selain itu, untuk membangun suatu classification model, Penelitian ini melakukan percobaan terhadap dua algoritme diantaranya adalah Naive Bayes dan Support Vector Machine dengan metode k-fold cross validation. Selain itu, penelitian ini menggunakan data harga sebagai fitur tambahan dari model yang dibangun. Untuk penentuan classification yang terbaik dilakukan evaluasi performa dari setiap classification model dengan menggunakan confussion matrix dengan parameter accuracy, recall, precision, f1-measure, dan AUC. Penelitian ini menggunakan beberapa kriteria dalam penghapusan duplikasi data untuk menghindari data bias. Model terbaik yang didapatkan yaitu model SVM dengan fitur harga yang memiliki nilai accuracy 99.82%, f1-score 99.79%, dan AUC 99.98%. Hasil dari model yang telah dianalisis pada penelitian ini dapat digunakan oleh PT XYZ untuk mendeteksi produk obat aborsi agar mengurangi kesempatan penjual menjual produk obat aborsi yang di PT XYZ. Selain itu, penelitian ini dapat memberikan gambaran untuk penelitian akademis berikutnya terkait keseluruhan proses dari text mining.

There are several online media that were closed by the Ministry of Communication and Information (Kemkominfo) due to selling abortion drugs. This is because abortion is a prohibited act which is written in the Criminal Code (KUHP) in article 346. Therefore, in order PT XYZ is not closed by the Ministry of Communication and Information, PT XYZ create system that try to handle the circulation of abortion drugs, namely pending system. However, the pending system only detects the title of the product by using specific keywords related to abortion drugs that are inputted by the team so that there are still abortion drug products that pass through the system because there are products that use general keywords and gaming keywords. Therefore, this study discusses the application of text mining to build a classification model derived from the abortion drug corpus at PT XYZ which will be used for the detection of abortion drugs in the future at PT XYZ.
This study uses the CRISP-DM model for the data mining life cycle. In addition, to build a classification model, this study conducted experiments on two algorithms including Naive Bayes and Support Vector Machine with the k-fold cross validation method. In addition, this study uses price data as an additional feature of the built model. To determine the best classification, the performance evaluation of each classification model is carried out using a confusion matrix with parameters accuracy, recall, precision, f1-measure, and AUC. This study uses several criteria in eliminating duplication of data to avoid data bias. The best model obtained is the SVM model with a price feature that has an accuracy value of 99.82%, f1-score 99.79%, and AUC 99.98%. The results of the model that had been analyzed in this study can be used by PT XYZ to detect abortion drug products in order to reduce the chance for sellers to sell abortion drug products at PT XYZ. In addition, this research can provide an overview for the next academic research related to text mining process.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Ilham Aulia Malik
"[ABSTRAK
Aplikasi Fajr merupakan aplikasi mobile yang memiliki konten islami dengan
fitur utama yaitu Fajr Cards. Namun, Fajr Cards belum mampu menarik
perhatian pengguna dengan minimnya jumlah pengguna fitur ini. Fajr Cards
sebagai fitur yang berbasiskan kepada konten dapat ditingkatkan dengan
memberikan konten yang relevan dengan pengguna. Twitter sebagai media sosial
memiliki data real-time dan jumlah yang banyak sehingga dapat menjadi sumber
data aktual untuk dianalisa. Data Twitter dapat dianalisa dengan menggunakan
text mining. Salah satunya yaitu text classification atau klasifikasi teks Tujuan
penelitian ini adalah untuk menentukan metode klasifikasi apa yang terbaik untuk klasifikasi tema konten Fajr Cards. Metodologi yang digunakan menggunakan tahapan preprocess Text Mining dan
penggunaan metode Text Mining yaitu Text Classification. Hasil yang diharapkan adalah gambaran bagaimana data Twitter diproses untuk proses klasifikasi dan metode klasifikasi apa yang terbaik untuk klasifikasi tema konten Fajr Cards.

ABSTRACT
Fajr application is a mobile application that contains Islamic contents for moslem daily life. To get more users, the developers create a main feature called Fajr Cards. But, Fajr Cards has not been able to attract users. It is based on the minimum of users that using Fajr Cards. Fajr Cards as a feature based on contents can be improved by adding more content that have relevance value to users. Twitter as microblog social media have real time and a lot of data. Those data can be used as an actual source data for analyze. Text mining such as text classification will be used to analyze the data. The purpose of this research is to get what classification method that suited best for this classification. Methodology that used in this research is Text Mining including preprocess and Text Classification. The expected results is to know what classification method that suited best for Fajr Card?s theme classification.;Fajr application is a mobile application that contains Islamic contents for moslem
daily life. To get more users, the developers create a main feature called Fajr
Cards. But, Fajr Cards has not been able to attract users. It is based on the
minimum of users that using Fajr Cards. Fajr Cards as a feature based on contents
can be improved by adding more content that have relevance value to users.
Twitter as microblog social media have real time and a lot of data. Those data can
be used as an actual source data for analyze. Text mining such as text
classification will be used to analyze the data. The purpose of this research is to
get what classification method that suited best for this classification.
Methodology that used in this research is Text Mining including preprocess and
Text Classification. The expected results is to know what classification method that suited best for Fajr Card?s theme classification.;Fajr application is a mobile application that contains Islamic contents for moslem
daily life. To get more users, the developers create a main feature called Fajr
Cards. But, Fajr Cards has not been able to attract users. It is based on the
minimum of users that using Fajr Cards. Fajr Cards as a feature based on contents
can be improved by adding more content that have relevance value to users.
Twitter as microblog social media have real time and a lot of data. Those data can
be used as an actual source data for analyze. Text mining such as text
classification will be used to analyze the data. The purpose of this research is to
get what classification method that suited best for this classification.
Methodology that used in this research is Text Mining including preprocess and
Text Classification. The expected results is to know what classification method that suited best for Fajr Card?s theme classification., Fajr application is a mobile application that contains Islamic contents for moslem
daily life. To get more users, the developers create a main feature called Fajr
Cards. But, Fajr Cards has not been able to attract users. It is based on the
minimum of users that using Fajr Cards. Fajr Cards as a feature based on contents
can be improved by adding more content that have relevance value to users.
Twitter as microblog social media have real time and a lot of data. Those data can
be used as an actual source data for analyze. Text mining such as text
classification will be used to analyze the data. The purpose of this research is to
get what classification method that suited best for this classification.
Methodology that used in this research is Text Mining including preprocess and
Text Classification. The expected results is to know what classification method that suited best for Fajr Card’s theme classification.]"
2015
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Iqbal Hadiyan
"PT. Indosat Tbk adalah salah satu perusahaan yang berkembang pada industri telekomunikasi. Namun, PT. Indosat Tbk memiliki permasalahan mengenai customer satisfaction yang cenderung menurun dari tahun ke tahun. Data media sosial, terutama twitter, menawarkan data mengenai opini publik yang sangat padat. Namun data twitter yang masih bersifat unstructured diperlukan proses lebih lanjut untuk dapat menemukan dimensi-dimensi beserta sentimen masyarakat terhadap dimensi tersebut. Latent Dirichlet Allocation (LDA) dengan Generative Statistical modelnya memungkinkan suatu set data pengamatan dapat dijelaskan oleh kelompok yang tidak teramati. Penelitian ini menentukan 30 kelompok kata representatif dari hasil LDA. Hasilnya terdapat 18 dimensi yang paling banyak dibicarakan mengenai Indosat pada linimasa twitter. Dimensidimensi tersebut mewakili 14 dimensi yang sudah ditemukan pada penelitian-penelitian sebelumnya mengenai kepuasan pelanggan pada layanan telekomunikasi, bahkan dengan LDA mendapatkan dimensi lebih detail dan lebih real time. Masing-masing dokumen dalam dimensi tersebut diberi label sentimennya, dan ditentukan akurasinya menggunakan supervised classification, hasilnya adalah 72% akurasi dengan model Naive Bayes Classification. Mengabaikan sentimen netral, sentimen negatif Indosat masih lebih tinggi daripada sentimen positifnya, yaitu dengan 16% sentimen negatif. Persentase negatif tersebut masih didominasi dengan dimensi berkaitan dengan layanan Indosat. Sementara dominasi sentimen positif ada pada dimensi yang berhubungan dengan ketersediaan layanan untuk pengguna.

PT. Indosat Tbk is One of the companies developing in the telecommunications industry. However, PT. Indosat Tbk is very concerned about customer satisfaction which tends to decrease from year to year. Social media media, especially Twitter, offer data about public opinion that is very crowded. However, the twitter data that is still unstructured requires a further process to be able to find the dimensions and sentiments of the community towards that dimension. Latent Dirichlet Allocation (LDA) with the Generative Statistics model allows a monitoring data set to be accessed by unobserved groups. This study determines 30 groups of words that represent the results of the LDA. There are 18 dimensions that are most talked about about Indosat on the Twitter timeline. These dimensions represent the 14 dimensions found in previous studies of customer satisfaction in telecommunications services, even with LDA getting more detailed and more real-time dimensions. Each document in this dimension is labeled sentiment, and its accuracy is determined using a supervised classification, obtained 72% accuracy with the Naive Bayes Classification model. Ignoring the negative sentiment, Indosat's negative sentiment was still higher than the positive sentiment, namely with a 16% negative sentiment. The negative percentage is still a comparison with Indosat services. While the dominance of positive sentiment is in the dimensions associated with service support for users."
2019
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Rangga Kharisma Putra
"ABSTRAK
Tren belanja yang terus meningkat mendorong tumbuhnya bisnis e-commerce di Indonesia yang salah satunya adalah suatu perusahaan e-commerce di Indonesia. Salah satu peran penting untuk mendukung bisnis e-commerce adalah kategorisasi produk yang baik. Kategorisasi produk yang baik akan membuat pencarian produk sesuai dengan kebutuhan dari pelanggan. Hal ini berdampak baik pada tingkat penjualan, pengalaman pengguna, maupun pengelolaan produk di sisi internal perusahaan. Akan tetapi, terdapat temuan kesalahan kategori yang penyebab utamanya adalah proses kategorisasi yang masih bersifat manual, berulang, dan massive.
Penelitian ini bertujuan untuk membantu menyelesaikan permasalahan tersebut dengan membuat suatu model yang mampu melakukan klasifikasi produk secara otomatis. Data yang digunakan adalah judul produk, sedangkan untuk label adalah kategori dari setiap produk. Penelitian ini melakukan percobaan terhadap dua representasi yaitu bag-of-words (BoW) dan TF-IDF. Selain itu, penelitian ini menggunakan algoritma naïve bayes dan SVM dalam percobaannya.
Hasil dari penelitian ini didapatkan model yang mampu melakukan klasifikasi produk salah satu perusahaan e-commerce secara baik. Kombinasi BoW dan SVM mampu menghasilkan model performa yang terbaik dengan nilai akurasi 96.40% dan F-measure 95.90%. Selain itu dari penelitian ini didapatkan hasil representasi BoW memberikan performa yang lebih baik dibandingkan dengan TF-IDF.

ABSTRACT
The increasing shopping trend encourages the growth of e-commerce businesses in Indonesia, one of which is e-commerce company in Indonesia. On of the important role to support e-commerce business is well-managed product categorization. Good product categorization will impact the product search according to the customer needs. This will affect the level of sales, user experience, and product management in the internal side of the company. However, some errors were found in the product category, the main causes are the manual categorization, repetitive, and massive process.
This study is aimed to solve the problem by making a model that able to classify products automatically. The data that used in this study is the product title, while the label is the category of each product. This study conducted experiments on two representations; bag-of-words (BoW) and TF-IDF. In addition, this study is using naïve bayes and SVM algorithms in the experiment.
This study resulted a model that able to classify one of e-commerce company products properly. The combination of BoW and SVM is able to produce the best performance model with an accuracy value of 96.40% and F-measure 95.90%. On the other hand, the results of the BoW representation provided the better performance than the TF-IDF."
2019
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Asep Rinaldo
"ABSTRAK<>br>
Dalam beberapa tahun terakhir, masalah pengukuran kredibilitas informasi di jaringan sosial mendapat perhatian yang cukup besar terutama di bawah situasi darurat. Hal itu merupakan konsekuensi dari membeludaknya informasi, terlebih ketika semua orang bebas berperan sebagai sumber informasi.Penelitian ini menyoroti buramnya dinding pembatas antara fakta dan hoax di Indonesia, sehingga hal itu menyebabkan banyaknya kasus penyebaran hoax di media. Jika dibiarkan hal tersebut dapat berdampak buruk bagi seorang pribadi ataupun organisasi yang diserang isu hoax. Survei yang dilakukan Intelligence Media Management IMM menyatakan terdapat peningkatan tajam di tahun 2016 dari 1572 menjadi 7311 pemberitaan media. Dan berdasarkan hasil survei yang dilakukan masyarakat telematika mastel Indonesia hampir dari seluruh responden 84,5 menyatakan terganggu dengan maraknya berita hoax yang dapat mengganggu kerukunan masyarakat dan menghambat pembangunan nasional.Menurut Menteri Komunikasi dan Informatika Rudiantara, langkah nyata yang bisa dilakukan adalah menyaring informasi menjadi lebih cepat dan tegas. Untuk itu diperlukan tindakan sehingga penyebaran hoax di media dapat diturunkan. Tujuan dilakukannya penelitian ini adalah untuk mengidentifikasi konten di media sosial merupakan suatu hoax atau tidak pada saat konten tersebut beredar. Metodologi yang digunakan di dalam penelitian ini dimulai dengan mengumpulkan tweets yang terindikasi hoax lalu dilakukan proses pengolahan data dengan membuat suatu model text mining yang dapat memprediksi suatu konten berpotensi hoax atau tidak.Hasil dari penelitian ini yaitu didapatkan sebuah model berbasis pembelajaran sendiri menggunakan algoritma LinearSVC dengan akurasi 91 yang dapat memprediksi apakah suatu tweet merupakan berpotensi hoax atau tidak sehingga membantu dalam menyaring suatu informasi yang diharapkan dapat mengurangi penyebaran hoax di Indonesia.

ABSTRACT<>br>
In recent years, the problem of measuring the credibility of information on the social network received considerable attention, especially under emergency situations. This is the consequence of too many information, especially when everyone is free to act as a source of information.The study highlights the blurring of the dividing wall between fact and hoax in Indonesia, so it causes many cases of spread of hoaxes in the media. If left unchecked it can be bad for a person or organization that attacked the issue of hoaxes. Surveys conducted by Intelligence Media Management IMM said there is a sharp increase in 2016 from 1572 content into 7311 content spread in media. And based on the results of a survey conducted by telematics community Mastel Indonesia almost of all respondents 84.5 declared disturbed by the rise of the hoax news that could disturb social harmony and impede national development.According to the Minister of Communications and Information Rudiantara, concrete steps that can be done is to filter information faster and firmer. It required the action so that the spread of hoax in the media can be derived. The purpose of this research is to identify content in social media is a hoax or not when the content is spreading. The methodology used in this research begins with collecting tweets that indicated hoax and then performed data processing by creating a text mining model that can predict a potentially hoax content or not.The result of this research is a machine learning model using LinearSVC algorithm with 91 accuracy which can predict whether tweet potentially hoax or not, thus helping the filtering of information expected to reduce the spread of hoax in Indonesia."
2017
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Nababan, Arif Hamied
"Pembentukan RUU Cipta Kerja memunculkan berbagai macam polemik di Indonesia. Penolakan terhadap RUU tersebut ditunjukkan oleh masyarakat Indonesia dengan berbagai cara. Mulai dari diskusi dengar pendapat dengan DPR, membahas dan mengangkat isu-isu kontroversial dalam RUU tersebut di berbagai media sosial, bahkan sampai melakukan demonstrasi besar-besaran yang tidak jarang berakhir dengan kericuhan. Penelitian ini bertujuan untuk mengidentifikasi stance masyarakat terhadap RUU Cipta kerja pada media sosial Twitter. Dataset diambil dari Twitter menggunakan kata kunci terkait RUU Cipta Kerja sebanyak 9440 data Tweet dalam periode 25 Oktober 2019 sampai pada 25 Oktober 2020. Anotasi dilakukan menggunakan label PRO, ANTI, ABS, dan IRR. Eksperimen yang dilakukan mengguanakan fitur unigram, bigram, dan unigram+bigram, dengan algoritma Multinomial Naïve Bayes, Support Vector Machine, dan Logistic Regression. Model terbaik dari eksperimen tersebut adalah model yang menggunakan fitur unigram dengan menggunakan algoritma klasifikasi logistic regression yang dapat mencapai nilai micro f-1 score sebanyak 72,3%.

The formation of RUU Cipta Kerja (Job creation law) gave rise to various kinds of polemics in Indonesia. The Indonesian people have shown rejection of the law in various ways. Starting from hearing discussions with the DPR, discussing and raising controversial issues in the law on various social media, even holding large demonstrations that often end in chaos. This study aims to identify the public's stance on the job creation law on Twitter social media. The dataset was taken from Twitter using keywords related to the job creation law, totaling 9440 Tweets from 25 October 2019 to 25 October 2020. Annotations were carried out using the PRO, ANTI, ABS, and IRR labels. The experiments were carried out using unigram, bigram, and unigram + bigram features, with the Naïve Bayes Multinomial algorithm, Support Vector Machine, and Logistic Regression. The best model of the experiment is a model that uses the unigram feature using the logistic regression classification algorithm which can achieve a micro f-1 score of 72,3%."
Jakarta: Fakultas Ilmu Komputer Universita Indonesia, 2021
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Ardian Wahyu Yusufi
"Penerapan Teknologi Informasi dan Komunikasi (TIK) untuk meningkatkan keunggulan kompetitif.tidak hanya dimanfaatkan oleh sektor industri, namun juga sektor pemerintahan. Pemerintah Indonesia sendiri di dalam kaitannya dengan pemanfaatan TIK, telah membangun suatu sistem yang memungkinkan masyarakat untuk melaporkan keluhan dan aspirasinya melalui sistem LAPOR!. Sistem LAPOR! ciptaan pemerintah ini ternyata ditanggapi dengan antusias oleh masyarakat, terbukti dengan banyaknya laporan yang masuk ke pemerintah. Guna membantu kinerja pemerintah, dilakukan penelitian untuk menganalisis data tekstual laporan masyarakat dengan text mining untuk kemudian dilakukan disposisi otomatis ke dalam dua kategori utama LAPOR! yaitu topik dan instansi terkait. Disposisi otomatis dilakukan menggunakan teknik problem transformation pada multilabel classification melalui algoritma klasifikasi support vector machine dan naïve bayes. Hasil penelitian menunjukkan bahwa disposisi otomatis dapat diterapkan ke dalam sistem LAPOR! dan dapat meningkatkan kinerja disposisi laporan. Algoritma yang menghasilkan performa terbaik di dalam penerapannya adalah algoritma support vector machine

The application of Information Technology and Communication (ICT) to escalate the competitive advantage is not only used in the industrial sector, but also in the government as well. The government of the Republic of Indonesia itsef, in the use of ICT, has built a system that enable its citizen to report their grievance and aspiration through LAPOR! system. This system turned out to be accepted with great enthusiasm by the public, as evidenced by the many reports to the government. In order to support the government’s performance, research is conducted to analyze the textual data using text mining, for later automatic disposition into two groups of LAPOR!'s category which is topik and instansi terkait. disposition is done using problem transformation technique in multilabel classification through support vector machine and naïve bayes classification algorithm. The result showed that automatic disposition can be applied into LAPOR! system and improves the report disposition’s performance. Algorithm that produces the best performance in the application is support vector machine. "
Jakarta: Fakultas Ilmu Komputer Universitas Indonesia, 2022
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Deddy Utomo
"Jenis usaha perasuransian PT XYZ dibagi menjadi dua yaitu asuransi kesehatan dan asuransi jiwa. Salah satu risiko yang terjadi dan berdampak pada kerugian perasuransian adalah kecurangan atau fraud yang dilakukan pihak tertentu untuk memperoleh keuntungan sepihak. Penelitian ini dilakukan untuk membuat pemodelan data mining yang digunakan untuk mendeteksi fraud pada asuransi kesehatan. Tujuan dari penelitian ini adalah memperoleh algoritma model berbasis data mining yang dapat mendeteksi fraud pada transaksi klaim peserta di PT XYZ. Karakteristik data yang digunakan bersifat imbalanced, karena jumlah data fraud yang digunakan tidak sebesar jika dibandingkan dengan data yang bersifat normal. Pembentukan model pada penelitian ini dilakukan dengan 32 skenario, dengan hasil terbaik skenario dengan penerapan feature engineering, feature selection, oversampling dan uji validasi menggunakan 20­-fold cross validation. Adapun hasil dari skenario tersebut menghasilkan algoritma random forest yang memiliki nilai akurasi paling baik yaitu 99,3% dengan didukung oleh nilai presisi, recall, dan f1 scores masing-masing, 99,3%, 99,3%, dan 99,3%. Hasil akhir dari penelitian ini memperlihatkan bahwa teknik feature engineering dengan penambahan atribut is_dr_speciality, memiliki kontribusi terhadap nilai akurasi model.

The type of insurance business of PT XYZ is divided into two, namely health insurance and life insurance. One of the risks that occur and impact insurance losses is fraud committed by certain parties to obtain unilateral benefits. This research was conducted to create a data mining model used to detect fraud in health insurance. The purpose of this study is to obtain a data mining-based model algorithm that can detect fraud in participant claims transactions at PT XYZ. The characteristics of the data used are imbalanced because the amount of fraud data used is not as much as compared to normal data. The model formation in this study was carried out with 32 scenarios, with the best results being the scenario by applying feature engineering, feature selection, oversampling, and validation tests using 20-fold cross-validation. This scenario resulted in the random forest algorithm having the best accuracy value of 99.3%, supported by precision, recall, and f1 scores, 99.3%, 99.3%, and 99.3%. The final result of this study shows that the feature engineering technique with the addition of the is_dr_speciality attribute has contributed to the model's accuracy value."
Jakarta: Fakultas Ilmu Komputer Universitas Indonesia, 2021
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Nivia Nurbayani
"ABSTRAK
Penelitian ini bertujuan untuk menganalisis unsur makro dan mikro dari sebuah teks yang berjudul IMAN (Vereinigung Acehnesischer Studenten in Deutschland) yang ada pada majalah NADI (Nachrichten für Alumni über Deutschland und Indonesien). Metode yang digunakan dalam penelitian ini adalah metode kualitatif dengan bentuk kajian pustaka. Teks ini akan dianalisis menggunakan teori dari Nord (2010) tentang sistematika analisis teks menggunakan skema W-Frage. Berdasarkan hasil penelitian, diketahui bahwa pada teks sumber ataupun teks sasaran terdapat semua unsur makro dan mikro. Di samping itu pada teks sasaran juga ditemukan kesalahan seperti kesalahan penulisan dan ketidaksesuaian kaidah bahasa sasaran.

ABSTRACT
This study aims to analyze micro and macro elements of a text with the title IMAN (Vereinigung Acehnesischer Studenten in Deutschland) in NADI (Nachrichten für Alumni über Deutschland und Indonesien) magazine. The method that used in this study is qualitative method with literature review. The text will be analyzed by using the theory of Nord (2010), about the systematics text analysis by using W-Frage scheme. Based on the result, it is known that both original text and the translation text have all the elements of micro and macro. Furthermore, several mistakes also found in writting and mismatch of translation."
Fakultas Ilmu Pengetahuan Budaya Universitas Indonesia, 2019
MK-Pdf
UI - Makalah dan Kertas Kerja  Universitas Indonesia Library
cover
Deden Ade Nurdeni
"Kajian risiko bencana di Indonesia oleh BNPB menunjukkan jumlah jiwa terpapar risiko bencana tersebar di seluruh Indonesia dengan total potensi jiwa terpapar lebih dari 255 juta jiwa. Hasil kajian ini menunjukkan bahwa dampak bencana di Indonesia terbilang sangat tinggi. Sistem penanggulangan khususnya pada masa tanggap darurat menjadi hal yang krusial untuk dapat meminimalisir risiko. Namun, pemberian bantuan kepada korban bencana terkendala beberapa hal, antara lain keterlambatan dalam penyaluran, kurangnya informasi lokasi korban, dan distribusi bantuan yang tidak merata. Untuk memberikan informasi yang cepat dan tepat, BNPB telah membangun beberapa sistem informasi seperti DIBI, InAware, Geospasial, Petabencana.id dan InaRisk. Akan tetapi tidak secara realtime menampilkan wilayah terdampak bencana dengan memnunjukkan jenis kebutuhan bantuan apa yang dibutuhkan korban pada saat itu. Untuk memberikan solusi atas permasalah tersebut, penelitian ini membangun model yang mampu mengklasifikasikan data teks dari Twitter terkait bencana kedalam jenis bantuan yang diminta oleh korban bencana secara realtime. Selain itu visualisasi berupa dashboard dibangun dalam bentuk aplikasi berbasis peta untuk menampilkan lokasi korban yang terdampak. Penelitian ini mengunakan teknik text mining mengolah data Twitter dengan pendekatan metode klasifikasi multi label dan ekstraksi informasi lokasi menggunakan metode Stanford NER. Algoritme yang digunakan adalan Naive Bayes, Support Vector Machine, dan Logistic Regression dengan kombinasi metode tranformasi data multi label OneVsRest, Binary Relevance, Label Power-set, dan Classifier Chain. Representasi teks menggunakan N-Grams dengan pembobotan TF-IDF. Model terbaik untuk klasifikasi multi label pada penelitian ini adalah kombinasi Support Vector Machine dan Clasifier Chain dengan fitur UniGram+BiGram dengan nilai precision 82%, recall 70%, dan F1-score 75%. Stanford NER menghasilkan F1-score 83% untuk klasifikasi lokasi yang menjadi masukan untuk teknik geocoding. Hasil geocoding berupa informasi spasial ditampilkan dalam bentuk dashboard berbasis peta.

The study of disaster risk in Indonesia by BNPB shows the number of people exposed to disaster risk throughout Indonesia with a total potential life of 255 million people. The results of this study indicate that the impact of disasters in Indonesia is quite high. The response system, especially during the emergency response period, is crucial to be able to minimize risks. However, providing assistance to disaster victims is hampered by several things, including delays in providing assistance, lack of information on the location of victims, and uneven distribution of aid. To provide fast and accurate information, BNPB has built several information systems such as DIBI, InAware, Geospatial, Petabencana.id and InaRisk. However, it does not display the disaster area in real-time by showing what kind of assistance needs the victim needs at that time. To provide a solution to these problems, this study builds a model that is able to classify text data from Twitter related to the type of assistance requested by disaster victims in real-time. In addition, a dashboard is built in the form of a map-based application to display the location of the realized victim. This study uses text mining techniques to process Twitter data with a multi-label classification approach and location information extraction using the Stanford NER method. The algorithms used are Naive Bayes, Support Vector Machine, and Logistic Regression with a combination of OneVsRest, Binary Relevance, Power-set Label, and Classifier Chain. Text representation using N-Grams with TF-IDF weighting. The best model for multi-label classification in this study is a combination of Support Vector Machine and Classifier Chain with UniGram+BiGram features with 82% precision, 70% recall, and 75% F1-score. Stanford NER produces an F1-score of 83% for location classification which is the input for geocoding techniques. Geocoding results in the form of spatial information are displayed in a map-based dashboard."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>