Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 5 dokumen yang sesuai dengan query
cover
Hari Bagus Firdaus
"Paper ini memaparkan hasil penelitian dalam membangun aplikasi pendiktean Bahasa Indonesia untuk waktu nyata. Dalam membangun sebuah aplikasi pendiktean, terdapat beberapa masalah seperti perintah suara (voice command), Out Of Vocabulary (OOV), noise, dan filler. Adapun yang menjadi fokus dalam penelitian ini adalah penanganan perintah suara dan OOV dari kata yang didiktekan. Pendiktean suara merupakan pengembangan lanjut dari pengenalan suara secara waktu nyata dengan tambahan metode untuk menangani hal-hal yang telah dinyatakan sebelumnya. Untuk menangani perintah suara, sebuah modul ditambahkan untuk mengecek hasil decoding dari sistem pengenalan suara. Adapun untuk menangani OOV, ditambahkan modul penanganan pengejaan setelah sebelumnya dinyatakan status ejaan. Model perintah suara dan model huruf ditambahkan ke dalam kamus dan digunakan sebagai pelatihan dari model bahasa n-gram. Dalam pengujian, dilakukan evaluasi terhadap sistem pengenalan suara, penanganan perintah suara, dan modul pengejaan sebagai strategi untuk menangani kata OOV. Untuk modul pengenalan suara, akurasi yang dicapai adalah 70%. Untuk modul penanganan perintah suara, pengujian menunjukkan bahwa perintah suara dapat ditangani dengan baik. Sedangkan untuk modul pengejaan, pengujian menunjukkan bahwa hanya 20 dari 26 huruf yang berhasil dikenali.

Abstract
In this paper, we presented the results of research in building applications dictation of the Bahasa Indonesia for real-time. In developing a dictation application, there are some problems such as voice command, Out of Vocabulary (OOV), noise, and filler. As the focus in this research is the handling of voice command and OOV from dictated words. Voice dictation is a further development of real time voice recognition with an additional method to deal with things that have been stated before. To handle voice commands, a module is added to check the results of decoding of the voice recognition system. To handle OOV, spelling handling module is added after the previously stated spelling status. Voice command model and the model letter are added to the dictionary and used as the training of n-gram language model. In testing, we conducted an evaluation of speech recognition systems, voice commands and spelling handling module as a strategy to deal with OOV words. For the speech recognition module, the achieved accuracy is 70%. For voice commands handling module, the test showed that voice commands can be handled properly. As for the spelling module, testing showed that only 20 of the 26 letters that successfully recognized."
[Institut Teknologi Bandung, Sekolah Teknik Elektro dan Informatika;Institut Teknologi Bandung. Sekolah Teknik Elektro dan Informatika, Institut Teknologi Bandung. Sekolah Teknik Elektro dan Informatika], 2011
PDF
Artikel Jurnal  Universitas Indonesia Library
cover
Aswin Juari
"Paper ini menjelaskan tentang implementasi pengenalan OOV (Out of Vocabulary) words pada Aplikasi Pengenal Suara Berbahasa Indonesia. Pengenalan OOV words penting karena masalah ini tidak dapat diselesaikan dengan menambah ukuran kamus. Untuk mengimplementasi pengenalan OOV words, dilakukan transduksi fonem ke kata. Klasifikasi kata-kata diberikan dengan melihat model bahasa dan probabilitas perubahan fonem untuk menentukan bagian yang termasuk OOV words. Pada paper ini juga dilakukan evaluasi terhadap beberapa jenis kamus yang digunakan pada sistem pengenal suara. Modifikasi pada kamus sistem pengenal bahasa Indonesia menghasilkan peningkatan sekitar 4% sedangkan hasil deteksi akurasi OOV sebesar sekitar 77%."
[Fakultas Ilmu Komputer UI;Institut Teknologi Bandung. Teknik Informatika, Institut Teknologi Bandung. Teknik Informatika], 2009
PDF
Artikel Jurnal  Universitas Indonesia Library
cover
Novi Yusliani
"Fokus dari penelitian ini adalah untuk mengembangkan data dan sistem Question Answering (QA) Bahasa Indonesia untuk pertanyaan non-factoid. Penelitian ini merupakan penelitian QA non-factoid pertama untuk Bahasa Indonesia. Adapun sistem QA terdiri atas 3 komponen yaitu penganalisis pertanyaan, pengambil paragraf, dan pencari jawaban. Dalam komponen penganalisis pertanyaan, dengan asumsi bahwa pertanyaan yang diajukan merupakan pertanyaan sederhana, digunakan sistem yang berbasis aturan sederhana dengan mengandalkan kata pertanyaan yang digunakan (“apa”, “mengapa”, dan “bagaimana”). Paragraf diperoleh dengan menggunakan pencarian kata kunci baik dengan menggunakan stemming ataupun tidak. Untuk pencari jawaban, jawaban diperoleh dengan menggunakan pola kata-kata khusus yang ditetapkan sebelumnya untuk setiap jenis pertanyaan. Dalam komponen pencari jawaban ini, diperoleh kesimpulan bahwa penggunaan kata kunci non-stemmed bersamaan dengan kata kunci hasil stemming memberikan nilai akurasi jawaban yang lebih baik, jika dibandingkan dengan penggunaan kata kunci non-stemmed saja atau kata kunci stem saja. Dengan menggunakan 90 pertanyaan yang dikumpulkan dari 10 orang Indonesia dan 61 dokumen sumber, diperoleh nilai MRR 0.7689, 0.5925, dan 0.5704 untuk tipe pertanyaan definisi, alasan, dan metode secara berurutan.
Focus of this research is to develop QA data and system in Bahasa Indonesia for non-factoid questions. This research is the first non-factoid QA for Bahasa Indonesia. QA system consists of three components: question analyzer, paragraph taker, and answer seeker. In the component of question analyzer, by assuming that the question posed is a simple question, we used a simple rule-based system by relying on the question word used (“what”, “why”, and “how”). On the components of paragraph taker, the paragraph is obtained by using keyword, either by using stemming or not. For answer seeker, the answers obtained by using specific word patterns that previously defined for each type of question. In the component of answer seeker, the conclusion is the use of non-stemmed keywords in conjunction with the keyword stemming results give a better answer accuracy compared to non-use of the keyword or keywords are stemmed stem only. By using 90 questions, we collected from 10 people of Indonesia and the 61 source documents, obtained MRR values 0.7689, 0.5925, and 0.5704 for type definition question, reason, and methods respectively."
Institut Teknologi Bandung, Sekolah Teknik Elektro dan Informatika, 2011
PDF
Artikel Jurnal  Universitas Indonesia Library
cover
Ionia Veritawati
"Saat ini, data dalam bentuk teks semakin berlimpah pada berbagai domain dan media, baik media cetak maupun online. Penambahan kumpulan dokumen teks ini menyebabkan kemudahan akses suatu informasi atau pengetahuan yang ada pada teks semakin berkurang. Selain itu, informasi atau pengetahuan yang ada tersebut semakin sulit untuk diinterpretasi dan dipahami secara menyeluruh. Untuk itu diperlukan suatu cara untuk membantu mempermudah pemahaman suatu data teks. Hal ini dengan melakukan penggalian pengetahuan pada data teks yang melimpah melalui pemrosesan data yang tidak terstruktur (text mining), dengan mengembangkan metode interpretasi berbasis ontologi pada teks untuk memperoleh pengetahuan baru sebagai state of the art.
Dalam penelitian ini, dikembangkan beberapa teknik /metode. Pertama adalah pengembangan teknik preprocessing pada data teks (korpus) serta key phrase extraction menggunakan AST (Annotated Suffix Tree) untuk memperoleh key phrase (frasa kunci) dan frekuensi kemunculan. Kedua adalah pengembangan pemodelan ontologi sebagai basis pengetahuan pada suatu domain berupa relasi antar key phrase menggunakan clustering dan Bayesian Network. Ketiga adalah pengembangan metode sparse clustering pada data sparse, yaitu is-FADDIS (iterative scaling Additive Fuzzy Spectral Clustering) untuk proses pemilahan data teks, yang merupakan pengembangan dari metode clustering FADDIS (Additive Fuzzy Spectral Clustering) serta keempat adalah pengembangan metode matching dan correlating terhadap ontologi, sebagai teknik yang digunakan saat interpretasi teks.
Secara terintegrasi, pembangunan ontologi dari teks, dengan domain berita, dilakukan diawal dengan tahapan ekstraksi key phrase, clustering (is-FADDIS, opsional) dan structure learning untuk membentuk ontologi-tree. Key phrase sebagai konsep, menjadi node pada ontologi tersebut, yang menjadi basis pengetahuan domain. Tahapan berikutnya adalah melakukan interpretasi teks pada suatu teks input yang terdiri dari satu key phrase atau satu cluster menggunakan ontologi tersebut untuk mendapatkan pengetahuan baru. Interpretasi dilakukan dengan ontologi berasal dari teks dengan dua domain dan satu domain. Hasil interpretasi teks menggunakan ontologi berbasis Additive Fuzzy Spectral Clustering (is-FADDIS) ini dievaluasi menggunakan usulanscore relevansi.
Pada teks input dengan satu key phrase sejumlah lima input yang diinterpretasi, hasilnya adalah 40% relevan, 40% kurang relevan dan 20% tidak relevan. Pada teks input satu cluster sejumlah dua input yang diinterpretasi, hasilnya adalah relevan. Nilai score relevansi yang relevan, secara empiris adalah lebih 0,3 dari skala 1, dan score relevansi yang didapat, ada yang mencapai 0,33. Dengan pembandingan hasil interpretasi melalui variasi teknik pada pembangunan ontologi, didapatkan, penggunaan ontologi berbasis is-FADDIS untuk interpretasi teks, relatif pada penelitian ini belum memberikan hasil optimal. Dalam penggunaan teknik-teknik yang dikembangkan, metode ini memberikan keluaran interpretasi teks yang dapat membantu untuk mengolah informasi teks dalam jumlah tidak terlalu besar tetapi cepat.
......Currently, the data in the form of text more abundant on various domains and media, both print and online media. The addition of this text document causes the ease of access to any information or knowledge contained in the text is reduced. In addition, the existing information or knowledge is increasingly difficult to interpret and understand comprehensively. For that background, the purpose of the research is to extract knowledge on abundant text data through the processing of unstructured data (text mining), by developing ontology-based interpretation method on text to gain a new knowledge as state of the art.
In this research, some technique/method were developed. The first is the development of preprocessing techniques on text data (corpus) and key phrase extraction using AST (Annotated Suffix Tree) to obtain key phrase and frequency of occurrence. The second is the development of ontology modeling as a knowledge base on a domain in the form of relationships between key phrases using Bayesian Network. The third is the development of sparse clustering method in sparse data, namely is-FADDIS (iterative scaling-Additive Fuzzy Spectral Clustering) for text grouping process, which is the addition of FADDIS clustering method (Additive Fuzzy Spectral Clustering) and the fourth is the development of matching and correlating method as a technique used at interpreting the text entered using ontology.
In an integrated manner, the ontology development of the text, with news domains, is done by processes include key phrase extraction, clustering (is-FADDIS, optional) and structure learning to form ontology-tree. Key phrase as a concept, being the node on the ontology, which becomes the domain knowledge base. The next step is to interpret the text on an input text consisting of a key phrase or a cluster using the ontology to gain new knowledge. Interpretation done with ontology comes from text with two domains and one domain. Text interpretation results using Fuzzy Spectral Clustering (is-FADDIS) based ontology is evaluated using relevancy scores.
In the input text with one key phrase a total of five interpreted inputs, the result is 40% relevant, 40% less relevant and 20% irrelevant. In one-cluster input text a number of two inputs are interpreted, the result is relevant. Relevant relevance score score, empirically more than 0.3 of scale 1, and score relevance obtained, some reaching 0.33. By comparing the results of interpretation through the variation of techniques on ontology development, it was found, the use of FADDIS-based ontology for textual interpretation, relative to this research has not provided optimal results. In the use of developed techniques, this method provides textual interpretation output that can help to process text information in quantities not too large but fastly."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2018
D2601
UI - Disertasi Membership  Universitas Indonesia Library
cover
Sri Hartati Wijono
"Terjemahan mesin adalah program komputer yang menerjemahkan kata dari satu bahasa ke bahasa lain. Neural Machine Translation (NMT) merupakan salah satu jenis terjemahan mesin yang menggunakan hasil pelatihan corpus paralel untuk menerjemahkan kata. Proses NMT dengan pelatihan menggunakan corpus paralel dalam jumlah besar (high resource) dapat memberikan hasil terjemahan sangat baik. Tetapi proses NMT yang dilatih menggunakan corpus paralel dalam jumlah kecil (low-resource) tidak mampu memberikan penerjemahan kata dengan baik akibat adanya out-of-vocabulary (OOV). Salah satu cara mengurangi OOV pada low-resourse NMT adalah melatih NMT menggunakan subword dari hasil segmentasi kata. Canonical segmentation dipilih untuk mengsegmentasi kata bahasa Jawa dan bahasa Indonesia menjadi subword afiks dan subword root word yang mengalami alomorf. Hal ini dikarenakan kedua hasil subword tersebut memiliki makna linguistik yang dapat digunakan untuk mengurangi OOV. Proses canonical segmentation tersebut dilakukan menggunakan encoder-decoder Transformer dengan memanipulasi masukannya sebagai usulan dari penelitian. Penelitian ini juga mengembangkan algoritma untuk membuat dataset canonical segmentation bahasa Jawa yang digunakan untuk melatih Transformer. Manipulasi masukan Transformer tersebut berupa penggunaan tag fitur afiks dan root word atau tag fitur afiks dan urutan root word yang digabungkan ke setiap karakter masukan untuk membantu proses pembelajaran Transformer. Manipulasi usulan ini menghasilkan akurasi segmentasi sebesar 84,29% untuk semua kata, 69,82% untuk kata berimbuhan dan 56,09% untuk kata berimbuhan canonical. Nilai F1 yang dihasilkan 92,89% untuk semua kata, 98,69% untuk kata berimbuhan dan 96,81% untuk kata berimbuhan canonical. Subword hasil proses segmentasi ini selanjutnya digabung dengan tag fitur berupa afiks dan root word untuk menguji low-resource NMT. Metode ini dapat eningkatkan nilai BLEU sebesar +3,55 poin dibandingkan penggunaan kata tanpa segmentasi dan meningkat +2,57 poin dibandingkan penggunaan subword BPE yang banyak dipakai saat ini.
......Machine translation is a machine that translates words from one language to another. Neural Machine Translation (NMT) is a type of machine translation that uses the results of parallel corpus training to translate words. The NMT process with training using a large number of the parallel corpus (high resource) can give excellent translation results. But the NMT process, which was trained using a parallel corpus in small numbers (low resources), could not provide good word translation due to out-of-vocabulary (OOV). One way to reduce OOV in low-resource NMT is to train NMT using subwords from word segmentation results. Canonical segmentation was chosen to segment Javanese and Indonesian words into affix and root word subwords that experience allomorphism. This segmentation method was chosen because the two subword results have linguistic meanings that can be used to reduce OOV. The canonical segmentation process is conducted using Transformer encoder-decoder by manipulating the input as a research proposal. This research also develops an algorithm to create a corpus parallel canonical segmentation in the Java language used to train Transformers. Manipulating the Transformer input uses affix and root word feature tags or affix and root word sequences concatenated with each input character to help the Transformer learning process. This proposed manipulation produces a segmentation accuracy of 84.29% for all words, 69.82% for affixed words and 56.09% for canonical affixed words. The resulting F1 value is 92.89% for all words, 98.69% for affixed words and 96.81% for canonical affixed words. The subwords resulting from the segmentation process are then combined with feature tags in the form of affixes and root words to test low-resource NMT. This method can increase the BLEU value by +3.55 points compared to using words without segmentation and +2.57 points compared to using BPE subwords which are widely used today."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library