Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 17 dokumen yang sesuai dengan query
cover
Naradhipa Mahardhika Setiawan Bhary
"Sebagai negara hukum, Indonesia memiliki sistem peradilan yang aktif. Setiap bulannya, terdapat sekitar 100.000 dokumen putusan yang dihasilkan oleh lembaga kehakiman di Indonesia. Volume dokumen yang banyak tersebut menimbulkan suatu tantangan bagi insan hukum di Indonesia. Guna mendukung dan mengakomodasi institusi publik dari aspek teknologi dan informasi, serta mendorong pelaksanaan keterbukaan informasi bagi masyarakat umum, maka dibutuhkan suatu metode yang dapat membantu untuk mencari dan mengumpulkan informasi penting dari suatu dokumen putusan pengadilan. Secara khusus, metode ini juga ditujukan untuk membantu para praktisi hukum untuk kepentingan penegakan hukum dan para akademisi hukum untuk kepentingan pendidikan dan pengembangan di bidang hukum. Salah satu teknik untuk mengumpulkan informasi penting dari suatu dokumen adalah Named Entity Recognition (NER). Teknik NER bekerja dengan cara menandai kata-kata yang merupakan informasi penting seperti orang, tempat, lokasi, waktu, kejadian, dan lainnya. NER dapat diterapkan untuk berbagai bidang permasalahan, seperti medis, hukum, dan pertanian. NER yang secara spesifik bekerja untuk menandai entitas hukum disebut dengan Legal Entity Recognition (LER). Penelitian sebelumnya telah menerapkan LER untuk dokumen legal berbahasa Indonesia dengan pendekatan BiLSTM dan CRF sehingga diperlukan penelitian lebih lanjut untuk mengetahui bagaimana performa model-model lain terhadap kasus tersebut. Penelitian ini menguji performa language model, yaitu model berbasis RoBERTa dan model berbasis BERT serta membandingkannya dengan deep learning model, yaitu BiLSTM dan BiLSTM-CRF sebagai model baseline penelitian sebelumnya untuk task LER bahasa indonesia. Hasil penelitian menunjukkan model berbasis RoBERTa memliki performa terbaik untuk task LER pada dataset penulis, XLM-R large dengan skor F1 sebesar 0,9295, XLM-R base dengan skor F1 sebesar 0,9281 dan Indonesian RoBERTa dengan skor F1 sebesar 0,9246.

As a rule of law country, Indonesia has an active justice system. Every month, there are around 100,000 decision documents produced by the judiciary in Indonesia. The large volume of documents poses a challenge for legal people in Indonesia. In order to support and accommodate public institutions from the aspects of technology and information, as well as encourage the implementation of information disclosure for the general public, a method is needed that can help find and collect important information from a court decision document. In particular, this method is also intended to assist legal practitioners for the benefit of law enforcement and legal academics for the benefit of education and development in the field of law. One technique for collecting important information from a document is Named Entity Recognition (NER). The NER technique works by marking words that are important information such as people, places, locations, times, events, and so on. NER can be applied to various problem areas, such as medical, legal, and agriculture. NER which specifically works to mark legal entities is called Legal Entity Recognition (LER). Previous studies have applied LER to legal documents in Indonesian using the BiLSTM and CRF approaches, so further research is needed to find out how other models perform in this case. This study examines the performance of language models, namely the RoBERTa-based model and the BERT-based model and compares them with deep learning models, namely BiLSTM and BiLSTM-CRF as the baseline models for previous studies for the Indonesian language LER task. The results showed that the RoBERTa-based model had the best performance for the LER task in the author’s dataset, XLM-R large with an F1 score of 0.9295, XLM-R base with an F1 score of 0.9281 and Indonesian RoBERTa with an F1 score of 0.9246."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dwi Guna Mandhasiya
"Ilmu Data adalah irisan dari matematika dan statistika, komputer, serta keahlian domain. Dalam beberapa tahun terakhir inovasi pada bidang ilmu data berkembang sangat pesat, seperti Artificial Intelligence (AI) yang telah banyak membantu kehidupan manusia. Deep Learning (DL) sebagai bagian dari AI merupakan pengembangan dari salah satu model machine learning yaitu neural network. Dengan banyaknya jumlah lapisan neural network, model deep learning mampu melakukan proses ekstrasi fitur dan klasifikasi dalam satu arsitektur. Model ini telah terbukti mengungguli teknik state-of-the-art machine learning di beberapa bidang seperti pengenalan pola, suara, citra, dan klasifikasi teks. Model deep learning telah melampaui pendekatan berbasis AI dalam berbagai tugas klasifikasi teks, termasuk analisis sentimen. Data teks dapat berasal dari berbagai sumber, seperti sumber dari media sosial. Analisis sentimen atau opinion mining merupakan salah satu studi komputasi yang menganalisis opini dan emosi yang diekspresikan pada teks. Pada penelitian ini analisis peforma machine learning dilakukan pada metode deep learning berbasis representasi data BERT dengan metode CNN dan LSTM serta metode hybrid deep learning CNN-LSTM dan LSTM-CNN. Implementasi model menggunakan data komentar youtube pada video politik dengan topik terkait Pilpres 2024, kemudian evaluasi peforma dilakukan menggunakan confusion metric berupa akurasi, presisi, dan recall.

Data Science is the intersection of mathematics and statistics, computing, and a domain of expertise. In recent years innovation in the field of data science has developed very rapidly, such as Artificial Intelligence (AI) which helped a lot in human life. Deep Learning (DL) as part of AI is the development of one of the machine learning models, namely neural network. With the large number of neural network layers, deep learning models are capable of performing feature extraction and classification processes in a single architecture. This model has proven to outperform state-of-the-art machine learning techniques in areas such as pattern recognition, speech, imagery, and text classification. Deep learning models have gone beyond AI-based approaches in a variety of text classification task, including sentiment analysis. Text data can come from various sources, such as source from social media. Sentiment analysis or opinion mining is a computational study that analyze opinions and emotions expressed in text. In this research, machine learning performance analysis is carried out on a deep learning method based on BERT data representation with the CNN and LSTM and hybrid deep learning CNN-LSTM and LSTM-CNN method. The implementation of the model uses YouTube commentary data on political videos related to the 2024 Indonesia presidential election, then performance analysis is carried out using confusion metrics in the form of accuracy, precision, and recall."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Bijak Rabbani
"Diabetik retinopati adalah komplikasi dari penyakit diabetes yang dapat mengakibatkan gangguan penglihatan bahkan kebutaan. Penyakit ini menjadi tidak dapat disembuhkan jika telah melewati fase tertentu, sehingga diagnosa sedini mungkin menjadi sangat penting. Namun, diagnosa oleh dokter mata memerlukan biaya dan waktu yang cukup besar. Oleh karena itu, telah dilakukan upaya untuk meningkatkan efisiensi kerja dokter mata dengan bantuan komputer. Deep learning merupakan sebuah metode yang banyak digunakan untuk menyelesaikan masalah ini. Salah satu arsitektur deep learning yang memiliki performa terbaik adalah residual network. Metode ini memiliki kelebihan dalam menghindari masalah degradasi akurasi, sehingga memungkinkan penggunaan jaringan yang dalam. Di sisi lain, metode persistent homology juga telah banyak berkembang dan diaplikasikan pada berbagai masalah. Metode ini berfokus pada informasi topologi yang terdapat pada data. Informasi topologi ini berbeda dengan representasi data yang didapatkan dari model residual network. Penelitian ini melakukan analisis terhadap penerapan persistent homology pada kerangka kerja residual network dalam permasalahan klasifikasi diabetik retinopati. Dalam studi ini, dilakukan eksperimen berkaitan dengan informasi topologi dan proses pengolahannya. Informasi topologi ini direpresentasikan dengan betti curve atau persistence image. Sementara itu, pada proses pengolahannya dilakukan ujicoba pada kanal citra, metode normalisasi, dan layer tambahan. Hasil eksperimen yang telah dilakukan adalah penerapan persistent homology pada kerangka kerja residual network dapat meningkatkan hasil klasifikasi penyakit diabetik retinopati. Selain itu, penggunaan betti curve dari kanal merah sebuah citra sebagai representasi informasi topologi memberikan hasil terbaik dengan skor kappa 0.829 pada data test.

Diabetic retinopathy is a complication of diabetes which can result in visual disturbance and even blindness. This disease becomes incurable after reaching certain phases, thus immidiate diagnosis is highly important. However, diagnosis by a professional ophthalmologist requires a great amount of time and cost. Therefore, efforts to increase the work efficiency of ophthalmologists using computer system has been done. Deep learning is a method that widely used to solve this particular problem. Residual network is one of deep learning architecture which has the best performance. The main advantage of residual network is its ability to prevent accuracy degradation, thus enabling the model to go deeper. On the other hand, persistent homology is also rapidly developing and applied in various fields. This method focus on the topological information of the data. This information are different with the data representation that extracted by neural network model. This study analyze the incorporation of persistent homology to residual networks framework for diabetic retinopati classification. In this study, experiments regarding about topological information and its process were carried out. The topological information is represented as betti curve or persistence image. Meanwhile, the experiments are analyzing the impact of image colour channel, normalization method, and additional layer. According to the experiments, application of persistent homology on residual network framework could improve the outcome of diabetic retinopathy classification. Moreover, the application of betti curve from the red channel as a representation of topological information has the best outcome with kappa score of 0.829."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Jafar Abdurrohman
"

Sebagai negara hukum, Indonesia memiliki sistem peradilan yang aktif. Setiap bulannya, terdapat sekitar 100.000 dokumen putusan yang dihasilkan oleh lembaga kehakiman di Indonesia. Volume dokumen yang banyak tersebut menimbulkan suatu tantangan bagi insan hukum di Indonesia. Guna mendukung dan mengakomodasi institusi publik dari aspek teknologi dan informasi, serta mendorong pelaksanaan keterbukaan informasi bagi masyarakat umum, maka dibutuhkan suatu metode yang dapat membantu untuk mencari dan mengumpulkan informasi penting dari suatu dokumen putusan pengadilan. Secara khusus, metode ini juga ditujukan untuk membantu para praktisi hukum untuk kepentingan penegakan hukum dan para akademisi hukum untuk kepentingan pendidikan dan pengembangan di bidang hukum. Salah satu teknik untuk mengumpulkan informasi penting dari suatu dokumen adalah Named Entity Recognition (NER). Teknik NER bekerja dengan cara menandai kata-kata yang merupakan informasi penting seperti orang, tempat, lokasi, waktu, kejadian, dan lainnya. NER dapat diterapkan untuk berbagai bidang permasalahan, seperti medis, hukum, dan pertanian. NER yang secara spesifik bekerja untuk menandai entitas hukum disebut dengan Legal Entity Recognition (LER). Penelitian sebelumnya telah menerapkan LER untuk dokumen legal berbahasa Indonesia dengan pendekatan BiLSTM dan CRF sehingga diperlukan penelitian lebih lanjut untuk mengetahui bagaimana performa model-model lain terhadap kasus tersebut. Penelitian ini menguji performa language model, yaitu model berbasis RoBERTa dan model berbasis BERT serta membandingkannya dengan deep learning model, yaitu BiLSTM dan BiLSTM-CRF sebagai model baseline penelitian sebelumnya untuk task LER bahasa indonesia. Hasil penelitian menunjukkan model berbasis RoBERTa memliki performa terbaik untuk task LER pada dataset penulis, XLM-R large dengan skor F1 sebesar 0,9295, XLM-R base dengan skor F1 sebesar 0,9281 dan Indonesian RoBERTa dengan skor F1 sebesar 0,9246.


As a rule of law country, Indonesia has an active justice system. Every month, there are around 100,000 decision documents produced by the judiciary in Indonesia. The large volume of documents poses a challenge for legal people in Indonesia. In order to support and accommodate public institutions from the aspects of technology and information, as well as encourage the implementation of information disclosure for the general public, a method is needed that can help find and collect important information from a court decision document. In particular, this method is also intended to assist legal practitioners for the benefit of law enforcement and legal academics for the benefit of education and development in the field of law. One technique for collecting important information from a document is Named Entity Recognition (NER). The NER technique works by marking words that are important information such as people, places, locations, times, events, and so on. NER can be applied to various problem areas, such as medical, legal, and agriculture. NER which specifically works to mark legal entities is called Legal Entity Recognition (LER). Previous studies have applied LER to legal documents in Indonesian using the BiLSTM and CRF approaches, so further research is needed to find out how other models perform in this case. This study examines the performance of language models, namely the RoBERTa-based model and the BERT-based model and compares them with deep learning models, namely BiLSTM and BiLSTM-CRF as the baseline models for previous studies for the Indonesian language LER task. The results showed that the RoBERTa-based model had the best performance for the LER task in the author’s dataset, XLM-R large with an F1 score of 0.9295, XLM-R base with an F1 score of 0.9281 and Indonesian RoBERTa with an F1 score of 0.9246.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Thomas Hadi Wijaya
"Penelitian ini berfokus pada pengaplikasian teknologi deep learning, secara khusus menggunakan Residual Network (ResNet101) dalam prediksi perencanaan dosis untuk pasien kanker paru-paru. Tiga variasi input data diproses untuk dilatih dan diuji menggunakan ResNet, dan kemudian dievaluasi untuk menentukan variasi input yang paling akurat. Tujuan utama penelitian ini adalah memahami mekanisme kerja deep learning dalam prediksi perencanaan dosis, mengevaluasi akurasi prediksi menggunakan ResNet, dan menganalisis kinerja model pada masing-masing variasi input data. Metodologi yang digunakan melibatkan penggunaan model input dan output untuk menghasilkan kurva distribusi-volume dosis (DVH) prediksi dan aktual. DVH merupakan kurva yang digunakan untuk mengukur seberapa besar dosis yang diterima dalam persentase volume pada organ tertentu. Evaluasi dilakukan menggunakan metode Mean Absolute Error (MAE) dari persentase volume prediksi dan referensi masing-masing pasien pada rentang dosis yang ditentukan yaitu 0-60 Gy dengan lebar bin sebesar 0,25 Gy. Hasil evaluasi menunjukkan bahwa variasi data input A memberikan nilai MAE sebesar 11,24% ± 10,58%, variasi data input B memberikan MAE sebesar 12,79% ± 11,27%, dan variasi data input C memberikan MAE sebesar 12,22% ± 12,13%. Hasil tersebut memperlihatkan bahwa variasi data input A memiliki tingkat akurasi terbaik dengan nilai error dan standar deviasi terendah. Evaluasi juga melibatkan penggunaan train-val loss untuk masing-masing model yang dilatih. Temuan ini menunjukkan bahwa penggunaan citra CT sebagai channel 1, gabungan ROI tanpa ROI target sebagai channel 2, dan ROI target sebagai channel 3 memberikan prediksi perencanaan dosis yang paling akurat untuk pasien kanker paru-paru.

This study focuses on the application of deep learning technology, specifically using Residual Network (ResNet101), to predict dosage planning for lung cancer patients. Three variations of input data were processed for training and testing using ResNet, and then evaluated to determine the most accurate input variation. The primary objectives of this research are to understand the mechanism of deep learning in dosage planning prediction, evaluate prediction accuracy using ResNet, and analyze model performance for each input data variation. The methodology involved using input and output models to generate predicted and actual dose-volume histogram (DVH) curves. DVH is a curve used to measure the dose received as a volume percentage in a specific organ. Evaluation was conducted using the Mean Absolute Error (MAE) method from the volume percentage prediction and reference for each patient within a dose range of 0-60 Gy with a bin width of 0,25 Gy. The evaluation results showed that input data variation A yielded an MAE of 11,24% ± 10,58%, input data variation B yielded an MAE of 12,79% ± 11,27%, and input data variation C yielded an MAE of 12,22% ± 12,13%. These results indicate that input data variation A had the best accuracy with the lowest error and standard deviation. Evaluation also included using train-val loss for each trained model. These findings suggest that using CT images as channel 1, a combination of ROIs excluding the target ROI as channel 2, and the target ROI as channel 3 provides the most accurate dosage planning prediction for lung cancer patients."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Putu Bagus Raka Kesawa
"Kemajuan umat manusia dalam penerbangan modern sangat bergantung pada kemampuan untuk melakukan pemodelan sistem idenifikasi penerbangan dari suatu wahana pernerbangan. Pemodelan suatu sistem identifikasi penerbangan bergantung dengan tingkat kualitas dan kuantitas dari data simulasi yang digunakan untuk mendapatkan pendekatan situasi dan kondisi penerbangan aktual yang seakurat mungkin. Akurasi dan presisi dari data simulasi yang digunakan dalam pemodelan sistem penerbangan akan mempengaruhi hasil algoritma yang digunakan dalam sistem identifikasi. Dalam pencapaian kualitas data tersebut, digunakanlah perangkat lunak X-Plane yang berfungsi sebagai simulator penerbangan ultra-realistis yang menyuplai set data yang memungkinkan pembelajaran mesin dari algoritma berbasis komputer. Data pembelajaran pesawat terbang terdiri dari attitude orientasi pesawat. Data yang diperoleh dari simulator tersebut akan diproseskan menggunakan metode preprocessing, sehingga layak digunakan untuk pelatihan sistem identifikasi. Suatu algoritma artificial neural network diterapkan untuk mengidentifikasi sistem pesawat dengan mempelajari dataset yang disebutkan di atas, yang kemudian akan digunakan dalam pengembangan perancangan sistem kontrol. Algoritma artificial neural network yang dirancang dalam penelitian ini telah menunjukkan keberhasilan dalam sistem identifikasi untuk sistem penerbangan pesawat, dan siap digunakan dalam percobaan dan pengujian sistem kontrol pada pesawat.

Humanitys progress in modern aviation is very dependent on the ability to model the flight identification system of a flight vehicle. Modeling a flight identification system depends on the quality and quantity of simulation data used to get the most accurate representation of the actual flight situation and condition. The accuracy and precision of the simulation data used in the flight system modeling will affect the results of the algorithm used in the identification system. In achieving this data quality, X-Plane software is used which functions as an ultra realistic flight simulator that supplies data sets that enable machine learning from computer based algorithms. Airplane learning data consists of airplane orientation attitude. Data obtained from the simulator will be processed using the preprocessing method, so it is feasible to use for identification system training. An artificial neural network algorithm is applied to identify aircraft systems by studying the dataset mentioned above, which will then be used in the development of control system design. The artificial neural network algorithm designed in this study has shown success in the identification system for aircraft flight systems, and is ready to be used in the testing and testing of control systems on aircraft."
Depok: Fakultas Teknik Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adi Yudho Wijayanto
"Tujuan utama penggunaan peralatan Pressure Relief Device (PRD) adalah untuk memastikan keamanan bejana tekan dalam sistem bertekanan. Seiring berjalannya waktu, peralatan PRD dapat mengalami penurunan kualitas dan gagal menjalankan fungsi yang diharapkan, sehingga harus diidentifikasi sebagai mode kegagalan. Untuk memitigasi potensi risiko yang terkait dengan hal ini, direkomendasikan agar pendekatan seperti inspeksi berbasis risiko (RBI) diterapkan. Meskipun RBI telah diadopsi secara luas, metode ini bergantung pada teknik kualitatif, sehingga menyebabkan variasi yang signifikan dalam penilaian risiko peralatan. Studi ini mengusulkan metode analisis risiko baru yang menggunakan pembelajaran mesin berbasis pembelajaran mendalam untuk mengembangkan model penilaian risiko untuk peralatan PRD terkait dengan mode kegagalan failure on leakage. Pendekatan inovatif ini akan mengurangi waktu penilaian, meningkatkan akurasi, dan menurunkan biaya pemrosesan dengan memberikan hasil penghitungan yang tepat. Penelitian ini mengembangkan program prediksi risiko yang menggunakan pembelajaran mesin berbasis deep learning yang dirancang secara eksplisit untuk mode kegagalan failure on leakage pada peralatan pelepas tekanan. Dataset yang digunakan dalam proses pengembangan model mengikuti standar API 581 dan berisi 168 dataset. Berbagai parameter model digunakan, antara lain test size 20%, nilai random state 0, 150 epoch, learning rate 0,001, dan 3 layers dengan nilai dense 128, 64, dan 32. Performa model dievaluasi menggunakan validation confusion matrix, yang menunjukkan akurasi 94%.

The primary objective of deploying Pressure Relief Device (PRD) equipment is to ensure the safety of pressure vessels within a pressurized system. Over time, PRD equipment may degrade and fail to perform its intended function, which must be identified as a failure mode. To mitigate potential risks associated with this, it is recommended that an approach such as risk-based inspection (RBI) be implemented. Despite the widespread adoption of RBI, the method relies on qualitative techniques, leading to significant variations in equipment risk assessments. This study proposes a novel risk analysis method that uses deep learning-based machine learning to develop a risk assessment model for PRD equipment related to the fail-on-leakage failure mode. This innovative approach will reduce assessment times, improve accuracy, and lower processing costs by providing precise calculation results. The research develops a risk prediction program that uses deep learning-based machine learning designed explicitly for failure-on-leakage failure mode in pressure relief equipment. The dataset used in the model development process adheres to API 581 standards and comprises 168 data points. Various model parameters are employed, including a test size of 20%, a random state value of 0, 150 epochs, a learning rate of 0.001, and 3 layers with dense values of 128, 64, and 32. The model's performance is evaluated using a validation confusion matrix, which indicates an accuracy of 94%."
Depok: Fakultas Teknik Universitas Indonesia, 2024
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Muhammad Hanif Fahreza
"

Aksara Pegon adalah sistem penulisan berbasis Arab yang digunakan untuk menulis bahasa Jawa, Sunda, Madura, dan Indonesia. Karena berbagai alasan, aksara ini telah diturunkan ke ranah kolektor naskah sejarah dan pesantren, sehingga perlu dilestarikan. Salah satu metode pelestarian ini adalah melalui digitalisasi; lebih tepatnya dengan mentranskripsikan isi dari naskah-naskah yang ada ke dalam bentuk teks machine encoded, dimana proses tersebut jika dilakukan secara otomatis disebut juga sebagai OCR, atau Pengenalan Karakter Optik. Sampai saat ini belum ada literatur yang dipublikasikan mengenai sistem OCR untuk aksara ini. Oleh karena itu, penelitian ini bertujuan untuk menjembatani kesenjangan tersebut dengan menyediakan OCR untuk subset tertentu dari naskah Pegon, yaitu naskah Pegon yang dicetak. Penelitian ini memperkenalkan dataset yang disintesis dan yang dianotasi untuk pengenalan teks Pegon cetak. Dataset-dataset ini kemudian digunakan untuk mengevaluasi sistem OCR Arab konvensional yang sudah ada pada domain Pegon, baik versi asli maupun yang dimodifikasi, serta sistem berbasis teknik deep learning yang lebih baru dalam literatur. Hasilnya menunjukkan bahwa teknik deep learning mengungguli teknik konvensional, di mana teknik konvensional gagal mendeteksi teks Pegon sama sekali, sementara sistem yang diusulkan, khususnya menggunakan YOLOv5 untuk segmentasi baris dan arsitektur CTC-CRNN untuk pengenalan teks baris, mencapai nilai F1 sebesar 0,94 untuk segmentasi dan CER 0,03 untuk pengenalan teks.


The Pegon script is an Arabic-based writing system intended for writing the Javanese,
Sundanese, and Indonesian languages. Due to various reasons, this script has been
relegated to the domain of historical manuscript collectors and private Islamic boarding
schools or pesantren, presenting a need for preservation. One of these methods of
preservation is through digitization; more specifically, by transcribing the content of
these existing manuscripts into machine-encoded text, the automated process of which is
referred to as OCR. There has been heretofore no published literature on OCR systems
for this specific script. Hence, this research aims to bridge that gap by providing a
foray into the OCR of a specific subset of Pegon manuscripts, namely of printed Pegon
manuscripts. This research evaluates existing and modified versions of conventional
Arabic OCR systems on the domain of Pegon, as well as the more recent deep learning
techniques in the literature, along with introducing new datasets for use in developing
with said deep learning techniques. The results show the outperformance of these deep
learning techniques over the conventional techniques and with which components of a
Pegon OCR system is proposed.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Oemar Syarief Wibisono
"Beras merupakan makanan pokok mayoritas masyarakat Indonesia. Jika dibandingkan dengan konsumsi tahun 2019, konsumsi beras nasional meningkat sekitar 4,67 persen pada tahun 2021. Hal ini menunjukan bahwa setiap tahun konsumsi beras nasional akan meningkat karena seiring dengan pertumbuhan jumlah penduduk Indonesia. Sehingga dibutuhkan data produksi beras yang akurat dan tepat waktu untuk dapat menjaga ketersediaan stok beras nasional. Data citra satelit bisa menjadi alternatif untuk memprediksi produksi padi dikarenakan kekurangan yang dimiliki oleh metode survei yang dilakukan oleh BPS yaitu biaya yang cukup tinggi dan terdapat tenggang waktu diseminasi data. Gabungan citra SAR dan Optik dapat meningkatkan akurasi dari model yang dibangun. Selain itu penggunaan model deep learning memiliki akurasi yang lebih baik jika dibandingkan metode machine learning konvensional salah satunya kombinasi CNN dan Bi-LSTM yang mampu mengekstraksi fitur serta memiliki kemampuan untuk memodelkan data temporal dengan baik. Output yang diperoleh dengan menggunakan metode CNNBiLSTM untuk mengklasifikasikan fase pertumbuhan padi, menghasilkan akurasi yang terbaik dengan nilai akurasi 79,57 pada data testing dan 98,20 pada data training serta F1-score 79,78. Dengan menggunakan kombinasi data citra sentinel 1 dan 2 akurasi dari model LSTM dapat ditingkatkan. Selanjutnya akurasi yang didapatkan untuk model regresi produktivitas padi masih kurang baik. Akurasi terbaik dihasilkan oleh model random forest dengan nilai MAPE 0.1336, dan RSME 0,6871.

Rice is the staple food of the majority of Indonesian people. When compared to consumption in 2019, national rice consumption will increase by around 4.67 percent in 2021. This shows that every year rice consumption will increase in line with the growth of Indonesia's population. So that accurate and timely rice production data is needed to be able to maintain the availability of national rice stocks. Satellite imagery data can be an alternative for predicting rice production due to the drawbacks of the survey method conducted by BPS, which relatively high cost and the time span for data dissemination. The combination of SAR and Optical images can increase the accuracy of the model built. In addition, the use of deep learning models has better accuracy when compared to classical machine learning methods, one of them is the combination of CNN and Bi-LSTM which are able to extract features and have the ability to model temporal data properly. The output obtained using the CNNBiLSTM method to classify rice growth phases, produces the best accuracy with an accuracy value of 79.57 on testing data and 98.20 on training data and an F1-score of 79.78. By using a combination of sentinel 1 and 2 image data, the accuracy of the LSTM model can be improved. Furthermore, the accuracy obtained for the rice production regression model is still not good. The best accuracy was produced by the random forest model with a MAPE value of 0.1336 and RSME of 0.6871."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Muhammad Dzaky Jayalaksono
"Menjaga jarak aman saat berkendara adalah hal penting yang perlu diperhatikan terutama saat berkendara dalam kecepatan tinggi. Jalan tol yang bebas hambatan dapat membuat pengemudi mobil memacu kendaraannya dalam kecepatan tinggi sehingga sulit untuk menjaga jarak aman. Jarak aman yang relatif terhadap kecepatan kendaraan menambah sulit penerapan jarak aman di jalan tol. Aturan tiga-detik bisa menjadi solusi karena jarak waktu adalah konstan pada kecepatan berapapun. Namun, menghitung jarak waktu dapat berisiko mengurangi konsentrasi padahal penting bagi pengemudi untuk tetap fokus menyetir ketika di jalan tol. Kemajuan teknologi kecerdasan buatan dapat menjadi solusi untuk membantu menjaga jarak aman berkendara tanpa harus khawatir menghitungnya secara manual. Penelitian ini mengusulkan penggunaan model deep learning dan pendekatan pemrosesan gambar untuk menghitung jarak aman berkendara di jalan tol. Kemudian, memberikan feedback berupa peringatan visual apabila kendaraan tidak berada pada jarak aman. Pendekatan dilakukan dengan mengestimasi kecepatan kendaraan pengemudi dan jarak kendaraan di depan kendaraan pengemudi berdasarkan garis lajur di jalan tol. Model deep learning YOLOv8, algoritma Canny Edge Detection, Hough Transformation, dan teknik transformasi perspektif dipadukan untuk mencapai tujuan tersebut. Program dapat mengestimasi kecepatan kendaraan pengemudi dengan rata-rata error sebesar 7.66 Km/jam pada 93% kesalahan yang dibuat. Sementara itu, ratarata error estimasi kecepatan adalah 25.8 Km/jam pada 100% kesalahan yang dibuat. Hasil observasi juga menunjukkan bahwa hasil estimasi kecepatan lebih konsisten pada video 30 fps dibandingkan video 60 fps. Konsistensi ini ditunjukkan dengan rata-rata perubahan hasil estimasi kecepatan antar perhitungan pada video 30 fps adalah 29.76 Km/jam sedangkan pada video 60 fps adalah 76.74 Km/jam. Program akan semakin optimal apabila faktor seperti garis lajur jalan yang terputus, memudar, ataupun tertutup dapat diminimalisir. Selain itu, konfigurasi kamera yang dapat memengaruhi posisi gambar, perlu untuk diperhatikan agar garis lajur jalan tidak keluar dari gambar. Penelitian ini mengharapkan bahwa penggunaan model deep learning dan pendekatan pemrosesan gambar dapat membantu pengawasan jarak aman berkendara di jalan tol dengan menggunakan garis lajur jalan sebagai faktor utama untuk mengestimasi kecepatan dan jarak kendaraan.

Keeping a safe distance while driving becomes an important aspect that needs to be considered, especially when driving at high speeds. Toll roads that are freeway can tempt car drivers to accelerate their vehicles to high speeds, thus making it difficult to maintain a safe distance. The relative safe distance in relation to the vehicle's speed adds to the challenge of implementing safe driving distances on toll roads. The three-second rule can be a solution since the time distance remains constant regardless of the speed. However, calculating the time distance can be risky as it may reduce the driver's concentration which is important to stay focused while driving on toll roads. The advancements in artificial intelligence technology can provide a solution to help maintain a safe distance without having to worry about calculating it manually. This research proposes the use of deep learning models and image processing approaches to calculate the safe distance on toll roads. Then, it provides feedback in the form of a visual warning if the vehicle is not at a safe distance. The approach is carried out by estimating the driver's speed and the distance of the vehicle in front of the driver based on the lane lines on the toll road. The deep learning model YOLOv8, Canny Edge Detection algorithm, Hough Transformation, and perspective transformation techniques are combined to achieve this objective. The program can estimate the driver's speed with an average error of 7.6 Km/h for 93% of the errors made. Meanwhile, the average error in speed estimation is 25.8 Km/h for 100% of the errors made. The observation results also indicate that speed estimation is more consistent in 30 fps videos compared to 60 fps videos. This consistency is shown by the average change in speed estimation results between calculations on 30 fps videos is 29.76 Km/h, while on 60 fps videos it is 76.74 Km/h. The program will be more optimal if factors such as discontinuous, faded, or obstructed lane lines can be minimized. Furthermore, the configuration of the camera, which can affect the image's position, needs to be considered to prevent the lane lines from going outside the image. This research expects that the use of deep learning models and image processing approaches can assist in monitoring the safe distance on toll roads by utilizing lane lines as the main factor to estimate vehicle speed and distance."
Depok: Fakultas Matematika Dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2   >>