Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 62707 dokumen yang sesuai dengan query
cover
Prajna Wira Basnur
"Klasifikasi dokumen adalah sebuah metode untuk menentukan suatu dokumen termasuk ke suatu kategori secara otomatis berdasarkan isi dokumen. Metode Naïve Bayes dan ontologi merupakan metode klasifikasi dokumen teks yang digunakan dalam penelitian ini. Data yang digunakan dalam penelitian ini berupa artikel berita berbahasa Indonesia dari situs http://www.kompas.com. Dalam penelitian ini menggunakan lima kategori dalam domain olahraga untuk melakukan klasifikasi dokumen, yaitu kategori bulutangkis, basket, otomotif, sepakbola, dan tenis. Klasifikasi dokumen dengan menggunakan ontologi dilakukan dengan membandingkan nilai kemiripan diantara dokumen dan sebuah node yang ada di ontologi. Sebuah dokumen diklasifikasikan ke sebuah kategori atau node, jika memiliki nilai kemiripan paling tinggi diantara semua node yang ada di ontologi. Hasil penelitian menunjukkan bahwa ontologi dapat digunakan untuk melakukan klasifikasi dokumen. Nilai recall, precision, dan f-measure untuk klasifikasi dokumen menggunakan ontologi berturut-turut adalah 97.03%, 91.63%, dan 94.02%.

Document classification is a method for determine document category automatically based on contents of document. In this research, we use Naïve Bayes and Ontology method for document classification. Mass media in Bahasa Indonesia is used as data in this research. Data is taken from http//www.kompas.com. We uses five category in sports domain for document classification that comprise with bulutangkis, basketball, automotive, soccer, and tennis category. Document classification uses ontology can be done with compare similarity value between document and a node in ontology. A document can classified to a category or node, if a document has highest similarity value between all node in ontology. In this research indicate that ontology can used for document classification. Recall, precision, and f-measure value for document classification using ontology in a row are 97.03%, 91.63%, and 94.02%."
2009
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Nofa Aulia
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
T51811
UI - Tesis Membership  Universitas Indonesia Library
cover
Amanda Nydia Augustizhafira
"Analisis sentimen merupakan bagian dari data mining text mining , yaitu proses memahami, mengekstrak, dan mengolah data tekstual secara otomatis untuk mendapatkan informasi. Pada penelitian ini, analisis sentimen diterapkan pada salah satu media sosial, yaitu Twitter. Analisis sentimen tergolong sebagai masalah klasifikasi yang dapat diselesaikan menggunakan salah satu metode machine learning, yaitu Neural Network. Pada machine learning, data dibagi menjadi data pelatihan dan data pengujian yang berasal dari domain yang sama.
Permasalahan utama pada penelitian ini adalah data pelatihan dan data pengujian berasal dari dua domain yang berbeda, sehingga perlu diterapkan pembelajaran lain selain machine learning. Masalah tersebut dapat diselesaikan dengan menggunakan transfer learning. Transfer learning merupakan suatu pembelajaran model yang dibangun oleh suatu data pelatihan dari suatu domain dan diuji oleh suatu data pengujian dari domain yang berbeda dari domain data pelatihan. Simulasi dalam penelitian ini menghasilkan suatu akurasi transfer learning dengan metode Neural Network yang nantinya akan diuji dengan fitur n-gram bi-gram dan tri-gram serta satu metode seleksi fitur, yaitu Extra-Trees Classifier.
Dalam penelitian ini, nilai akurasi transfer learning tertinggi didapat saat hidden layer berjumlah satu. Sebagian besar nilai akurasi tertinggi didapat saat penggunaan 250 neuron pada hidden layer. Fungsi aktivasi ReLU dan tanh menghasilkan nilai akurasi yang lebih tinggi dibandingkan fungsi aktivasi logistic sigmoid. Penggunakan metode seleksi fitur dapat meningkatkan kinerja transfer learning sehingga nilai akurasinya lebih tinggi dibandingkan simulasi tanpa penggunaan metode seleksi fitur.

Sentiment analysis is a part of data mining text mining , which is the process of understanding, extracting, and processing textual data automatically to obtain information. In this research, sentiment analysis is applied to one social media called Twitter. Sentiment analysis is categorized as a classification problem that can be solved using one of machine learning methods, namely Neural Network. In machine learning, data is divided into training data and test data from the same domain.
The main problem in this research is training data and test data come from two different domains, so it is necessary to apply other learning beside machine learning. The problem can be solved by using transfer learning. Transfer learning is a model learning constructed by a training data from a domain and tested by a test data from a different domain from the training data domain. The simulation in this research resulted in an accuracy of learning transfer with Neural Network method which will be tested using n grams bi grams and tri grams and one feature selection method called Extra Trees Classifier.
In this research, the highest value of transfer learning accuracy is obtained when one hidden layer is used. Most of the highest accuracy values are obtained from the use of 250 neurons on the hidden layer. The activation function of ReLU and tanh yield a higher accuracy value than the logical activation function sigmoid . The use of feature selection method can improve the transfer learning performance so that the accuracy value is higher than simulation without the use of feature selection method.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
M. Fatkhul Amin
"Event Extraction merupakan salah satu tugas dalam sistem ekstraksi informasi yang bertujuan untuk menemukan kumpulan informasi event dari suatu dokumen. Informasi tersebut dapat berupa informasi pihak-pihak yang terlibat, tempat kejadian, waktu, dan segala informasi yang terkait dengan event. Penelitian ini bertujuan untuk melakukan proses ekstraksi event (event pertemuan) pada teks berbahasa Indonesia. Dari event pertemuan tersebut, informasi yang dicari adalah informasi pihak yang terlibat (person), tempat (location), serta waktu (time) terjadinya event. Ekstraksi dilakukan dengan menggunakan pendekatan machine learning. Sedangkan metode machine learning yang digunakan adalah association rules, decision tree, dan neural networks. Penelitian bertujuan untuk melihat perbandingan kinerja ketiga metode tersebut terhadap ekstraksi event. Uji coba dilakukan pada artikel-artikel media massa online dari Kompas, Jawa Pos, Republika, dan Sinar Harapan. Pada ekstraksi event, diketahui bahwa metode decision tree menunjukkan kinerja yang lebih baik dibandingkan metode association rules dan metode neural networks dengan F-measure mencapai 83,95%. Metode association rules menunjukkan kinerja yang lebih baik dibandingkan dengan metode neural networks dengan F-measure masing-masing sebesar 82,41% dan 81,57%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2006
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rionaldi Dwipurna Wongsoputra
"Peningkatan jumlah kendaraan beserta pelanggaran lalu lintas setiap tahunnya membuat semakin sulit bagi pihak berwenang untuk mendeteksi dan menindak pelanggaran tersebut. Salah satu pelanggaran yang menantang untuk dideteksi adalah penggunaan plat palsu pada mobil. Implementasi Intelligent Transportation System (ITS) dalam sistem lalu lintas dapat memberikan kontribusi signifikan dalam mendeteksi jenis pelanggaran ini. Beberapa studi sebelumnya telah sukses menerapkan ITS untuk mendeteksi dan mengklasifikasikan kendaraan menggunakan deep learning, memberikan solusi dalam penanganan pelanggaran lalu lintas. Penerapan teknologi ini dapat memberikan dukungan yang efektif bagi pihak berwenang dalam mengambil tindakan yang tepat. Penelitian ini bertujuan untuk mengembangkan sistem deteksi tipe mobil dan plat nomornya. Dalam pendekatan ini, model deep learning YOLO-NAS dan EfficientNet digunakan untuk mendeteksi dan mengklasifikasikan jenis mobil serta plat nomornya. Sebagai pendukung, model SRGAN digunakan untuk meningkatkan resolusi citra plat mobil. Untuk tujuan mendeteksi penggunaan plat palsu pada kendaraan, maka selanjutnya hasil dari sistem ini dapat diintegrasikan dengan database plat dan jenis kendaraan untuk mendeteksi plat yang palsu. Performa terbaik pada masing-masing model adalah 92% untuk akurasi validasi model EfficientNet dengan menggunakan layer dense sebesar 1024 dan dropout sebesar 0.2, 93% pada nilai mAP dan 1.24 pada nilai validasi loss untuk model YOLO-NAS dengan melakukan training sebanyak 30 epoch, serta nilai PSNR sebesar 19.5 dan nilai validasi loss sebesar 2.8 untuk model SRGAN dengan learning rate generator sebesar 0.001 dan learning rate discriminator sebesar 0.0001. Dibutuhkan pengembangan lebih lanjut pada model ini agar dapat dipakai secara real-time.

The increasing number of vehicles and traffic violations each year makes it increasingly challenging for authorities to detect and address these violations. One of the challenging offenses to detect is the use of fake license plates on cars. The implementation of Intelligent Transportation Systems (ITS) in traffic can significantly contribute to detecting such violations. Several studies have successfully applied ITS for vehicle detection and classification using deep learning, providing a solution for handling traffic violations. The adoption of this technology can effectively support authorities in taking appropriate actions. Based on existing literature, this research aims to develop a system for detecting the type and license plates of vehicles. In this approach, deep learning models, YOLO-NAS, and EfficientNet are used to detect and classify the type of vehicles and their license plates. As a supportive model, SRGAN is utilized to enhance the resolution of license plate images. This research is expected to contribute to improving the effectiveness of traffic violation detection, particularly concerning the use of fake plates on vehicles. Furthermore, the results from this system can be integrated with license plate and vehicle type databases to detect fake plates. The best performance of each model is 92% for the validation accuracy of the EfficientNet model using a dense layer of 1024 and a dropout of 0.2, 93% for the mAP value and 1.24 for the validation loss value for the YOLO-NAS model after training for 30 epochs, and a PSNR value of 19.5 and a validation loss value of 2.8 for the SRGAN model with a generator learning rate of 0.001 and a discriminator learning rate of 0.0001. Further development of this model is needed for real-time application."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Jauzak Hussaini Windiatmaja
"Sumber informasi di jejaring berita daring adalah instrumen yang memungkinkan individu membaca berita, menerbitkan berita, dan berkomunikasi. Hal ini sudah menjadi tren dalam masyarakat yang sangat mobile. Oleh karena itu, proses verifikasi fakta suatu pemberitaan menjadi sangat penting. Dengan pertimbangan tersebut, sebuah tools berbasis web service untuk verifikasi fakta menggunakan metode deep learning dengan teknik ensemble dibangun. Penggunaan teknik ensemble pada model deep learning adalah proses beberapa model pembelajaran mesin digabungkan secara strategis untuk menyelesaikan masalah menggunakan lebih dari satu model. Untuk melatih model, dibangun sebuah dataset. Dataset berisi pasangan klaim dan label. Klaim dibangun dengan data crawling di kanal berita berbahasa Indonesia. Tiga model deep learning dibangun dan dilatih menggunakan dataset yang dibuat, dengan arsitektur jaringan dan hyperparameter yang berbeda. Setelah model dilatih menggunakan dataset, ketiga model diagregasikan untuk membentuk sebuah model baru. Untuk memastikan bahwa model agregat berfungsi lebih baik daripada model tunggal, performa model deep learning ensemble dibandingkan dengan model deep learning dasar. Hasil penelitian menunjukkan bahwa model ensemble memiliki akurasi 85,18% sedangkan model tunggal memiliki akurasi 83,9%, 83,19%, dan 81,94%. Hasil ini menunjukkan bahwa model ensemble yang dibangun meningkatkan kinerja verifikasi fakta dari tiga model tunggal. Hasil penelitian juga menunjukkan bahwa metode deep learning mengungguli performa metode machine learning lain seperti naive bayes dan random forest. Untuk memvalidasi kinerja tools yang dibangun, response time dari web service diukur. Hasil pengukuran menunjukkan rata-rata response time 6.447,9 milidetik.

Information sources on social networks are instruments that allow individuals to read news, publish news, and communicate. This is a trend in a highly mobile society. Therefore, the process of verifying facts is very important. With these considerations, we built a web service-based tool for fact verification using deep learning methods with ensemble technique. The use of ensemble techniques in deep learning models is a process in which several machine learning models are combined to solve problems. To train the model, we created a dataset. Our dataset of Indonesian news contains pairs of claims along with labels. Claims are built by crawling data on Indonesian news channels. Three deep learning models have been built and trained using the previously created dataset with different network architectures and hyperparameters. After the model is trained, three models are aggregated to form a new model. To ensure that the aggregated model performs better than the single model, the deep learning ensemble model is compared to the single models. The results showed that the ensemble model has an accuracy of 85.18% while the single models have an accuracy of 83.9%, 83.19%, and 81.94% consecutively. These results indicate that the ensemble model built improves the fact-verification performance of the three single models. The results also show that by using the same dataset, deep learning methods outperform other machine learning methods such as naive bayes and random forest. To validate the performance of the tools we created, the response time of the web service is measured. The measurement result shows an average response time of 6447.9 milliseconds."
Depok: Fakultas Teknik Universitas Indonesia, 2021
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Naura Asyifa
"Sistem Penilaian Esai Otomatis (SIMPLE-O) merupakan teknologi deep learning yang dikembangkan oleh Departemen Teknik Elektro, Fakultas Teknik Universitas Indonesia. SIMPLE-O dikembangkan untuk menilai ujian esai Bahasa Indonesia menggunakan gabungan algoritma CNN dengan Bidirectional LSTM. Dokumen yang menjadi input untuk sistem berupa jawaban mahasiswa dan kunci jawaban dosen. Keduanya akan melalui proses pre-processing yang dilanjut menuju proses embedding dan masuk ke dalam model deep learning. Selanjutnya akan dilakukan perhitungan dengan metrik penilaian yaitu Manhattan Distance dan Cosine Similarity. Pengujian dilakukan dengan mencari hyperparameter terbaik dari enam skenario yang dijalankan. Hasil pengujian skenario akhir fase training dan testing pengukuran Manhattan Distance mendapatkan nilai rata-rata selisih sebesar 0,72 dan 15,19. Untuk pengujian akhir pengukuran Cosine Similarity didapatkan nilai sebesar 1,07 dan 15,43.

The Automated Essay Assessment System (SIMPLE-O) is a deep learning technology developed by the Department of Electrical Engineering, Faculty of Engineering, University of Indonesia. SIMPLE-O was developed to assess Indonesian essay exams using the CNN algorithm and the Bidirectional LSTM. Documents that become input for the system are student answers and lecturer answer keys. Both of them will go through a pre-processing process, leading to the embedding process and entering the deep learning model. Next, calculations will be done with assessment metrics: Manhattan Distance and Cosine Similarity. Testing is done by looking for the best hyperparameters from the six-run scenarios. The results of testing the scenario at the end of the training and testing phase of the Manhattan Distance measurement obtained an average difference of 0.72 and 15.19. For the final test of the Cosine Similarity measurement, values were obtained of 1.07 and 15.43."
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Naradhipa Mahardhika Setiawan Bhary
"Sebagai negara hukum, Indonesia memiliki sistem peradilan yang aktif. Setiap bulannya, terdapat sekitar 100.000 dokumen putusan yang dihasilkan oleh lembaga kehakiman di Indonesia. Volume dokumen yang banyak tersebut menimbulkan suatu tantangan bagi insan hukum di Indonesia. Guna mendukung dan mengakomodasi institusi publik dari aspek teknologi dan informasi, serta mendorong pelaksanaan keterbukaan informasi bagi masyarakat umum, maka dibutuhkan suatu metode yang dapat membantu untuk mencari dan mengumpulkan informasi penting dari suatu dokumen putusan pengadilan. Secara khusus, metode ini juga ditujukan untuk membantu para praktisi hukum untuk kepentingan penegakan hukum dan para akademisi hukum untuk kepentingan pendidikan dan pengembangan di bidang hukum. Salah satu teknik untuk mengumpulkan informasi penting dari suatu dokumen adalah Named Entity Recognition (NER). Teknik NER bekerja dengan cara menandai kata-kata yang merupakan informasi penting seperti orang, tempat, lokasi, waktu, kejadian, dan lainnya. NER dapat diterapkan untuk berbagai bidang permasalahan, seperti medis, hukum, dan pertanian. NER yang secara spesifik bekerja untuk menandai entitas hukum disebut dengan Legal Entity Recognition (LER). Penelitian sebelumnya telah menerapkan LER untuk dokumen legal berbahasa Indonesia dengan pendekatan BiLSTM dan CRF sehingga diperlukan penelitian lebih lanjut untuk mengetahui bagaimana performa model-model lain terhadap kasus tersebut. Penelitian ini menguji performa language model, yaitu model berbasis RoBERTa dan model berbasis BERT serta membandingkannya dengan deep learning model, yaitu BiLSTM dan BiLSTM-CRF sebagai model baseline penelitian sebelumnya untuk task LER bahasa indonesia. Hasil penelitian menunjukkan model berbasis RoBERTa memliki performa terbaik untuk task LER pada dataset penulis, XLM-R large dengan skor F1 sebesar 0,9295, XLM-R base dengan skor F1 sebesar 0,9281 dan Indonesian RoBERTa dengan skor F1 sebesar 0,9246.

As a rule of law country, Indonesia has an active justice system. Every month, there are around 100,000 decision documents produced by the judiciary in Indonesia. The large volume of documents poses a challenge for legal people in Indonesia. In order to support and accommodate public institutions from the aspects of technology and information, as well as encourage the implementation of information disclosure for the general public, a method is needed that can help find and collect important information from a court decision document. In particular, this method is also intended to assist legal practitioners for the benefit of law enforcement and legal academics for the benefit of education and development in the field of law. One technique for collecting important information from a document is Named Entity Recognition (NER). The NER technique works by marking words that are important information such as people, places, locations, times, events, and so on. NER can be applied to various problem areas, such as medical, legal, and agriculture. NER which specifically works to mark legal entities is called Legal Entity Recognition (LER). Previous studies have applied LER to legal documents in Indonesian using the BiLSTM and CRF approaches, so further research is needed to find out how other models perform in this case. This study examines the performance of language models, namely the RoBERTa-based model and the BERT-based model and compares them with deep learning models, namely BiLSTM and BiLSTM-CRF as the baseline models for previous studies for the Indonesian language LER task. The results showed that the RoBERTa-based model had the best performance for the LER task in the author’s dataset, XLM-R large with an F1 score of 0.9295, XLM-R base with an F1 score of 0.9281 and Indonesian RoBERTa with an F1 score of 0.9246."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Jafar Abdurrohman
"

Sebagai negara hukum, Indonesia memiliki sistem peradilan yang aktif. Setiap bulannya, terdapat sekitar 100.000 dokumen putusan yang dihasilkan oleh lembaga kehakiman di Indonesia. Volume dokumen yang banyak tersebut menimbulkan suatu tantangan bagi insan hukum di Indonesia. Guna mendukung dan mengakomodasi institusi publik dari aspek teknologi dan informasi, serta mendorong pelaksanaan keterbukaan informasi bagi masyarakat umum, maka dibutuhkan suatu metode yang dapat membantu untuk mencari dan mengumpulkan informasi penting dari suatu dokumen putusan pengadilan. Secara khusus, metode ini juga ditujukan untuk membantu para praktisi hukum untuk kepentingan penegakan hukum dan para akademisi hukum untuk kepentingan pendidikan dan pengembangan di bidang hukum. Salah satu teknik untuk mengumpulkan informasi penting dari suatu dokumen adalah Named Entity Recognition (NER). Teknik NER bekerja dengan cara menandai kata-kata yang merupakan informasi penting seperti orang, tempat, lokasi, waktu, kejadian, dan lainnya. NER dapat diterapkan untuk berbagai bidang permasalahan, seperti medis, hukum, dan pertanian. NER yang secara spesifik bekerja untuk menandai entitas hukum disebut dengan Legal Entity Recognition (LER). Penelitian sebelumnya telah menerapkan LER untuk dokumen legal berbahasa Indonesia dengan pendekatan BiLSTM dan CRF sehingga diperlukan penelitian lebih lanjut untuk mengetahui bagaimana performa model-model lain terhadap kasus tersebut. Penelitian ini menguji performa language model, yaitu model berbasis RoBERTa dan model berbasis BERT serta membandingkannya dengan deep learning model, yaitu BiLSTM dan BiLSTM-CRF sebagai model baseline penelitian sebelumnya untuk task LER bahasa indonesia. Hasil penelitian menunjukkan model berbasis RoBERTa memliki performa terbaik untuk task LER pada dataset penulis, XLM-R large dengan skor F1 sebesar 0,9295, XLM-R base dengan skor F1 sebesar 0,9281 dan Indonesian RoBERTa dengan skor F1 sebesar 0,9246.


As a rule of law country, Indonesia has an active justice system. Every month, there are around 100,000 decision documents produced by the judiciary in Indonesia. The large volume of documents poses a challenge for legal people in Indonesia. In order to support and accommodate public institutions from the aspects of technology and information, as well as encourage the implementation of information disclosure for the general public, a method is needed that can help find and collect important information from a court decision document. In particular, this method is also intended to assist legal practitioners for the benefit of law enforcement and legal academics for the benefit of education and development in the field of law. One technique for collecting important information from a document is Named Entity Recognition (NER). The NER technique works by marking words that are important information such as people, places, locations, times, events, and so on. NER can be applied to various problem areas, such as medical, legal, and agriculture. NER which specifically works to mark legal entities is called Legal Entity Recognition (LER). Previous studies have applied LER to legal documents in Indonesian using the BiLSTM and CRF approaches, so further research is needed to find out how other models perform in this case. This study examines the performance of language models, namely the RoBERTa-based model and the BERT-based model and compares them with deep learning models, namely BiLSTM and BiLSTM-CRF as the baseline models for previous studies for the Indonesian language LER task. The results showed that the RoBERTa-based model had the best performance for the LER task in the author’s dataset, XLM-R large with an F1 score of 0.9295, XLM-R base with an F1 score of 0.9281 and Indonesian RoBERTa with an F1 score of 0.9246.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Tri Kushartadi
"Teknologi Dense Wavelength Division Multiplexing (DWDM) telah mengalami perkembangan pesat, di mana beberapa vendor telah meningkatkan kapasitas per frekuensi hingga mencapai 1 Tbps (Tera Bit Per Second). Dalam tesis ini, penelitian dilakukan untuk menentukan pola data yang digunakan oleh engineer guna mencapai hasil yang optimal dengan menggunakan kecerdasan buatan. Penelitian ini berfokus pada simulasi jaringan DWDM di Microsoft di Amerika Utara, yang melibatkan beberapa repeater dan mempertimbangkan berbagai faktor yang terjadi dalam jaringan tersebut. Dengan menggunakan data hasil performansi lapangan, ditemukan data yang paling optimal untuk jaringan DWDM tersebut. Dengan mencapai kinerja Q-Factor yang baik, diperoleh juga margin pada jaringan berdasarkan perhitungan kabel optiknya. Estimasi kinerja Q-Factor dapat diperoleh melalui fungsi regresi linear yang bergantung pada perangkat yang dilalui dalam jaringan, seperti Transponder, EDFA, dan media transmisi berupa serat optik. Data hasil pengukuran merupakan data perubahan daya transmisi pada sisi penguat, yang menyebabkan perubahan daya per kanal pada setiap transponder di sisi penerima. Setiap perubahan nilai kinerja Q-Factor pada setiap kanal dianalisis polanya menggunakan machine learning. Data tersebut akan dilakukan proses pelatihan berulang kali guna meminimalkan kesalahan dan mencapai kinerja Q-Factor yang lebih baik. Secara keseluruhan, hasil yang dicapai dalam tesis ini membentuk dasar bagi skema pemodelan kinerja Q-Factor yang akurat serta mendapatkan nilai Q-Factor yang optimal. Hasil penelitian ini memberikan wawasan tentang penggunaan machine learning di masa depan dalam perencanaan jaringan optik DWDM.

This research investigates the development of Dense
Wavelength Division Multiplexing (DWDM) technology in
conjunction with 6G technology to meet the growing demands for
high-speed data transmission. Vendors have significantly
increased the capacity per channel enabling speeds of up to 1 Tera Bit Per Second. The Q-Factor is one of the indicators that
determines the quality of the optical system. Q-Factor plays a
crucial role in evaluating these technological advancements. In
actual practice, engineers need to conduct manual field tests to
obtain the Q-factor value. Engineers must calibrate the equipment
manually onsite. This procedure is time consuming and inefficient. Machine learning can be used to calculate and forecast the Qfactor quickly and automatically. This study designs a machine learning algorithm to forecast the Q-factor value based on the equipment parameters in the field. This study evaluates 4 machine learning algorithms. The data used is obtained from the Microsoft optical network in North America. The Decision tree model archives the best results with an impressive accuracy of 99.5% and low mean squared error (MSE) of 0,00104. The proposed algorithm achieved better results than the previous research.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>