Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 77413 dokumen yang sesuai dengan query
cover
Adel Fahmi Karim
"Pneumonia adalah penyakit pada organ pernafasan manusia. Pneumonia disebabkan oleh bakteri, virus, atau jamur, yang menyebabkan alveolus pada paru-paru terisi oleh cairan. Ada beberapa cara untuk pendeteksian pneumonia, dan salah satunya adalah dengan menggunakan pemotretan x-ray ke dada pasien. Melalui beberapa studi, penggunaan pemrosesan gambar pada gambar x-ray dada pasien dengan algoritma Convolutional Neural Network (CNN) telah mendapatkan hasil yang cukup baik untuk mendeteksi pneumonia. Dengan studi terdahulu sebagai acuan, penelitian ini melakukan klasifikasi pneumonia melalui gambar x-ray menjadi positif dan negatif, serta melakukan klasifikasi lebih lanjut dari pneumonia positif untuk membedakan pneumonia yang disebabkan oleh bakteri dan oleh virus. Penelitian juga berfokus untuk mencari metode pengoptimalan transfer learning terbaik menggunakan pretrained CNN model Residual Nework (ResNet) dengan jenis ResNet18, ResNet50, dan ResNet101. Metode dengan hasil terbesar dari penelitian adalah penerapan dropout dan augmentasi data sekaligus pada ResNet50 yang mendapatkan akurasi 91% untuk klasifikasi dua kelas 88,03% untuk klasifikasi tiga kelas.

Pneumonia is a respiratory disease that could be caused by bacteria, virus, or fungus. Some of the proven method to detect pneumonia is through x-ray imaging of a person respiratory system. Studies of x-ray images processing using Convolutional Neural Network (CNN) has been conducted before with a good performance result. This research will use preceding studies as reference to classify x-ray image into positive or negative pneumonia, and further will classify the positive result into bacterial infection or viral infection. This research also focused on finding the best optimization transfer learning method to be used on pretrained CNN model ResNet. The best optimization result is to apply data augmentation to dataset and apply dropout layer in the CNN layer using ResNet50, with accuracy of 91% for 2-Class training and 88,03% for 3-Class training."
Depok: Fakultas Teknik Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sugiri
"Sebagian besar studi terbaru dalam abstractive summarization melakukan pendekatan dengan melakukan fine-tuning pretrained language generation model (PLGM). PLGM yang digunakan biasanya merupakan versi monolingual, yang hanya memiliki informasi bahasa yang sesuai dengan dataset yang digunakan. Penelitian ini menggunakan PLGM berbasis multilingual, yang menghasilkan kinerja yang cukup kompetitif jika dibandingkan dengan solusi state-of-the-art yang ada. Dengan menggunakan PLGM berbasis multilingual manfaat yang dihasilkan akan berdampak lebih luas sebanyak informasi bahasa yang dimiliki oleh PLGM terkait. Teknik CTRLSum, yaitu penambahan keyphrase di awal source document, terbukti dapat membuat PLGM menghasilkan summary sesuai dengan keyphrase yang disertakan. Penelitian ini menggunakan teknik mCTRLSum, yaitu teknik CTRLSum dengan menggunakan multilingual PLGM. Untuk mendapatkan keyphrase, selain dengan menggunakan teknik keyphrase extraction (KPE) yang memilih kata yang ada di source document, juga digunakan teknik keyphrase generation (KPG) yaitu teknik pembangkitan suatu set kata/frasa berdasarkan suatu source document dataset berbahasa Inggris, tidak hanya dilatih menggunakan oracle keyphrase sebagai pseudo-target dari dataset summarization, model KPG juga dilatih menggunakan dataset khusus permasalahan KPG dengan domain dan bahasa yang sama. Dengan teknik mCTRLSum yang memanfaatkan oracle keyphrase,  penelitian ini mendeklarasikan batas atas solusi permasalahan abstractive summarization pada dataset Liputan6, dan XLSum berbahasa Inggris, Indonesia, Spanyol, dan Perancis dengan peningkatan terbesar pada dataset Liputan6 sebanyak 22.54 skor ROUGE-1, 18.36 skor ROUGE-2, 15.81 skor ROUGE-L, dan 7.16 skor BERTScore, dan rata-rata 9.36 skor ROUGE-1, 6.47 skor ROUGE-2, 6.68 skor ROUGE-L dan 3.14 BERTScore pada dataset XLSum yang digunakan pada penelitian ini.

Most of the recent studies in abstractive summarization approach by fine-tuning the pre-trained language generation model (PLGM). PLGM used is usually a monolingual version, which only has language information that corresponds to the dataset used. This study uses amultilingual-basedd PLGM, which results in quite competitive performance, compared to existing state-of-the-art solutions. Using a PLGM based on the multilingual benefits generated, it will have a wider impact as much as the language information base owned by the related PLGM. The CTRLSum technique, which is the addition of a keyphrase at the beginning of the source document, is proven to be able to make PLGM produce a summary according to the included keyphrase. This study uses the mCTRLsum technique, namely the CTRLsum technique using multilingual PLGM. To get thekey phrasee, in addition to using the keyphrase extraction (KPE) technique, the words in the source document, keyphrase generation (KPG) techniques are also used, namely the technique of generating a set of words/phrases based on a source document. On the English dataset, not only using the oracle keyphrase as the pseudo-target of the dataset summariza buttion, the KPG model also uses the dataset specifically for KPG problems with the same domain and language. With the mCTRLsum technique that utilizes the oracle keyphrase, this study declares the upper bound of the solution to the abstractive summarization problem in the Liputan6 and XLSum in English, Indonesian, Spanish, and French datasets with the highest increase in Liputan6 dataset of 22.54 ROUGE-1 score, 18.36 ROUGE-2 score, 15.81 ROUGE-L score, and 7.16 BERTScore, and in average of 9.36 ROUGE-1 score, 6.47 ROUGE-2 score, 6.68 ROUGE-L score, and 3.14 BERTScore on XLSum dataset used in this research."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Rido Dwi Oktanto
"Pada era digital ini, teknologi informasi dan komunikasi berkembang pesat dan berpengaruh signifikan dalam berbagai aspek kehidupan, termasuk keamanan dan pengenalan identitas. Salah satu penerapan teknologi yang menonjol adalah sistem deteksi dan pengenalan wajah yang digunakan di berbagai tempat yang memerlukan keamanan ekstra. Penelitian ini bertujuan untuk mengembangkan sistem deteksi dan pengenalan wajah menggunakan arsitektur ResNet dan perangkat ESP-32, dengan fokus pada implementasi dan evaluasi efektivitas sistem tersebut dalam meningkatkan keamanan.
Metode yang digunakan dalam penelitian ini meliputi penggunaan ResNet-50 untuk pengenalan wajah dan Cascade Classifier untuk deteksi wajah. Data yang digunakan untuk pelatihan model diperoleh melalui proses augmentasi data untuk meningkatkan variasi dan jumlah sampel. Sistem ini diimplementasikan menggunakan perangkat keras ESP-32 dan perangkat lunak MATLAB, serta diuji pada lingkungan nyata untuk mengevaluasi kinerjanya.
Hasil penelitian menunjukkan bahwa sistem yang dikembangkan mampu mendeteksi dan mengenali wajah dengan akurasi tinggi. Integrasi sistem dengan infrastruktur keamanan yang ada juga memungkinkan peningkatan perlindungan terhadap data dan perangkat keras. Dengan demikian, penelitian ini berhasil menunjukkan bahwa teknologi deteksi dan pengenalan wajah dapat memberikan solusi efektif untuk meningkatkan keamanan di berbagai tempat.

In this digital era, information and communication technology has developed rapidly, significantly impacting various aspects of life, including security and identity recognition. One notable application of this technology is the facial detection and recognition system used in various high-security areas. This research aims to develop a facial detection and recognition system using ResNet architecture and ESP-32, focusing on the implementation and evaluation of the system's effectiveness in enhancing security.
The methods used in this study include employing ResNet-50 for facial recognition and Cascade Classifier for facial detection. The data used for model training were obtained through data augmentation processes to increase the variation and number of samples. The system was implemented using ESP-32 hardware and MATLAB software, and tested in real-world environments to evaluate its performance.
The results of the study indicate that the developed system can detect and recognize faces with high accuracy. The system's integration with existing security infrastructure also allows for enhanced protection of data and hardware. Thus, this research successfully demonstrates that facial detection and recognition technology can provide effective solutions for improving security in various locations.
"
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Farhan
"Akhir-akhir ini, dunia sedang di hebohkan dengan adanya salah satu virus, yaitu Corona Virus Desease-19 (Covid-19). Oleh karena itu pada penelitian kali ini, dirancang suatu sistem untuk menyelesaikan permasalahan tersebut. Sistem diuji pada Google Colab untuk mengklasifikasikan X-Ray Paru-Paru pengidap Pneumonia berbasis Artificial Inteligence dengan menerapkan algoritma Transfer Learning yang dilengkapi dengan algoritma Convolutional Neural Network yang memiliki pengembangan bernama Dense Convolutional Network (DenseNet). Untuk menyesuaikan bentuk dari semua dataset, digunakan nilai 224 x 224 px untuk setiap gambar yang ada di dataset sehingga didapatkan bentuk yang sama untuk setiap gambarnya. Lalu digunakan juga nilai batch_size sebesar 32. Pada penelitian ini, akan diklasifikasi 3 jenis pneumonia berdasarkan gambar X-Ray, yaitu Corona Virus Desease-19, Pneumonia Bacterial, Pneumonia Viral, dan tentunya paru-paru yang normal. Lalu digunakan beberapa bantuan coding berupa library yang dibuat sedemikian rupa sehingga proses pembuatan kode dapat diselesaikan seefektif mungkin, library tersebut adalah jcopdl. Hasil penelitian ini diharapkan dapat digunakan untuk membantu tenaga medis dalam menyelesaikan permasalahan Covid-19 yang semakin hari semakin eksponensial. Bedasarkan hasil akurasi, algoritma Densenet-161 dan RangerLARS dengan Learning Rate 0.0012 memiliki performa akurasi testing rata-rata sebesar 90% dan memiliki akurasi tertinggi sebesar 97% dan lebih baik dari GoogLeNet, ResNet, dan AlexNet.

Recently, The world is being shocked by the existence of virus, that is Corona Virus Desease-19 (Covid-19). So, in this research, a system was designed for training on Google Colan to classify X-Ray Lungs using Artificial Intelligence by applying several techniques such as, Image Processing with Transfer Learnimg algorithm which is equipped with Convolutional Neural Network and Dense Convolutional Neural Network (DenseNet). To adjust the shape of all datasets, used a value of 224 x 224 pixels for each image in the dataset, so get the same shape for each image, then use the batch_size 32. In this research, 3 types of pneumonia will be classified based on X-Ray images, namely Corona Virus Disease-19, Bacterial Pneumonia, Viral Pneumonia, and of course normal lungs. Then used some coding assistance in the form of a library made in such a way that the code will be effectively as possible, that is jcopdl. The results of this study are expected to be used to assist medical team in solving the Covid-19 problem which is increasingly exponential. Based on the accuracy results, the DenseNet-161 and RangerLARS algorithms with a Learning Rate of 0.0012 have a good average testing accuracy 90% and have the highest accuracy 97%. That’s is better than GoogLeNet, ResNet, and AlexNet."
Depok: Fakultas Teknik Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Farhan
"Akhir-akhir ini, dunia sedang di hebohkan dengan adanya salah satu virus, yaitu Corona Virus Desease-19 (Covid-19). Oleh karena itu pada penelitian kali ini, dirancang suatu sistem untuk menyelesaikan permasalahan tersebut. Sistem diuji pada Google Colab untuk mengklasifikasikan X-Ray Paru-Paru pengidap Pneumonia berbasis Artificial Inteligence dengan menerapkan algoritma Transfer Learning yang dilengkapi dengan algoritma Convolutional Neural Network yang memiliki pengembangan bernama Dense Convolutional Network (DenseNet). Untuk menyesuaikan bentuk dari semua dataset, digunakan nilai 224 x 224 px untuk setiap gambar yang ada di dataset sehingga didapatkan bentuk yang sama untuk setiap gambarnya. Lalu digunakan juga nilai batch_size sebesar 32. Pada penelitian ini, akan diklasifikasi 3 jenis pneumonia berdasarkan gambar X-Ray, yaitu Corona Virus Desease-19, Pneumonia Bacterial, Pneumonia Viral, dan tentunya paru-paru yang normal. Lalu digunakan beberapa bantuan coding berupa library yang dibuat sedemikian rupa sehingga proses pembuatan kode dapat diselesaikan seefektif mungkin, library tersebut adalah jcopdl. Hasil penelitian ini diharapkan dapat digunakan untuk membantu tenaga medis dalam menyelesaikan permasalahan Covid-19 yang semakin hari semakin eksponensial. Bedasarkan hasil akurasi, algoritma Densenet-161 dan RangerLARS dengan Learning Rate 0.0012 memiliki performa akurasi testing rata-rata sebesar 90% dan memiliki akurasi tertinggi sebesar 97% dan lebih baik dari GoogLeNet, ResNet, dan AlexNet.

Recently, The world is being shocked by the existence of virus, that is Corona Virus Desease-19 (Covid-19). So, in this research, a system was designed for training on Google Colan to classify X-Ray Lungs using Artificial Intelligence by applying several techniques such as, Image Processing with Transfer Learnimg algorithm which is equipped with Convolutional Neural Network and Dense Convolutional Neural Network (DenseNet). To adjust the shape of all datasets, used a value of 224 x 224 pixels for each image in the dataset, so get the same shape for each image, then use the batch_size 32. In this research, 3 types of pneumonia will be classified based on X-Ray images, namely Corona Virus Disease-19, Bacterial Pneumonia, Viral Pneumonia, and of course normal lungs. Then used some coding assistance in the form of a library made in such a way that the code will be effectively as possible, that is jcopdl. The results of this study are expected to be used to assist medical team in solving the Covid-19 problem which is increasingly exponential. Based on the accuracy results, the DenseNet-161 and RangerLARS algorithms with a Learning Rate of 0.0012 have a good average testing accuracy 90% and have the highest accuracy 97%. That’s is better than GoogLeNet, ResNet, and AlexNet."
Depok: Fakultas Teknik Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Rizky Hartaman
"Sampai saat ini, serangan jantung masih menjadi penyebab utama kematian dibanyak tempat di dunia. Salah satunya adalah kelainan pada katup jantung yang dapat dideteksi melalui suara murmur pada detak jantung penderita. Skripsi ini membahas tentang perancangan sistem pengenalan penyakit jantung berdasarkan suara detak jantung dengan metode HMM. Sistem ini terbagi menjadi dua proses utama, yaitu pembentukan database dan pengenalan penyakit jantung. Kedua proses ini dilakukan dengan cara yang hampir sama, yaitu tiap sampel akan mengalami proses pelabelan, pembuatan codebook dan pembentukan parameter HMM. Hanya saja, pengolahan sinyal suara pada proses pengenalan mengacu database yang telah lebih dulu diproses. Dimulai dengan pembentukan vektorvektor data dengan teknik kuantisasi vektor (VQ), yang kemudian dicari suatu nilai centroid yang presisi untuk dijadikan state HMM dalam menentukan nilainilai parameter yang dibutuhkan.
Berdasarkan parameter-parameter inilah, dapat dihitung suatu nilai probabilitas (Log of Probability) maksimum yang akan menunjukkan hasil keluarannya. Dari hasil perancangan sistem ini, akan dibandingkan akurasi sistem terhadap variasi nilai durasi sampel, jumlah sampel, dan ukuran codebook. Pada penelitian ini ukuran codebook yang optimal adalah 64, jumlah database yang optimal sebesar 10 (sepuluh) buah, dan rentang waktu sampel yang optimal adalah 0,7 detik. Sementara akurasi sistem secara keseluruhan bervariasi antara 60% hingga 85%.

Heart attack is still being the number one killer until now all over the world. A part of heart diseases which can be detected by murmur sound and will be explained here is valve anomaly. This thesis is talking about heart disease recognition based on its heart sound system design using HMM method. The system consists of two main processes: database construction and diseases recognition. Both of this processes is done with almost exact ways. Each samples will be processed through labelling, codebook construction, and HMM parameter making. The difference is that in recognizing process, sound signal will be compared to database which has been made before. The whole process is started with data vectors production by vector quantization (VQ) which can be used to analyze precise centroid positions. The centroid will define HMM states and parameters.
A Log of Probability (LoP) will be calculated from the parameter values. The largest value of LoP will be declared as an output of the system. Output of each samples are compared to get system accuracy based on variation of sample duration, sample amount, and codebook size. The optimum codebook size in this research is 64, optimum sample amount in database is 10, and 0.7s sample duration. Overall, accuracy of the system is variating from 60% up to 85%.
"
Depok: Fakultas Teknik Universitas Indonesia, 2009
S51389
UI - Skripsi Open  Universitas Indonesia Library
cover
Bagus Nurhuda
"Seiring bertambahnya jumlah pelanggan listrik di Indonesia menjadikan persentase kerugian dari susut non-teknis pada Perusahaan Listrik Negara (PLN) semakin besar tiap tahunnya yang menyebabkan berkurangnya keuntungan. Berbagai upaya telah dilakukan oleh PLN dengan membentuk tim Penertiban Pemakaian Tenaga Listrik (P2TL) berdasarkan informasi indikasi pencurian dan kelainan maupun pemilihan manual pada pelanggan pascabayar. Namun upaya yang dilakukan PLN sejauh ini masih belum efektif dalam penentuan Target Operasi (TO) karena membutuhkan waktu yang lama dengan hasil akurasi yang kecil. Tujuan dari penelitian ini adalah untuk menganalisis efektivitas dari data pemakaian listrik (kWh) pelanggan dalam pemodelan machine learning menggunakan algoritma Extreme Gradient Boosting (XGBoost) menggunakan metode feature engineering dan hyperparameter tuning. Hasil dari penelitian ini membuktikan bahwa penggunaan riwayat pemakaian listrik efektif dalam pemodelan hingga tingkat akurasi mencapai 80% pada penggunaan data jam nyala dan 82% pada penggunaan data gabungan jam nyala dengan metode statistik dan bantuan hyperparameter tuning. Dengan hasil ini dapat membantu PLN untuk menentukan TO pada pelanggan pascabayar dengan lebih mudah dan efisien menggunakan teknologi machine learning.

As the number of electricity customers in Indonesia increases, the percentage of non-technical losses in PLN (Perusahaan Listrik Negara) has been growing every year, leading to a decrease in profits. Various efforts have been made by PLN through the establishment of the Penertiban Pemakaian Tenaga Listrik (P2TL) team based on indications of theft or abnormalities and manual selection of postpaid customers. However, PLN's efforts so far have been ineffective in determining the Operational Target (TO) due to the long time required and low accuracy. The aim of this research is to analyze the effectiveness of customer electricity usage data (kWh) in machine learning modeling using the Extreme Gradient Boosting (XGBoost) algorithm with feature engineering and hyperparameter tuning methods. The results of this study demonstrate that the use of electricity usage history is effective in modeling, achieving an accuracy rate of 80% when using on/off hours data and 82% when using a combination of on/off hours data with statistical methods and the assistance of hyperparameter tuning. These findings can assist PLN in determining the TO for postpaid customers more easily and efficiently using machine learning technology."
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
I Komang Setia Buana
"Tesis ini berisi perancangan, pembuatan, dan analisa dari sistem traffic counting dan classification kendaraan menggunakan teknologi computer vision. Metode yang digunakan dalam sistem ini adalah metode optical flow, dan untuk proses ektraksi fitur dengan menggunakan algoritma canny. Metode yang dipakai tersebut diimplementasikan dan dievaluasi menggunakan bahasa pemrograman java dengan menambahkan library openCV dan javaCV, dan untuk versi jdk menggunakan jdk 1.7 dan Netbeans IDE 7.3. Alur kerja dari sistem ini yaitu pengambilan data dan pengolahan data. Data yang diambil berupa video yang berasal dari CCTV, kemudian data video tersebut diolah menggunakan sistem ini. Pengolahan data terdiri dari proses-proses yaitu konversi video ke gambar, segmentasi, ektraksi fitur dalam sistem ini menggunakan algoritma canny, dan deteksi objek menggunakan metode optical flow. Dari proses tersebut maka dapat dijadikan acuan untuk melakukan penghitungan, pengklasifikasian dan mengetahui kecepatan rata-rata setiap kendaraan yang melintas di area yang diteliti. Berdasarkan pengujian dengan menerapkan metode optical flow, algoritma canny, dan untuk menghilangkan noise menggunakan morfologi didapat bahwa tingkat error akan semakin berkurang jika perubahan jarak deteksi semakin besar. Error paling besar terjadi untuk tahap counting 26,75 % dan untuk klasifikasi kendaraan 38 %. Pengujian kami juga menemukan bahwa semakin dekat area pertama dengan area kedua, proses klasifikasi yang dilakukan semakin lama sehingga jarak deteksi semakin jauh.

This thesis describes the design, making, and analysis of traffic counting and vehicles classification system using computer vision technology. The methods used in this system is a method of optical flow, and for the process of feature extraction by using the canny algorithm. The methods used were implemented and evaluated using the java programming by adding the openCV library and javaCV, and to use jdk 1.7 and Netbeans IDE 7.1. The workflow of the system is the data retrieval and data processing. The data is taken in form of video CCTV, the video data is then processed using this system. Data processing consists of the processes of conversion of video to pictures, segmentation, feature extraction in this system using canny algorithm, and object detection method using optical flow. The result of that process is referred to conduct the counting, classification and to calculate the average speed of each vehicle passing in the area examined. Our experiment shows that by applying optical flow method, Canny algorithm, and removing noise using morphological process occurred that level of error is decreased that the distance is greater. Error occurred for most of the counting stage is 26.75% and for the vehicle classification is 38%. Our test also observes that the closer the first and the second area, the longer process classification so the farther detection distances."
Depok: Fakultas Teknik Universitas Indonesia, 2013
T35110
UI - Tesis Membership  Universitas Indonesia Library
cover
Rafilham Edifa Daulay
"Skripsi ini membahas perancangan dan manufaktur dari sistem penggerak yang diaplikasikan kepada stairlift. Penelitian ini diawali dengan pemilihan jenis dan spesifikasi motor yang digunakan, jenis dan spesifikasi baterai yang digunakan,jenis perancangan sistem jalur, serta spesifikasi dan jalur rangkaian kelistrikan yang akan digunakan. Hasil penelitian ini adalah stairlift rancangan penulis menggunakan motor PMDC dengan spesifikasi 24 Volt, 350 Watt, 2,04 Nm. Untuk baterai yang digunakan, didapat baterai Ion Lithium dengan spesifikasi 24 Volt, 20 A, 10 Ah. Untuk sistem jalur penggerak, ditentukan bahwa stairlift akan menggunakan sistem rantai dimana rantai akan menempel pada sprocket dengan menjadikan rantai sebagai rel dan sprocket menjadi penggerak yang bergerak pada rel rantai. Sistem penggerak yang telah dirancang dan dibuat sudah bekerja sesuai dengan standardisasi ASME A18.1 dimana antara lain sudut kemiringan, bobot maksimal, dan kecepatan maksimal, namun masih dapat dioptimalkan agar keamanan dan aksesibilitas pengguna dapat ditingkatkan.

This thesis discusses the design and manufacture of propulsion systems that are applied to stairlifts. This research begins with selecting the type and specification of the motor used, the type and specification of the battery used, the type of line system design, as well as the specifications and path of the electrical circuit to be used. The results of this study are the stairlift designed by the author using a PMDC motor with specifications of 24 Volt, 350 Watt, 2.04 Nm. For the battery used, a Lithium-ion battery is obtained with specifications of 24 Volt, 20 A, 10 Ah. For the drive line system, it is determined that the stairlift will use a chain system where the chain will attach to the sprocket by making the chain a rail and the sprocket being the drive that moves on the chain rail. The drive system that has been designed and made already works in accordance with the provisions of ASME A18.1 including inclining angle, maximum weight and maximum speed, but can still be optimized so that user security and accessibility can be improved."
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Eko Julianto Salim
"Pembangkitan komentar dari data terstruktur adalah tugas yang menantang dalam bidang pembangkitan bahasa alami dengan berbagai potensi aplikasi dalam bidang olahraga dan esports. Penelitian-penelitian sebelumnya sering berfokus pada penyesuaian model datake-teks khusus, namun eksperimen awal penulis menemukan bahwa pretrained language model menunjukkan performa yang lebih baik dalam pembangkitan komentar. Penelitian ini berfokus pada bagaimana pretrained language model dapat diadaptasi untuk menghasilkan performa yang lebih baik pada permasalahan pembangkitan komentar menggunakan data replay Counter-Strike. Penulis menemukan bahwa penyesuaian pretrained language model dapat meningkatkan kualitas semantik dan alami dari pembangkitan komentar. Namun, penulis juga menemukan bahwa peningkatan kualitas semantik dan alami ini didampingi dengan penurunan pada kualitas leksikal akibat tantangan intrinsik yang ada dalam pembangkitan komentar.

Generating commentary from structured data poses a significant challenge in natural language generation, with extensive applications in sports and esports domains. Previous research has predominantly centered on tailoring specialized data-to-text models for this task. However, our preliminary investigation indicates that pretrained language models exhibit superior performance in commentary generation. This study focuses on further adapting pretrained language models to enhance their suitability for esports commentary generation, specifically utilizing Counter-Strike replay data. Our findings reveal that through this adaptation, pretrained language models can augment the semantic quality and naturalness of generated commentary. Nevertheless, we observed a trade-off, as the improvement in semantic quality and naturalness was accompanied by a decline in lexical quality, owing to the inherent complexities involved in commentary generation."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>