Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 201739 dokumen yang sesuai dengan query
cover
Ricki Taufik
"Penelitian ini bertujuan untuk meningkatkan prediksi time series pada jaringan seluler dengan memasukkan variabel lagged ke dalam model peramalan yang berbeda. Penelitian ini berfokus pada memprediksi Total Traffic Volume (Payload) pada jaringan seluler menggunakan model statistik dan machine learning. Teknik feature engineering melibatkan pemilihan variabel lagged, termasuk beban PRB, CQI, dan pengguna RRC, bersama dengan variabel waktu. Model yang memasukkan variabel lagged tambahan, yaitu SARIMAX, LSTM Multi, dan SVR Multi, memiliki performa lebih baik daripada model sebanding univariat tambahan, dengan hasil RMSE yang lebih rendah, MAE yang lebih rendah, dan nilai R-squared yang lebih tinggi. Penelitian ini menekankan pentingnya memasukkan variabel lagged dan menghitung peningkatan akurasi peramalan pada model multi-variabel dibandingkan dengan model variabel tunggal. Temuan ini berkontribusi pada pemahaman tentang peramalan time series pada jaringan seluler dan memberikan panduan untuk prediksi traffic volume yang akurat.

This research aims to improve time series prediction in cellular networks by incorporating lagged variables into different forecasting models. The study focuses on predicting the Total Traffic Volume (Payload) in cellular networks using statistical and machine learning models. Feature engineering involves selecting lagged variables, including PRB load, CQI, and RRC users, along with time variables. The models incorporating additional lagged variables, namely SARIMAX, LSTM Multi, and SVR Multi, outperform their counterparts without additional variables, resulting in lower RMSE, MAE, and higher R-squared values. The study highlights the importance of incorporating lagged variable and calculates the improvement of forecasting accuracy at multi-variable models compared to single variable models. These findings contribute to the understanding of time series forecasting in cellular networks and provide insights for accurate traffic volume prediction.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Daniel Adi Nugroho
"Dalam rangka melakukan pengendalian alih fungsi lahan pertanian diperlukan kuantifikasi luas dan sebaran lahan sawah, dimana salah satu metode yang efisien dalam pemetaan lahan baku sawah di wilayah tropis adalah dengan melakukan proses klasifikasi lahan baku sawah menggunakan data multitemporal dari citra Synthetic Aperture Radar (SAR). Tujuan utama dari penelitian ini adalah untuk melakukan kajian spasiotemporal perubahan lahan sawah di Kabupaten Indramayu berdasarkan lahan baku sawah tahunan yang diperoleh dari hasil pemanfaatan algoritma Deep Learning, yaitu Long Short-Term Memory (LSTM) untuk melakukan klasifikasi biner sawah dan non-sawah pada data SAR multitemporal dari satelit Sentinel-1. Akurasi hasil dari klasifikasi LSTM dievaluasi terhadap hasil observasi lapangan tahun 2021 sebagai tolok ukurnya, dengan metode klasifikasi tersupervisi lainnya, yaitu Support Vector Machine dan Random Forest, sebagai pembanding. Model LSTM yang didapatkan dalam penelitian ini selanjutnya dipakai untuk melakukan proses klasifikasi data lahan baku sawah tahunan. Hasil penelitian menunjukkan bahwa algoritma LSTM memberikan akurasi klasifikasi tertinggi dibandingkan algoritma SVM dan RF. Kajian spasiotemporal tutupan lahan sawah pada kurun waktu tahun 2017 hingga 2021 menunjukkan bahwa terjadi fluktuasi luasan dan sebaran lahan sawah tiap tahun, dengan tingkat perubahan terbesar pada Kecamatan Tukdana dan Kecamatan Kandanghaur. Berdasarkan kajian literatur sekunder, penambahan lahan sawah yang terkonsentrasi di Kecamatan Tukdana diperkirakan merupakan akibat dari penjarahan lahan perkebunan tebu oleh warga, sedangkan pengurangan lahan sawah yang terkonsentrasi di Kecamatan Kandanghaur diperkirakan merupakan akibat banjir rob yang berkepanjangan.

In order to manage the conversion of agricultural land, it is necessary to quantify the area and distribution of rice fields, where one of the efficient methods in mapping raw rice fields in the tropics is to carry out the process of classifying raw rice fields using multitemporal data from Synthetic Aperture Radar (SAR) images. The main objective of this research is to conduct a spatiotemporal study of changes in paddy fields in Indramayu Regency based on annual rice field map obtained from the use of the Deep Learning algorithm, namely Long Short-Term Memory (LSTM) to perform a binary classification of rice fields and non-rice fields on the data. Multitemporal SAR from the Sentinel-1 satellite. The accuracy of the results of the LSTM classification is evaluated against the results of field observations in 2021 as a benchmark, with other supervised classification methods, namely Support Vector Machine and Random Forest, for comparison. The LSTM model obtained in this study is then used to carry out the process of classifying the annual raw land data for rice fields. The results showed that the LSTM algorithm gave the highest classification accuracy compared to the SVM and RF algorithms. The spatiotemporal study of paddy field cover in the period 2017 to 2021 shows that there are fluctuations in the area and distribution of paddy fields every year, with the largest changes in Tukdana and Kandanghaur sub-districts. Based on a secondary literature review, the addition of rice fields concentrated in Tukdana District is estimated to be the result of looting of sugarcane plantations by residents, while the reduction of rice fields concentrated in Kandanghaur District is estimated to be the result of prolonged tidal flooding."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Kevin Harijanto
"Sebagai salah satu cara untuk memindahkan risiko, banyak orang menginginkan produk asuransi sebagai jaminan proteksi atas dirinya. Pada masa digital ini dimana internet, media sosial dan media komunikasi digital lainnya sudah menjadi bagian dari kehidupan sehari-hari. Perusahaan asuransi juga perlu untuk mengetahui preferensi pelanggannya untuk menjangkau pelanggan potensial dan mengoptimalkan model bisnisnya. Terlebih di masa pandemi COVID-19 yang dialami oleh seluruh dunia, perusahaan jasa transportasi sedang dilanda kesulitan. Namun hal ini merupakan potensi yang sangat besar untuk penjualan asuransi perjalanan ketika pandemi sudah berakhir dan perjalanan dimulai kembali. Salah satu cara untuk mendapatkan preferensi pelanggan adalah dengan studi historikal terkait data-data pelanggan sebelumnya. Masalah preferensi ini dapat disederhanakan menjadi klasifikasi biner, dan sudah banyak metode yang umum digunakan untuk masalah ini seperti Logistic Regression, Gradient Boosting Machine dan Random forest. Namun, belum banyak yang menyelesaikan masalah tersebut menggunakan metode Convolutional Neural Network (CNN). Metode ini memanfaatkan algoritma tabular convolution untuk mengubah data tabular menjadi bentuk citra yang kemudian diklasifikasikan menggunakan CNN. Dari hasil simulasi diperoleh bahwa penggunaan metode ini dapat menyaingi akurasi metode Logistic Regression, Gradient Boosting Machine dan Random Forest dengan iterasi yang cukup rendah.

Many people seek insurance products as a guarantee of protection for themselves, as a way to transfer the risk that they are facing. In this digital era where the internet, social media and other digital communication media have become a part of everyday life, insurance companies also need to know their customers’ preferences to reach potential customers and optimize their business models. Especially during the COVID- 19 pandemic experienced by the whole world, transportation service companies are experiencing many difficulties. But due to this pandemic, there lies a huge potential of travel insurance when the pandemic ends and demands surge for travel business. One way to get customer preferences is by historical studies related to previous customer data. This preference problem can be reduced to binary classification with many methods commonly used to address this problem, such as Logistic Regression, Gradient Boosting Machines and Random Forest. However, not many has solved this problem using the Convolutional Neural Network (CNN) method. This method utilizes the tabular convolution algorithm to convert tabular data into image form which will then be classified using CNN. The results obtained that the use of this method can compete with Logistic Regression, Gradient Boosting Machine and Random Forest with a fairly low iteration.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dwi Guna Mandhasiya
"Ilmu Data adalah irisan dari matematika dan statistika, komputer, serta keahlian domain. Dalam beberapa tahun terakhir inovasi pada bidang ilmu data berkembang sangat pesat, seperti Artificial Intelligence (AI) yang telah banyak membantu kehidupan manusia. Deep Learning (DL) sebagai bagian dari AI merupakan pengembangan dari salah satu model machine learning yaitu neural network. Dengan banyaknya jumlah lapisan neural network, model deep learning mampu melakukan proses ekstrasi fitur dan klasifikasi dalam satu arsitektur. Model ini telah terbukti mengungguli teknik state-of-the-art machine learning di beberapa bidang seperti pengenalan pola, suara, citra, dan klasifikasi teks. Model deep learning telah melampaui pendekatan berbasis AI dalam berbagai tugas klasifikasi teks, termasuk analisis sentimen. Data teks dapat berasal dari berbagai sumber, seperti sumber dari media sosial. Analisis sentimen atau opinion mining merupakan salah satu studi komputasi yang menganalisis opini dan emosi yang diekspresikan pada teks. Pada penelitian ini analisis peforma machine learning dilakukan pada metode deep learning berbasis representasi data BERT dengan metode CNN dan LSTM serta metode hybrid deep learning CNN-LSTM dan LSTM-CNN. Implementasi model menggunakan data komentar youtube pada video politik dengan topik terkait Pilpres 2024, kemudian evaluasi peforma dilakukan menggunakan confusion metric berupa akurasi, presisi, dan recall.

Data Science is the intersection of mathematics and statistics, computing, and a domain of expertise. In recent years innovation in the field of data science has developed very rapidly, such as Artificial Intelligence (AI) which helped a lot in human life. Deep Learning (DL) as part of AI is the development of one of the machine learning models, namely neural network. With the large number of neural network layers, deep learning models are capable of performing feature extraction and classification processes in a single architecture. This model has proven to outperform state-of-the-art machine learning techniques in areas such as pattern recognition, speech, imagery, and text classification. Deep learning models have gone beyond AI-based approaches in a variety of text classification task, including sentiment analysis. Text data can come from various sources, such as source from social media. Sentiment analysis or opinion mining is a computational study that analyze opinions and emotions expressed in text. In this research, machine learning performance analysis is carried out on a deep learning method based on BERT data representation with the CNN and LSTM and hybrid deep learning CNN-LSTM and LSTM-CNN method. The implementation of the model uses YouTube commentary data on political videos related to the 2024 Indonesia presidential election, then performance analysis is carried out using confusion metrics in the form of accuracy, precision, and recall."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Tri Kushartadi
"Teknologi Dense Wavelength Division Multiplexing (DWDM) telah mengalami perkembangan pesat, di mana beberapa vendor telah meningkatkan kapasitas per frekuensi hingga mencapai 1 Tbps (Tera Bit Per Second). Dalam tesis ini, penelitian dilakukan untuk menentukan pola data yang digunakan oleh engineer guna mencapai hasil yang optimal dengan menggunakan kecerdasan buatan. Penelitian ini berfokus pada simulasi jaringan DWDM di Microsoft di Amerika Utara, yang melibatkan beberapa repeater dan mempertimbangkan berbagai faktor yang terjadi dalam jaringan tersebut. Dengan menggunakan data hasil performansi lapangan, ditemukan data yang paling optimal untuk jaringan DWDM tersebut. Dengan mencapai kinerja Q-Factor yang baik, diperoleh juga margin pada jaringan berdasarkan perhitungan kabel optiknya. Estimasi kinerja Q-Factor dapat diperoleh melalui fungsi regresi linear yang bergantung pada perangkat yang dilalui dalam jaringan, seperti Transponder, EDFA, dan media transmisi berupa serat optik. Data hasil pengukuran merupakan data perubahan daya transmisi pada sisi penguat, yang menyebabkan perubahan daya per kanal pada setiap transponder di sisi penerima. Setiap perubahan nilai kinerja Q-Factor pada setiap kanal dianalisis polanya menggunakan machine learning. Data tersebut akan dilakukan proses pelatihan berulang kali guna meminimalkan kesalahan dan mencapai kinerja Q-Factor yang lebih baik. Secara keseluruhan, hasil yang dicapai dalam tesis ini membentuk dasar bagi skema pemodelan kinerja Q-Factor yang akurat serta mendapatkan nilai Q-Factor yang optimal. Hasil penelitian ini memberikan wawasan tentang penggunaan machine learning di masa depan dalam perencanaan jaringan optik DWDM.

This research investigates the development of Dense
Wavelength Division Multiplexing (DWDM) technology in
conjunction with 6G technology to meet the growing demands for
high-speed data transmission. Vendors have significantly
increased the capacity per channel enabling speeds of up to 1 Tera Bit Per Second. The Q-Factor is one of the indicators that
determines the quality of the optical system. Q-Factor plays a
crucial role in evaluating these technological advancements. In
actual practice, engineers need to conduct manual field tests to
obtain the Q-factor value. Engineers must calibrate the equipment
manually onsite. This procedure is time consuming and inefficient. Machine learning can be used to calculate and forecast the Qfactor quickly and automatically. This study designs a machine learning algorithm to forecast the Q-factor value based on the equipment parameters in the field. This study evaluates 4 machine learning algorithms. The data used is obtained from the Microsoft optical network in North America. The Decision tree model archives the best results with an impressive accuracy of 99.5% and low mean squared error (MSE) of 0,00104. The proposed algorithm achieved better results than the previous research.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Nofa Aulia
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2019
T51811
UI - Tesis Membership  Universitas Indonesia Library
cover
Ahmad Rafiul Mahdi
"Pandemi COVID-19 yang semakin mengkhawatirkan telah membatasi masyarakat dalam melakukan kontak fisik dengan benda-benda pada fasilitas umum. Berbagai sarana interaksi yang membutuhkan kontak fisik telah digantikan dengan alternatif yang mendukung interaksi secara contactless. Elevator merupakan salah satu fasilitas umum yang paling sering digunakan masyarakat, maka perlunya alternatif dari penggunaan tombol pada elevator untuk mengurangi kemungkinan tersebarnya virus. Perkembangan teknologi computer vision telah menghasilkan banyak implementasi yang bermanfaat, salah satu implementasi tersebut adalah pendeteksian objek. Pada penelitian ini, dilakukan perancangan dan implementasi dari deep learning untuk menghasilkan model pengenalan gestur tangan secara real-time yang ditujukan untuk diterapkan sebagai sarana interaksi dengan elevator. Metode transfer learning digunakan karena dapat menghasilkan model yang akurat tanpa perlu menggunakan dataset yang besar. Perancangan model dilakukan menggunakan Tensorflow Object Detection API dan SSD MobileNetV2 sebagai pre-trained model yang telah dilatih dengan dataset Microsoft COCO. Model yang telah dilatih dengan jumlah training steps sebesar 11000 menggunakan Dataset A pada nilai threshold 0.7 dapat mendeteksi 8 gestur tangan dengan nilai akurasi mencapai 90% berdasarkan uji coba real-time yang dilakukan.

The increasingly worrying COVID-19 pandemic has limited people from making physical contact with objects in public facilities. Various means of interaction that require physical contact have been replaced with alternatives that support contactless interaction. Elevators are one of the public facilities that are most often used by the public, so there is a need for alternatives to using buttons on elevators to reduce the possibility of spreading the virus. The development of computer vision technology has resulted in many useful implementations, one of which is object detection. In this research, the design and implementation of deep learning and artificial neural network is carried out to produce a real-time hand gesture recognition model that is intended to be applied as a means of interaction with elevators. The transfer learning method is used because it can produce accurate models without the need to use large datasets. The model design is carried out using the Tensorflow Object Detection API and SSD MobileNetV2 as a pre-trained model that has been trained with the Microsoft COCO dataset. The model that has been trained with the number of training steps of 11000 using the Dataset A at a threshold value of 0.7 can detect 8 hand gestures with an accuracy reaching up to 90% based on real-time trials carried out."
Depok: Fakultas Teknik Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
M. Fatkhul Amin
"Event Extraction merupakan salah satu tugas dalam sistem ekstraksi informasi yang bertujuan untuk menemukan kumpulan informasi event dari suatu dokumen. Informasi tersebut dapat berupa informasi pihak-pihak yang terlibat, tempat kejadian, waktu, dan segala informasi yang terkait dengan event. Penelitian ini bertujuan untuk melakukan proses ekstraksi event (event pertemuan) pada teks berbahasa Indonesia. Dari event pertemuan tersebut, informasi yang dicari adalah informasi pihak yang terlibat (person), tempat (location), serta waktu (time) terjadinya event. Ekstraksi dilakukan dengan menggunakan pendekatan machine learning. Sedangkan metode machine learning yang digunakan adalah association rules, decision tree, dan neural networks. Penelitian bertujuan untuk melihat perbandingan kinerja ketiga metode tersebut terhadap ekstraksi event. Uji coba dilakukan pada artikel-artikel media massa online dari Kompas, Jawa Pos, Republika, dan Sinar Harapan. Pada ekstraksi event, diketahui bahwa metode decision tree menunjukkan kinerja yang lebih baik dibandingkan metode association rules dan metode neural networks dengan F-measure mencapai 83,95%. Metode association rules menunjukkan kinerja yang lebih baik dibandingkan dengan metode neural networks dengan F-measure masing-masing sebesar 82,41% dan 81,57%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2006
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Doni Pradana
"Customer churn merupakan masalah serius di banyak sektor, termasuk sektor telekomunikasi. Pengertian costumer churn adalah berhentinya penggunaan suatu layanan dan beralih ke penyedia lain atau tidak memperbarui kontrak. Untuk mengatasi risiko churn, perusahaan telekomunikasi perlu menggunakan model prediksi dengan bantuan metode machine learning. Terdapat beberapa model prediksi churn yang telah diajukan oleh para peneliti, termasuk pemilihan algoritma yang sesuai dan dataset untuk studi kasus. Pada tesis ini menggunakan dataset IBM Telco Customer Churn sebagai data pelatihan dan pengujian. Tantangan umum dalam klasifikasi adalah ketidakseimbangan data, yang dapat menyebabkan kegagalan dalam memprediksi kelas minoritas. Oleh karena itu, tesis ini menggunakan beberapa teknik augmentasi data seperti SMOTE, HAT, dan CVAE, sebagai teknik dalam menyeimbangkan data. Pembelajaran ensembel khususnya metode CART (Classification and Regression Tree) sering digunakan untuk menyelesaikan permasalahan klasifikasi dan regresi. Model Adaboost adalah algoritma pembelajaran ensemble yang menggunakan pohon keputusan sebagai dasar pembelajaran. Dalam pelatihan model Adaboost, Bayesian Optimization (BO) digunakan sebagai metode pencarian hyperparameter terbaik. Dari hasil percobaan dan pengujian yang diajukan, model Adaboost dapat memberikan nilai testing f1-score dan recall sebesar 0,661 dan 0,653 pada pelatihan dengan dataset tidak seimbang. Model Adaboost-SMOTE mempunyai nilai testing f1-score dan recall sebesar 0,646 dan 0,826. Penggunaan optimasi Bayesian Optimization pada model Adaboost-SMOTE dapat menaikkan testing f1-score dan recall menjadi 0,649 dan 0,849. Tes ANOVA dan Tukey HSD mengungkapkan variasi yang signifikan dalam hasil pelatihan dari model machine learning, dan menyoroti dampak penggunaan data seimbang dalam pelatihan model yang signifikan.

Customer churn is a severe problem in various sectors, including telecommunications. Customer churn refers to discontinuing the service, switching to another provider, or not renewing the contract. To deal with churn risk, telecommunication companies need to use predictive models with the help of machine learning methods. Several churn prediction models have been proposed by researchers, including the selection of suitable algorithms and data sets for case studies. In this thesis, research is conducted using the IBM Telco Customer Churn dataset. A common challenge in classification is data imbalance, which can lead to failure in predicting minority classes. Therefore, this thesis using several data augmentation techniques, such as SMOTE, HAT, and CVAE, for balancing data technique. Ensemble learning, especially the CART (Classification and Regression Tree) method, is often used to solve classification and regression problems. Adaboost is an ensemble learning algorithm that uses decision trees as the basis for learning. In the Adaboost model training, Bayesian Optimization (BO) is used to find the best hyperparameters. From the trials and tests carried out, Adaboost achieved an f1-score and recall test of 0.661 and 0.653, respectively, in training with an unbalanced dataset. The Adaboost SMOTE model achieved f1 and memory test scores of 0.646 and 0.826, respectively. Using Bayesian Optimization in the Adaboost SMOTE model increased the testing f1-score and recall scores to 0.649 and 0.849, respectively. ANOVA and Tukey HSD tests reveal significant variation in machine learning model training results and highlight the considerable impact of using balanced data in model training."
Depok: Fakultas Teknik Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Richie Ghifari
"Rancang campur beton merupakan proses bertahap dan kompleks untuk mencoba menemukan komposisi bahan terbaik guna menghasilkan beton dengan performa terbaik. Kuat tekan beton merupakan sifat terpenting dalam kualitas beton dibandingkan sifat-sifat lain. Dalam proses pembuatannya, banyak variabel terutama jumlah komposisi material penyusun yang dapat memengaruhi kuat tekan beton. Terdapat beberapa metode konvensional dalam memprediksi beton yang terkadang memberikan hasil prediksi lebih atau kurang dari kuat tekan yang ditargetkan. Diperlukan metode yang akurat dalam memprediksi kuat tekan beton agar dapat memberikan keuntungan secara signifikan terhadap penggunaan bahan. Oleh karena itu, penelitian ini menggunakan Deep Neural Network (DNN) sebagai subbidang dari Machine Learning (ML) dan Artificial Intelligence (AI), untuk memprediksi kuat tekan beton berdasarkan komposisi campuran dan properti materialnya. Penelitian ini menghasilkan formula matematika berupa persamaan yang dihasilkan dari model DNN terbaik dengan melihat aspek error model dan grafik model loss. Terdapat total 2048 model yang dianalisis dengan variasi jumlah variabel input (feature) yang berbeda-beda. Model 280 pada kasus 1 dan model 23 pada kasus 5 merupakan model terbaik yang dihasilkan penelitian ini, dengan masing-masing nilai error model 43,8028 dan 5778,5850 untuk Mean Squared Error (MSE) serta 5,0073 dan 59,8225 Maen Absolute Error (MAE).

Concrete mix design is a gradual and complex process of trying to find the best ingredient composition to produce the best performing concrete. The compressive strength of concrete is the most important property in concrete quality compared to other properties. In the manufacturing process, many variables, especially the amount of material composition, can affect the compressive strength of concrete. There are several conventional methods of predicting concrete that sometimes give predictive results more or less than the targeted compressive strength. An accurate method of predicting the compressive strength of concrete is needed in order to significantly benefit the use of materials. Therefore, this research utilizes Deep Neural Network (DNN), a subfield of Machine Learning (ML) and Artificial Intelligence (AI), to predict the compressive strength of concrete based on its mix composition and material properties. This research produces mathematical formulas in the form of equations generated from the best DNN model by looking at the aspects of model error and model loss graphs. There are a total of 2048 models analyzed with different variations in the number of input variables (features). Model 280 in case 1 and model 23 in case 5 are the best models produced by this study, with model error values of 43.8028 and 5778.5850 for Mean Squared Error (MSE) and 5.0073 and 59.8225 Maen Absolute Error (MAE), respectively.
"
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>