Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 87 dokumen yang sesuai dengan query
cover
Febtriany
Abstrak :
Saat ini kompetisi di industri telekomunikasi semakin ketat. Perusahaan telekomunikasi yang dapat tetap menghasilkan banyak keuntungan yaitu perusahaan yang mampu menarik dan mempertahankan pelanggan di pasar yang sangat kompetitif dan semakin jenuh. Hal ini menyebabkan perubahan strategi banyak perusahaan telekomunikasi dari strategi 'growth '(ekspansi) menjadi 'value added services'. Oleh karena itu, program mempertahankan pelanggan ('customer retention') saat ini menjadi bagian penting dari strategi perusahaan telekomunikasi. Program tersebut diharapkan dapat menekan 'churn' 'rate 'atau tingkat perpindahan pelanggan ke layanan/produk yang disediakan oleh perusahaan kompetitor. Program mempertahankan pelanggan ('customer retention') tersebut tentunya juga diimplementasikan oleh PT Telekomunikasi Indonesia, Tbk (Telkom) sebagai perusahaan telekomunikasi terbesar di Indonesia. Program tersebut diterapkan pada berbagai produk Telkom, salah satunya Indihome yang merupakan 'home services' berbasis 'subscriber' berupa layanan internet, telepon, dan TV interaktif. Melalui kajian ini, penulis akan menganalisa penyebab 'churn' pelanggan potensial produk Indihome tersebut, sehingga Telkom dapat meminimalisir angka 'churn' dengan melakukan program 'customer retention' melalui 'caring' yang tepat. Mengingat ukuran 'database' pelanggan Indihome yang sangat besar, penulis akan menganalisis data pelanggan tersebut menggunakan metoda 'Big Data Analytics'. 'Big Data' merupakan salah satu metode pengelolaan data yang sangat besar dengan pemetaan dan 'processing' data. Melalui berbagai bentuk 'output', implementasi 'big data' pada perusahaan akan memberikan 'value' yang lebih baik dalam pengambilan keputusan berbasis data. ...... Nowadays, telecommunication industry is very competitive. Telecommunication companies that can make a lot of profit is the one who can attract and retain customers in this highly competitive and increasingly saturated market. This causes change of the strategy of telecommunication companies from growth strategy toward value added services. Therefore, customer retention program is becoming very important in telecommunication companies strategy. This program hopefully can reduce churn rate or loss of potential customers due to the shift of customers to other similar products. Customer retention program also implemented by PT Telekomunikasi Indonesia, Tbk (Telkom) as the leading telecommunication company in Indonesia. Customer retention program implemented for many Telkom products, including Indihome, a home services based on subscriber which provide internet, phone, and interactive TV. Through this study, the authors will analyze the cause of churn potential customers Indihome product, so that Telkom can minimize the churn number by doing customer retention program through the efficient caring. Given by huge customer database the author will analyze using Big Data analytics method. Big Data is one method in data management that contain huge data, by mapping and data processing. Through various forms of output, big data implementation on the organization will provide better value in data-based decision making.
Depok: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2018
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Ferry Astika Saputra
Abstrak :

Ancaman keamanan cyber berupa aktivitas Botnet merupakan salah satu ancaman berbahaya yang dihadapi oleh komunitas internet. Para peneliti telah mengusulkan sistem deteksi intrusi (IDS) yang bekerja dengan menggunakan algoritma machine learning sebagai solusi alternatif dari IDS yang menggunakan metode signature dan metode anomali untuk mendeteksi aktivitas Botnet.

Permasalahan yang dihadapi adalah sulitnya membedakan antara trafik normal dengan trafik Botnet. Perlu adanya pemilihan fitur dari data set jaringan sehingga trafik Botnet dapat dideteksi dengan akurat. Dalam penelitian ini diusulkan metode baru yang meningkatkan kinerja IDS dalam mendeteksi Botnet. Metode yang diusulkan adalah dengan menggabungkan dua metode statistik yaitu low variance filter yang dikombinasikan dengan Pearson Correlation Filter yang selanjutnya disebut dengan  Hybrid Pearson Correlation Filter (HPCF) untuk diterapkan dalam tahap  pemilihan fitur. Pemilihan fitur dengan metode yang diajukan yaitu HPCF (Hybrid Pearson Correlation Filter) terbukti dapat meningkatkan efektifitas dan efisiensi dari IDS. Efektivitas diukur dengan menggunakan metrik performasi. Dari hasil eksperimen offline maupun reatime detection, DT lebih unggul dari tujuh model ML lainnya. Model DT-15 merupakan kombinasi terbaik dengan performasi diatas 95% untuk offline detection, 99% untuk Real-time detection.

Pemilihan fitur juga berpengaruh terhadap efisiensi yang diukur dari waktu komputasi pembelajaran mode dan waktu komputasi deteksi di jaringan sebenarnya. Model DT-15 merupakan kombinasi terbaik dengan rata-rata waktu 6,3 detik untuk pembelajaran model (offline detection) and 350 detik untuk waktu deteksi di jaringan sebenarnya (Real-time detection).

Tantangan untuk membuat arsitektur IDS yang dapat beradaptasi dengan  tekonologi komputasi awan juga menjadi topik dalam penelitian ini. Perubahan dinamis dalam arsitektur komputasi awan membutuhkan kemudahan dan fleksibilitas didistribusikan dan dikonfigurasi, dan sarana transportasi data yang paling andal ke defense center. Selain itu teknologi komputasi awan secara signifikan meningkatkan volume, kecepatan, dan variasi data yang harus diproses di pusat pertahanan. Ini berarti bahwa defense center membutuhkan teknologi big data. Snort adalah sistem deteksi dan pencegahan intrusi jaringan berbasis signature yang populer dan berpengaruh di komunitas Internet. Kekurangan dari Snort adalah keterbatasannya dalam menempatkan sensor dengan defense center yang harus terhubung dalam satau sama lain dalam satu jaringan. Hal ini bertolak belangkang dengan kebutuhan dari teknologi komputasi awan. Pada penelitian ini digunakan referensi arsitektur lambda. Dalam pengembangannya arsitektur terbagi menjadi tiga bagian: data source, data collecting dan data serving. Untuk data source dikembangkan aplikasi docker yang didalamnya terdapat aplikasi Snort IDS. Sedangkan untuk collecting data ddigunakan protokol MQTT sebagai saluran pengirimannya. MQTT lebih unggul dalam kemampuan pengirimanya dengan message rate 12 kali lebih besar dan latensi 62 kali lebih rendah dibandingkan dengan protokol Kafka Pub/Sub. Secara keseluruhan penelitian menghasilkan arsitektur baru big data penerapan sistem deteksi intrusi jaringan berbasis Snort di lingkungan komputasi awan.  Aplikasi NIDS Snort yang dibangun dengan merujuk dari arsitektur yang telah dibangun dapat diakses di https://github.com/Mata-Elang-Stable/MataElang-Platform/wiki. ......

Cyber security threats in the form of botnet activities are one of the dangerous threats faced by the internet community. Researchers have proposed an intrusion detection system (IDS) that works using machine learning algorithms as an alternative solution to IDS that uses signature and anomaly methods to detect botnet activity.

The problem faced is the difficulty of distinguishing between normal traffic and Botnet traffic. There needs to be a selection feature from the network data set to detect Botnet traffic accurately. This study proposes a new method to improve IDS performance in detecting botnets. The proposed method combines two statistical methods, namely the low variance filter and the Pearson Correlation Filter, referred to as the Hybrid Pearson Correlation Filter (HPCF), to be applied in the feature selection stage. Feature selection with the proposed method, namely HPCF (Hybrid Pearson Correlation Filter), is proven to increase the effectiveness and efficiency of IDS. Effectiveness is measured using performance metrics. From the results of offline and real-time detection experiments, DT is superior to the other seven ML models. The DT-15 model is the best combination, with over 95% performance for offline detection and 99% for real-time detection.

The selection of features also affects the efficiency measured by the computational time of mode learning and the computational time of detection in the real network. The DT-15 model is the best combination, with an average time of 6.3 seconds for the learning model (offline detection) and 350 seconds for detecting in the real network (real-time detection).

Developing an IDS architecture that can adapt to cloud computing technology is also a topic in this research. Dynamic changes in cloud architecture require the flexibility of configuring and the most reliable means of data transportation for the defense center. In addition, cloud computing significantly increases the volume, speed, and variety of data that must be centralized in the defense center. So this means that the defense center needs big data technology. Snort is a signature-based network intrusion detection and prevention system that is popular and influential in the Internet community. The drawback of Snort is its limitation in placing sensors with central defenses that must be connected to a single network, which is contrary to the needs of cloud computing technology.

In this study,  we refer to lambda architecture, which consists of three parts: data source, data collecting and serving. A docker application for the data source is developed, including the Snort IDS application. Meanwhile, the MQTT protocol is used as the delivery channel for collecting data. MQTT is superior in its delivery capabilities, with a message rate of 12 times more significant and latency 62 times lower than the Kafka Pub/Sub protocol. Overall, the research resulted in a new big data architecture for implementing a Snort-based network intrusion detection system in a cloud computing environment. Our proposed design and implementation can be accessed at https://github.com/Mata-Elang-Stable/MataElang-Platform/wiki.

Depok: Fakultas Teknik Universitas Indonesia, 2022
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Ishmah Naqiyya
Abstrak :
Perkembangan teknologi informasi dan internet dalam berbagai sektor kehidupan menyebabkan terjadinya peningkatan pertumbuhan data di dunia. Pertumbuhan data yang berjumlah besar ini memunculkan istilah baru yaitu Big Data. Karakteristik yang membedakan Big Data dengan data konvensional biasa adalah bahwa Big Data memiliki karakteristik volume, velocity, variety, value, dan veracity. Kehadiran Big Data dimanfaatkan oleh berbagai pihak melalui Big Data Analytics, contohnya Pelaku Usaha untuk meningkatkan kegiatan usahanya dalam hal memberikan insight yang lebih luas dan dalam. Namun potensi yang diberikan oleh Big Data ini juga memiliki risiko penggunaan yaitu pelanggaran privasi dan data pribadi seseorang. Risiko ini tercermin dari kasus penyalahgunaan data pribadi Pengguna Facebook oleh Cambridge Analytica yang berkaitan dengan 87 juta data Pengguna. Oleh karena itu perlu diketahui ketentuan perlindungan privasi dan data pribadi di Indonesia dan yang diatur dalam General Data Protection Regulation (GDPR) dan diaplikasikan dalam Big Data Analytics, serta penyelesaian kasus Cambridge Analytica-Facebook. Penelitian ini menggunakan metode yuridis normatif yang bersumber dari studi kepustakaan. Dalam Penelitian ini ditemukan bahwa perlindungan privasi dan data pribadi di Indonesia masih bersifat parsial dan sektoral berbeda dengan GDPR yang telah mengatur secara khusus dalam satu ketentuan. Big Data Analytics juga memiliki beberapa implikasi dengan prinsip perlindungan privasi dan data pribadi yang berlaku. Indonesia disarankan untuk segera mengesahkan ketentuan perlindungan privasi dan data pribadi khusus yang sampai saat ini masih berupa rancangan undang-undang.
The development of information technology and the internet in various sectors of life has led to an increase in data growth in the world. This huge amount of data growth gave rise to a new term, Big Data. The characteristic that distinguishes Big Data from conventional data is that Big Data has the characteristic of volume, velocity, variety, value, and veracity. The presence of Big Data is utilized by various parties through Big Data Analytics, for example for Corporation to incurease their business activities in terms of providing broader and deeper insight. But this potential provided by Big Data also comes with risks, which is violation of one's privacy and personal data. One of the most scandalous case of abuse of personal data is Cambridge Analytica-Facebook relating to 87 millions user data. Therefor it is necessary to know the provisions of privacy and personal data protection in Indonesia and which are regulated in the General Data Protection (GDPR) and how it applied in Big Data Analytics, as well as the settlement of the Cambridge Analytica-Facebook case. This study uses normative juridical methods sourced from library studies. In this study, it was found that the protection of privacy and personal data in Indonesia is still partial and sectoral which is different from GDPR that has specifically regulated in one bill. Big Data Analytics also has several implications with applicable privacy and personal data protection principles. Indonesia is advised to immediately ratify the provisions on protection of privacy and personal data which is now is still in the form of a RUU.
Depok: Fakultas Hukum Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Loshin, David, 1963-
Abstrak :

ABSTRACT
Big Data Analytics" will assist managers in providing an overview of the drivers for introducing big data technology into the organization and for understanding the types of business problems best suited to big data analytics solutions, understanding the value drivers and benefits, strategic planning, developing a pilot, and eventually planning to integrate back into production within the enterprise.
Amsterdam: Morgan Kaufmann, 2013
658.472 LOS b
Buku Teks  Universitas Indonesia Library
cover
Abstrak :
This book highlights the state of the art and recent advances in Big Data clustering methods and their innovative applications in contemporary AI-driven systems. The book chapters discuss Deep Learning for Clustering, Blockchain data clustering, Cybersecurity applications such as insider threat detection, scalable distributed clustering methods for massive volumes of data; clustering Big Data Streams such as streams generated by the confluence of Internet of Things, digital and mobile health, human-robot interaction, and social networks; Spark-based Big Data clustering using Particle Swarm Optimization; and Tensor-based clustering for Web graphs, sensor streams, and social networks. The chapters in the book include a balanced coverage of big data clustering theory, methods, tools, frameworks, applications, representation, visualization, and clustering validation.
Switzerland: Springer Nature, 2019
e20507207
eBooks  Universitas Indonesia Library
cover
Diyanatul Husna
Abstrak :
ABSTRAK
Apache Hadoop merupakan framework open source yang mengimplementasikan MapReduce yang memiliki sifat scalable, reliable, dan fault tolerant. Scheduling merupakan proses penting dalam Hadoop MapReduce. Hal ini dikarenakan scheduler bertanggung jawab untuk mengalokasikan sumber daya untuk berbagai aplikasi yang berjalan berdasarkan kapasitas sumber daya, antrian, pekerjaan yang dijalankan, dan banyaknya pengguna. Pada penelitian ini dilakukan analisis terhadapap Capacity Scheduler dan Fair Scheduler. Pada saat Hadoop framework diberikan 1 pekerjaan dengan ukuran data set 1,03 GB dalam satu waktu. Waiting time yang dibutuhkan Capacity Scheduler dan Fair Scheduler adalah sama. Run time yang dibutuhkan Capacity Scheduler lebih cepat 6% dibandingkan Fair Scheduler pada single node. Sedangkan pada multi node Fair Scheduler lebih cepat 11% dibandingkan Capacity Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set (1,03 GB ) yang sama dalam satu waktu. Waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 87% lebih cepat pada single node dan 177% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 55% lebih cepat pada single node dan 212% lebih cepat pada multi node. Turnaround time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 4% lebih cepat pada single node, sedangkan pada multi node Capacity Scheduler lebih cepat 58% dibandingkan Fair Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set yang berbeda dalam satu waktu yaitu data set 1 (456 MB), data set 2 (726 MB), dan data set 3 (1,03 GB) dijalankan secara bersamaan. Pada data set 3 (1,03 GB), waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 44% lebih cepat pada single node dan 1150% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 56% lebih cepat pada single node dan 38% lebih cepat pada multi node. Turnaround time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 12% lebih cepat pada single node, sedangkan pada multi node Fair Scheduler lebih cepat 25,5% dibandingkan Capacity Scheduler
ABSTRACT
Apache Hadoop is an open source framework that implements MapReduce. It is scalable, reliable, and fault tolerant. Scheduling is an essential process in Hadoop MapReduce. It is because scheduling has responsibility to allocate resources for running applications based on resource capacity, queue, running tasks, and the number of user. This research will focus on analyzing Capacity Scheduler and Fair Scheduler. When hadoop framework is running single task. Capacity Scheduler and Fair Scheduler have the same waiting time. In data set 3 (1,03 GB), Capacity Scheduler needs faster run time than Fair Scheduler which is 6% faster in single node. While in multi node, Fair Scheduler is 11% faster than Capacity Scheduler. When hadoop framework is running 3 tasks simultaneously with the same data set (1,03 GB) at one time. Fair Scheduler needs faster waiting time than Capacity Scheduler which is 87% faster in single node and 177% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 55% faster in single node and 212% faster in multi node. Fair Scheduler needs faster turnaround time than Capacity Scheduler which is 4% faster in single node, while in multi node Capacity Scheduler is 58% faster than Fair Scheduler. When hadoop framework is running 3 tasks simultaneously with different data set, which is data set 1 (456 MB), data set 2 (726 MB), and data set 3 (1,03 GB) in one time. In data set 3 (1,03 GB), Fair Scheduler needs faster waiting time than Capacity Scheduler which is 44% faster in single node and 1150% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 56% faster in single node and 38% faster in multi node. Capacity Scheduler needs faster turnaround time than Fair Scheduler which is 12% faster in single node, while in multi node Fair Scheduler is 25,5% faster than Capacity Scheduler
2016
T45854
UI - Tesis Membership  Universitas Indonesia Library
cover
Nico Juanto
Abstrak :
E-commerce dan big data merupakan bukti dari kemajuan teknologi yang sangat pesat. Big data berperan cukup penting dalam perusahaan e-commerce untuk menangani perkembangan semua data, mengolah setiap data tersebut dan menjadi competitive advantage bagi perusahaan. Perusahaan XYZ.com mengalami kesulitan dalam menganalisis stok dan tren dari produk yang dijual. Jika hal ini tidak ditanggulangi, maka perusahaan XYZ.com akan kehilangan opportunity gain. Untuk menentukan tren dan stok produk secara cepat dengan akurat, dibutuhkan big data predictive analysis. Penelitian ini mengolah data transaksi menjadi data yang dapat dianalisis untuk menentukan tren dan prediksi tren produk berdasarkan kategorinya dengan menggunakan big data predictive analysis. Hasil dari penelitian ini akan memberikan informasi kepada pihak manajemen kategori apa yang berpotensi menjadi tren dan jumlah minimal stok yang harus disediakan dari kategori produk tersebut.
E commerce and big data are evidence of rapid technological advances. Big data plays an important role in e commerce companies to handle and analyze all data changes, and become a competitive advantage for the company. XYZ.com experience a difficulty in analyzing stocks and commerce product trend. If this issue not addressed, XYZ.com company will lose an opportunity gain. To determine trends and stock accurately, XYZ.com can use big data predictive analysis. This study processes transaction data into data that can be analyzed to determine trends and predictions of product trends based on its categories using big data predictive analysis. The results of this study give massive informations to management about what categories will potential become trends and minimum stock required to be provided.
Depok: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2017
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Karina Chandra Dewi
Abstrak :
Klaim asuransi merupakan salah satu elemen penting dalam bidang jasa asuransi. Klaim severity mengacu pada besarnya dana yang harus dikeluarkan untuk memperbaiki kerusakan yang terjadi. Besarnya klaim asuransi dipengaruhi oleh banyak faktor. Hal ini menyebabkan volume data menjadi sangat besar. Sehingga diperlukan suatu metode yang tepat dalam memprediksi besarnya klaim severity untuk data besar. Salah satu metode yang dapat digunakan untuk menyelesaikan permasalahan tersebut yaitu Random Forest yang merupakan salah satu metode machine learning. Tesis ini mengaplikasikan model Random Forest untuk menyelesaikan masalah prediksi besarnya klaim severity pada asuransi mobil serta menganalisis pengaruh jumlah fitur yang digunakan pada model Random Forest terhadap akurasi model sebagai alternatif solusi terkait Big Data. Hasil simulasi menunjukkan bahwa model Random Forest dapat diterapkan pada kasus prediksi klaim severity yang merupakan kasus regresi dalam konteks machine learning. Dengan menggunakan 1⁄3 dari keseluruhan fitur yang ada, model Random Forest dapat menghasilkan akurasi yang setara dengan akurasi yang diperoleh ketika menggunakan seluruh fitur dalam membangun model, yaitu sekitar 99%. Hasil ini menunjukkan skalabilitas yang baik dari Random Forest terutama ditinjau dari jumlah fitur. Sehingga, model Random Forest dapat digunakan sebagai solusi untuk masalah Big Data terkait volume data.
The insurance claim is one of the important elements in the field of insurance services. Claim severity refers to the amount of fund that must be spent to repair the damage. The amount of insurance claim is influenced by many factors. This causes the volume of data to be very large. Therefore, a suitable method is required. Random Forest, one of the machine learning methods can be implemented to handle this problem. This thesis applies the Random Forest model to predict the amount of this claim severity on car insurance. Furthermore, analysis on the effect of the number of features used on model accuracy is conducted. The simulation result show that the Random Forest model can be applied in cases of prediction of claim severity which is a case of regression in the context of machine learning. Only by using 1⁄3 of the overall features, the accuracy of Random Forest model can produce accuracy that is comparable to that obtained when using all features, which is around 99%. This result confirms the scalability of Random Forest, especially in terms of the number of features. Hence, Random Forest model can be used as a solution to Big Data problems related to data volume.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
T54306
UI - Tesis Membership  Universitas Indonesia Library
cover
Eka Kurnia Sari
Abstrak :
Perkembangan sistem teknologi telekomunikasi yang semakin canggih dan kompleks memicu meningkatnya kegagalan ataupun kesalahan sistem dalam sistem jaringan utama dan sistem pendukung layanan telekomunikasi, serta kesalahan yang terjadi pada bisnis proses dan sumber daya manusia yang terkait. Kegagalan dan kesalahan ini menyembabkan kerugian yang ditanggung perusahaan, kerugian yang ditimbulkan dengan istilah revenue leakage atau kebocoran pendapatan. Revenue Assurance memegang peranan penting dalam pengendalian terhadap resiko revenue leakage dengan membuat kontrol dalam mendeteksi dan mencegah terjadinya kebocoran agar mampu meminimalkan biaya dan memaksimalkan potensi pendapatan. Dalam tesis ini dikembangkan metode untuk menganalisis Big data CDR untuk mengoptimalkan proses analisis pada revenue assurance control dengan menggunakan algoritma K-means Clustering. Algortima ini mengelompokkan obyek pengamatan dalam beberapa kategori yang diindikasikan sebagai titik kebocoran. Hasil kelompok yang dihasilkan dengan kategori yang beresiko tinggi memiliki anggota yang sedikit dengan tingkat nilai evaluasi akurasi cluster, R-Squared, sekitar 90%. ......In the telco industry, Revenue Assurance plays an important role to assure the company revenue from leakage. the revenue chain is established across the process and whole sophisticated system that technologically complex to provide the unstoppable services. This case increasing the probability of system or process failure leads to the leakage. Hence necessary the revenue assurance control to detect and prevent it then it can help to minimize cost and maximize revenue. In this thesis, developed the analysis method in big data CDR to optimize analysis process at revenue assurance control using K-means Clustering algorithm. The use of the K-means clustering algorithm method able to group the object areas with high risk indications of leakage. The cluster result of high risk of leakage is having low amount of member, and the cluster evaluation result of R-Squared giving the good value about 90%.
Depok: Fakultas Teknik Universitas Indonesia, 2021
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Balqis Az Zahra
Abstrak :
Memprediksi niat kunjungan kembali memainkan peran penting dalam kebangkitan kembali waktu pandemi yang akan menguntungkan keunggulan kompetitif jangka pendek dan jangka panjang. Penelitian ini mengkaji faktor-faktor penentu niat berkunjung kembali dari analisis sentimen berbasis aspek dan pembelajaran mesin. Pendekatan big data diterapkan pada empat set data atraksi, hotel bintang 4&5, hotel bintang 3, dan motel dengan 49.399 ulasan dari TripAdvisor. Kami menerapkan metode pemodelan topik untuk mengekstrak aspek dan atribut, menghasilkan 10 aspek untuk kategorisasi hotel 4&5 dan kumpulan data atraksi, 6 aspek pada kumpulan data hotel bintang 3 dan Motel. Hasil analisis sentimen menunjukkan bahwa sentimen wisatawan secara positif dan negatif juga mempengaruhi kemungkinan niat berkunjung kembali. Peneliti menerapkan metode Logistic Regression, Random Forest Classifier, Decision Tree, k-NN, dan XGBoost untuk memprediksi niat berkunjung kembali yang menghasilkan tiga topik utama yang mendominasi probabilitas niat berkunjung kembali untuk masing-masing dataset. Aspek Properti pada hotel bintang 4&5 dan hotel bintang 3 mengindikasikan memiliki kemungkinan tinggi untuk niat berkunjung kembali. Sedangkan aspek Motels pada Atmosfir, Aktivitas Wisata, dan Durasi cenderung memiliki probabilitas niat berkunjung kembali. Aspek atraksi pada Harga, Layanan, Suasana meningkatkan kemungkinan niat berkunjung kembali. Studi ini berkontribusi pada pemanfaatan data besar dan pembelajaran mesin di industri pariwisata dan perhotelan dengan berfokus pada strategi inovatif sebagai pengurangan biaya untuk mempertahankan niat kunjungan kembali di kebangkitan kembali dari pandemi. ......Predicting revisit intention plays a crucial role in the reawakening time of pandemic that will benefit short-term and long-term competitive advantage. This study examines the determiner factors of revisit intention from aspect-based sentiment analysis and machine learning. A big data approach was applied on four datasets of attractions, hotel 4&5 stars, hotel 3 stars, and motels with 49,399 reviews from TripAdvisor. We applied a topic modeling method to extract aspects and attributes, resulting in 10 aspects for hotel 4&5 categorization and attractions dataset, 6 aspects on hotel 3 stars and Motels dataset. Results on sentiment analysis show that tourists’ sentiment in positives and negatives also affect probability of revisit intention. Researchers applied methods of Logistic Regression, Random Forest Classifier, Decision Tree, k-NN, andXGBoost to predict revisit intention resulting in three main topics that have dominated probability on revisit intention for each dataset respectively. Aspect Properties on hotels 4&5 stars and hotel 3 stars indicate to have a high probability of revisit intention. Meanwhile, Motels' aspects on Atmosphere, Tourist Activities, and Duration tend to have a probability of revisit intention. Attraction’s aspects on Price, Services, Ambience increase probability of revisit intention. This study contributes to the utilization of big data and machine learning in tourism and hospitality industry by focusing on an innovative strategy as cost reduction to maintain revisit intention in the reawakening from pandemic.
Depok: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9   >>