Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 8 dokumen yang sesuai dengan query
cover
Sangeeta Gupta
"The massive amounts of data collected from numerous sources like social media, e-commerce websites are a challenging aspect for analysis using the available storage technologies. Relational databases are a traditional approach of data storage more suitable for structured data formats and are constrained by Atomicity, Consistency, Isolation, and Durability (ACID) properties. In the modern world, data in the form of word documents, pdf files, audio and video formats are unstructured. Therefore, tables and schema definition are not a major concern, Relational databases, such as Mysql, may not be suitable to serve such Bigdata. An alternate approach is to use the emerging Nosql databases. In this work, a comprehensive performance and scalability evaluation of large web collection data in data stores, such as Nosql-Cassandra and relational-Mysql, is presented. These systems are evaluated with data and workloads that can be found related to Bigdata, yielding scalability of applications. The insights presented in this work serve not only for performance and scalability, but also as lessons learned and experiences relating to the configuration complexity and evaluation in sorting out the complex queries of what data storage can be used on which usage cases for large data sets. The results show how the Bigdata collected across the Web with billions of records generating continuously are poorly evaluated with Mysql in terms of ‘write’ operations, but how these perform well with Nosql-Cassandra. This paper yields a new approach which is unique in representing Nosql-Cassandra’s poor performance in retrieval of records and disk utilisation with ever-increasing loads. The results presented in this paper show an improvement in ‘read’ performance with the proposed architecture and configuration over Mysql, achieving cost saving benefits to any organisation willing to use Nosql-Cassandra for managing Bigdata for heavy loads."
Depok: Faculty of Engineering, Universitas Indonesia, 2015
UI-IJTECH 6:4 (2015)
Artikel Jurnal  Universitas Indonesia Library
cover
Bahy Helmi Hartoyo Putra
"PT Nusa Satu Inti Artha atau lebih dikenal dengan DOKU merupakan salah satu perusahaan fintech yang bergerak di sektor pembayaran. DOKU telah digunakan oleh lebih dari 100.000 merchant online dalam kedua layanannya, yaitu payment gateway dan transfer service. Semakin banyaknya merchant yang melakukan registrasi, menuntut DOKU untuk lebih efisien dalam menjalankan salah satu tahapan pada proses registrasi tersebut, yaitu verifikasi situs merchant. Penilitian ini memiliki tujuan untuk mengem- bangkan sebuah aplikasi web crawler yang dapat digunakan untuk melakukan ekstraksi kelengkapan data situs merchant dan melakukan prediksi tingkatan fraud situs tersebut secara otomatis. Web crawler dibuat menggunakan micro web framework bernama Flask dan berisi modul-modul yang dapat melakukan ekstraksi fitur-fitur untuk kemudian dilakukan scoring menggunakan model machine learning yang diimplementasi di dalamnya. Pemilihan model dilakukan dengan cara melakukan nested cross-validation terhadap empat jenis classifier, yaitu Decision Tree Classifier, Random Forest Classifier, Extreme Gradient Boost Classifier, dan Bernoulli Naive Bayes Classifier. Hasil analisis menunjukkan bahwa Bernoulli Naive Bayes Classifier memiliki hasil performa terbaik, sehingga classifier ini juga yang akan diimplementasikan pada web crawler. Hasil dari pengembangan web crawler menunjukkan bahwa efisiensi waktu proses verifikasi dapat ditingkatkan sebesar 4900% dengan AUC sebesar 0.953 dan recall sebesar 0.864.
......PT Nusa Satu Inti Artha or better known as DOKU is one of the fintech companies engaged in the payment sector. DOKU has been used by more than 100,000 online mer- chants in its two services, namely payment gateway and transfer service. More and more merchants are registering, demanding DOKU to be more efficient in carrying out one of the stages in the registration process, namely merchant site verification. This research aims to develop a web crawler application that can be used to extract the the merchant site data and to predict the fraud level of the site automatically. Web crawler is created using a micro web framework named Flask and contains modules that can extract features to then do scoring using the machine learning model implemented in it. Model selection is done by doing nested cross-validation of four types of classifier namely Decision Tree Classifier, Random Forest Classifier, Extreme Gradient Boost Classifier, and Bernoulli Naive Bayes Classifier. The analysis shows that the Bernoulli Naive Bayes Classifier has the best performance results, so this classifier will be the one that implemented on the web crawler. The results of the development of web crawler show that the efficiency of the verification process can be increased by 4900% with AUC of 0.953 and recall of 0.864."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Wongkar, Enggelin Giacinta
"With the vast development of data to become informations on the Internet, everything online seems to explode at a rapid rate. These informations, including online news which is created as a complement to the original printed media, has even overtaken the latter. Subdirectorate of Household National Account and Non-profit Institution of Statistics Indonesia is in charge for the work of media research. In the process of media research, time and human resources are two important elements but yet having problem of ineffective and inefficient process. This study aimed to overcome that problem by developing a web crawler system that could do summarization automatically from online news sites (currently from Bisnis and Kontan) with output in Microsoft Word format file and minimizing number of similar news. This system is developed using several techniques in information technologies such as crawling and wrapping method and cosine similarity method to minimalize similar news. The result shows the process of media research by using this system much more effective and efficient."
Jakarta: Sekolah Tinggi Ilmu Statistik (STIS-Statistics Institute Jakarta, 2014
JASKS 6:2 (2014)
Artikel Jurnal  Universitas Indonesia Library
cover
Situmorang, Sandhy Putra Sanjaya
"Abstrak Berbahasa Indonesia/Berbahasa Lain (Selain Bahasa Inggris):
Metode pelaksanaan konstruksi merupakan kunci untuk mewujudkan seluruh perencanaan menjadi bentuk bangunan fisik. Kebutuhan untuk menghadirkan wujud fisik bangunan dengan seefisien mungkin adalah tuntutan yang harus dapat dijawab oleh para pelaku dunia konstruksi. Proyek pembangunan rangka atap stasiun Halim Kereta Cepat Jakarta Bandung (KCJB), memiliki bentuk geometri rangka atap yang bergelombang dengan tingkat kepresisian pemasangan yang tinggi dan dengan schedule yang singkat. Dengan kompleksitas pekerjaan seperti itu, maka perlu dilakukan suatu pemilihan metode kerja yang efektif dan efisien. Pada penulisan laporan ini, akan dibahas suatu pemilihan metode pemasangan rangka atap yaitu metode pemasangan dengan crawler crane dan metode konvensional dengan temporary support. Usulan metode tersebut merupakan hasil studi banding dan penelitian di lapangan yang dilakukan untuk penulisan laporan ini. Hasil tersebut berdasarkan variabel waktu pelaksanaan dan biaya pemasangan. Hasil penelitian menunjukkan penggunaan pilihan metode pemasangan rangka atap dengan menggunakan crawler crane lebih efektif dan efisien dalam segi waktu pelaksanaan dan biaya pemasangan.
......The construction implementation method is the key to realizing the entire plan into a physical building form. The need to present the physical form of a building as efficiently as possible is a demand that must be answered by actors in the construction world. The roof truss construction project for the Halim Station High Speed Rail Jakarta Bandung Project (KCJB), has a corrugated roof truss geometric shape with a high level of installation precision and with a short schedule. With such a complexity of work, it is necessary to select an effective and efficient work method. In writing this report, a selection of roof truss installation methods will be discussed, namely the installation method with crawler cranes and the conventional method with temporary support. The proposed method is the result of a comparative study and field research conducted for the writing of this report. These results are based on the variables of implementation time and installation costs. The results showed that the use of the choice of roof truss installation method using a crawler crane was more effective and efficient in terms of implementation time and installation costs."
Depok: Fakultas Teknik Universitas Indonesia, 2023
PR-PDF
UI - Tugas Akhir  Universitas Indonesia Library
cover
Tiara Shinta Raharkandi
"Proses pemeliharaan adalah suatu kegiatan yang mengacu pada serangkaian proses dan praktik yang bertujuan untuk memastikan pengoperasian mesin, peralatan, dan jenis aset lainnya yang berkelanjutan dan efisien yang biasanya digunakan dalam bisnis. Reliability, Availability, Maintainability sebagai tujuan utama dilakukan proses pemeliharaan. Penelitian ini bertujuan untuk mendapatkan Sistem Kritis pada Crawler Crane akan ditentukan menggunakan Diagram Pareto. Lalu dibuatlah Diagram Blok untuk membantu melakukan analisis. Analisis Kualitatif menggunakan Failure Mode Effect Analysis (FMEA) untuk mendapatkan rekomendasi pemeliharaan dan Analisis Kuantitatif menggunakan Analisis Kehandalan dan Overall Equipment Effectiveness–Machine Effectiveness untuk mendapatkan interval yang optimal dari pemeliharaan Crawler Crane guna meningkatkan Maintenance Performance Level. Jadi, perbedaan dari Ketersediaan saat ini dibandingkan dengan M (120) terdapat kenaikan data ketersediaan pada komponen LS (Lower Structure) yaitu 0.48%, ESE (Electrical Safety Equipment) yaitu 0.57%, US (Upper System) yaitu 0.95% dan Ketersediaan Sistem yaitu 0.66%. Dalam penelitian ini, kinerja keseluruhan alat Crawler Crane belum diperhatikan, dan evaluasi kinerja hanya berdasarkan perhitungan ketersediaan dan penggunaan. Penelitian selanjutnya sebaiknya mencakup pengukuran Key Performance Indicator (KPI) dengan Maintenance Performance Level (MPL).
......The maintenance process is an activity refers to a set of processes and practices which aim to ensure the continuous and efficient operation of machinery, equipment, and other types of assets typically used in business. Reliability, Availability, Maintainability as the main objectives of the maintenance process. This study aims to obtain Crawler Crane Maintenance with the Reliability Analysis Method and OEE-ME (Overall Equipment Effectiveness-Machine Effectiveness) to increase Maintenance Performance Level (MPL). Critical System on Crawler Crane will be determined using Pareto Diagram. Then a Block Diagram is made to help carry out the analysis. Qualitative Analysis with Failure Mode Effect Analysis (FMEA) will determine the maintenance recommendations and Quantitative Analysis with Reliability Analysis and Overall Equipment Effectiveness-Machine Effectiveness to obtain optimal intervals for Crawler Crane maintenance to increase Maintenance Performance Level. Thus, the difference obtained from Current Availability compared to M (120) is that there is an increase in Availability for LS (Lower Structure) obtained a value of 0.48%, ESE (Electrical Safety Equipment) obtained a value of 0.57%, US (Upper System) obtained a value of 0.95% and Availability System of 0.66%. In this study, the overall performance of the Crawler Crane has not been considered, and performance evaluation is only based on availability and usage calculations. Future research should include measuring key performance indicators (KPI) with Maintenance Performance Level (MPL)."
Jakarta: Fakultas Teknik Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Endi Djuardi
"ABSTRAK
Dalam perhitungan harga sewa unit Crawler Crane Kobelco BM-500 ini, langkah awal yang dilakulam adalah mengidentifi.kasi elemen-elemen biaya yang muncul selama masa usia perbitungan (usia ekonomis). Elemen-elemen ini dapat dikategorikan menjadi dua kategori yaitu biaya kepemilikan den biaya operasional. Biaya depresiasi, biaya bunga (bak atas bunga), biaya asuransi, den biaya pajak diidentifikasikan kedalam biaya kepemilikan. Biaya bahan-bakar, biaya bahan pelumas, biaya filter, biaya wire rope, biaya perbaikan, biaya perizinan operasi, den biaya upah operator diidentifikasikan kedalam biaya operasional. Biaya bahan-bakar dalam kasus ini tidak diperhitungkan karena akan disediakan langsung oleh penyewa (proyek).
Sebagai sebuah perusahaan yang memerlukan biaya operasional dalam menjalankan usahanya, maka perlu ditambahkan biaya untuk mendukung operasional perusahaan ini ke dalam elemen harga sewa sebagai biaya tidak langsung atau disebut biaya over head. Sehubungan alat ini disewakan kepada pibak proyek dilingkungan perusaliaan sendiri, maka tidak dilakulam mark-up untuk mencari keuntungan/profit.
Dengan menghitung elemen-elemen biaya kepemilikan, biaya operasional dan biaya over head dalam satuan jam, maka penjumlahan dari ketiga biaya ini akan menghasilkan harga sewa alat per jamnya yang akan dikenakan kepada penyewa(proyek pemakai).
dari perhitungan elemen-elemen biaya di atas sebagai hasil akhir diperoleh harga sewa unit Crawler Crane Kobelco BM-500 untuk tahun 2000 adalah sebesar Rp. 237.750,- per jam. Perhitungan ini dilakukan pada tahun ketiga kepemilikan alat, dengan umur ekonomis lima tahun maka sisa umur ekonomisnya dua tahun.

"
2000
S37651
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Suryo Wicaksono
"Dalam dunia industri maritim saat ini, galangan reparasi kapal berperan penting dalam menjaga efisiensi dan keamanan operasional kapal. Dalam proses reparasi, berbagai jenis alat berat seperti crawler crane kerap digunakan untuk memfasilitasi pemindahan komponen besar serta material. Tujuan dari penelitian ini yaitu mengidentifikasi potensi risiko kecelakaan kerja tinggi dan tindakan preventifnya dari kegiatan pengoperasian crawler crane di galangan reparasi kapal. Failure Mode and Effect Analysis (FMEA) adalah metode efektif yang dapat digunakan untuk mengidentifikasi dan memitigasi potensi kegagalan dalam sistem atau proses. Pada analisis penelitian ini terdapat 6 kegiatan pengoperasian crawler crane yang berpotensi risiko kecelakaan kerja. Selanjutnya didapat potensi risiko bahaya yang tinggi pada kegiatan pengangkatan sistem kemudi dan sistem propulsi yang memilliki  mode kegagalan yaitu tertabrak as yang memiliki risiko terhadap keselamatan pekerja di galangan. Selanjutnya ditentukan tindakan preventifnya untuk mengurangi risiko kecelakaan kerjanya.
......In today's maritime industry, ship repair yards play a crucial role in maintaining the efficiency and safety of ship operations. In the repair process, various types of heavy equipment such as crawler cranes are often used to facilitate the movement of large components and materials. The purpose of this research is to identify potential high-risk occupational hazards and preventive measures in the operation of crawler cranes in ship repair yards. Failure Mode and Effect Analysis (FMEA) is an effective methods that can be used to identify and mitigated possibility of failure mode in a system or process. In the analysis of this study, there are six crawler crane operations that pose a risk of occupational accidents. Further, it identifies high potential hazard risks in the activities of lifting the steering system and propulsion system, which have failure modes collision with the shaft, both of which pose risks to worker safety in the yard. Subsequently, preventive measures are determined to reduce the risk of occupational accidents."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Pratama Amirullisan
"Kebutuhan terhadap Internet sudah sangat dirasakan, namun, akibat kurangnya kontrol dalam mengawasi kegiatan berselancar di dunia maya ini, menjadikan konten yang dapat merusak moral tersebar dengan sangat cepat dan begitu leluasa untuk diakses oleh setiap orang.
Penelitian ini membahas Analisa dan Rancang Bangun Sistem Deteksi Cepat Konten Web Negatif Berbasis Teks Menggunakan Random Sampling dan Latent Semantic Analysis dengan Algoritma Singular Value Decomposition yang bertujuan untuk mengklasifikasikan website-website berkonten negatif dengan langkah awal melakukan penelusuran terhadap link-link pada suatu website dengan teknik crawling oleh program web crawler untuk mengumpulkan konten website yang berupa teks. Seluruh konten teks yang telah dikumpulkan selanjutnya akan diklasifikasikan menggunakan metode Latent Semantic Analysis dengan menerapkan algoritma Singular Value Decomposition untuk menunjukkan hasil klasifikasi yang mampu membedakan antara website berkonten negatif dengan konten non-negatif. Pengujian dilakukan dengan menggunakan metode full sampling dan random sampling untuk menentukan cara pendeteksian website berkonten negatif yang lebih cepat.
Hasil pengujian pada penelitian ini menunjukkan bahwa metode Latent Semantic Analysis dengan algoritma Singular Value Decomposition berhasil mengklasifikasikan website berkonten negatif dengan batas persentase hasil klasifikasi sebesar 70% sebagai indikatornya, dan metode random sampling dengan pengambilan sample hanya 30% dari total telah berhasil meningkatkan kecepatan eksekusi program rata-rata sebesar 507.01%, dengan penurunan akurasi rata-rata hanya sebesar 27.19% dibandingkan dengan metode full sampling untuk website berkonten negatif.
......
The need of the Internet has been keenly felt, however, due to a lack of control in monitoring the activities of surfing in this virtual world, making contents that will damage the morale spread very quickly and so freely accessible to everyone.
This study discusses the Analysis and Design of Quick Detection System to Text-Based Negative Web Content Using Random Sampling and Latent Semantic Analysis with Singular Value Decomposition Algorithm which aims to classify negative content websites with the first step is to perform a search for links in a website using crawling technique by a web crawler program to gather website content in the text form. The entire text-based contents that have been collected will then be classified using Latent Semantic Analysis method by applying Singular Value Decomposition algorithm to show the result of classification that is able to distinguish the negative content and non-negative content website. The testing is performed using full sampling and random sampling method to determine which one is faster in doing the detection of negative content website.
The results of this study showed that Latent Semantic Analysis method with Singular Value Decomposition algorithm successfully classifies the negative content websites with the percentage of classification result by 70% as the indicator, and the random sampling method with only 30% of total samples has been successful in increasing the speed of program execution by an average of 507.01%, with decreasing accuracy by an average of only 27.19% compared to full sampling method for negative content websites."
Depok: Fakultas Teknik Universitas Indonesia, 2016
S66330
UI - Skripsi Membership  Universitas Indonesia Library