Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 113558 dokumen yang sesuai dengan query
cover
Ramanti Dharayani
"Berkembangnya teknologi pada bioteknologi berdampak pada banyaknya jumlah data yang harus diolah untuk melakukan analisis dalam pencarian anomali terutama pada data Genomic. Selain pertumbuhan data kebutuhan akan kompleksitas dalam melakukan proses olah data akan mengikuti seiring berkembangnya data genomic. Dengan berkembangnya data dan kompleksitas olah data, Big Data merupakan salah satu solusi untuk mengatasi perkembangan data dan olah data yang cukup kompleks. Dalam penelitian ini membahas bagaimana Big Data dapat melakukan pencarian anomali pada data genomic dengan menggunakan MapReduce dan algoritma BLAST pada platform Big Data. Hasil dari penelitian ini adalah pencarian anomali pada data genomic dapat dilakukan dengan menggunakan mapreduce pada platform big data dengan waktu yang lebih efisien.

Biofarma Corp should adopt big data on vaccine and serum development by analyze genomic sequencing using searching any anomaly. As the root problem, it the anomaly searching requires about 1.62 Terabytes data transient as primary data and 301 Gigabytes as secondary data to get analysis from genomic variance. Moreover Biofarma Corp spent 16 hours for one anomaly searching from 3 Terabytes vaccines. This study proposed big data implementation to handle anomaly searching processes by prioritize less time complexity and less spending storage. It was signalized by a research question, "How big data technology is applied in searching anomalies on genomic data". It aimed to implement big data system to facilitate large volume and complex data in order to fulfill business process on Biofarma Corp. It adopted framework architecture as brought by Demchenko, Ngo, and Membrey. This study has designed data flow from FASTA and FATQ as sources for anomalies searching processes. This data flow is facilitated in big data system as designed in this research. As main contribution, this research adopted MapReduce framework to run BLAST algorithm with less spending time. As comparison, MapReduce framework can handle 21, 33, and 55 K-Mer in four minutes respectively while 50 minutes were spent without MapReduce. "
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Panji Winata
"[ABSTRAK
PT. XYZ merupakan perusahaan telekomunikasi di Indonesia yang sedang
berusaha mentransformasikan bisnisnya menuju layanan broadband dan bisnis
digital. Banyak peluang bisnis di layanan broadband dan bisnis digital yang dapat
diidentifikasi dengan memproses dan menganalisis data dengan cepat, tepat, dan
menyeluruh. Saat ini PT. XYZ telah memiliki kemampuan dalam mengolah
beberapa sumber data yang terstruktur dengan ukuran data yang terbatas. Untuk
membuat perhitungan dan keputusan yang jitu, terutama di layanan broadband dan
bisnis digital, PT. XYZ dituntut juga untuk bisa memproses dan menganalisis data
yang memiliki karakteristik 3V (Velocity, Volume, Variety) atau dikenal dengan big
data. Penelitian ini bertujuan untuk merancang arsitektur sistem pemrosesan big
data di PT. XYZ. Kerangka arsitektur (framework) enteprise yang digunakan dalam
penelitian ini adalah TOGAF. Hasil yang diperoleh dari penelitian ini adalah
rancangan arsitektur sistem pemrosesan big data yang mampu mengolah data yang
memiliki karakteristik 3V, yaitu aliran data yang cepat, berukuran masiv, dan
beranekaragam (terstruktur maupun tidak terstruktur) dengan biaya lebih rendah
dari sistem pemrosesan data yang dimiliki PT. XYZ saat ini. Saran untuk penelitian
ini kedepannya adalah sistem pemrosesan big data di PT. XYZ dapat
diimplementasikan dengan baik jika mendapat dukungan penuh dari manajemen
perusahaan, dimulai dengan kasus bisnis yang spesifik (specific business case) yang
ingin disasar. Hasil yang maksimal dari kasus bisnis tersebut dapat dijadikan
landasan untuk investasi sistem pemrosesan big data yang lebih menyeluruh dalam
mendukung transformasi bisnis menuju layanan broadband dan bisnis digital.

ABSTRACT
PT. XYZ is a telecommunication company in Indonesia which is transforming it's business to broadband services & digital business. Many business opportunities in broadband services & digital business can be identified by processing and analyzing data quickly, accurately, and completely. Right now PT. XYZ has the capability in processing some structured data sources with limited data size. To make accurate calculations and decisions, especially in broadband services and digital business, PT. XYZ also required to be able to process and analyze the data that has the characteristics of 3V (Velocity, Volume, Variety) or known as big data. This research aims to design the architecture of big data processing system. The enterprise architecture framework used in this study is TOGAF. The results obtained from this study is the design of big data processing system architecture that is capable of processing data which has the characteristics of 3V (the fast data
flow, massive data size, and diverse structured or unstructured data sources) at a lower cost than the current data processing system in PT. XYZ. The suggestion about this study is the big data processing system can be implemented properly in PT. XYZ with the full support of the PT. XYZ management, started with a specific business use case that want targeted. The maximum results from the business use case can be used as a piloting for big data processing system investments more
thorough in supporting business transformation toward broadband services and digital business. ;PT. XYZ is a telecommunication company in Indonesia which is transforming it?s
business to broadband services & digital business. Many business opportunities in
broadband services & digital business can be identified by processing and analyzing
data quickly, accurately, and completely. Right now PT. XYZ has the capability in
processing some structured data sources with limited data size. To make accurate
calculations and decisions, especially in broadband services and digital business,
PT. XYZ also required to be able to process and analyze the data that has the
characteristics of 3V (Velocity, Volume, Variety) or known as big data. This
research aims to design the architecture of big data processing system. The
enterprise architecture framework used in this study is TOGAF. The results
obtained from this study is the design of big data processing system architecture
that is capable of processing data which has the characteristics of 3V (the fast data
flow, massive data size, and diverse structured or unstructured data sources) at a
lower cost than the current data processing system in PT. XYZ. The suggestion
about this study is the big data processing system can be implemented properly in
PT. XYZ with the full support of the PT. XYZ management, started with a specific
business use case that want targeted. The maximum results from the business use
case can be used as a piloting for big data processing system investments more
thorough in supporting business transformation toward broadband services and
digital business. , PT. XYZ is a telecommunication company in Indonesia which is transforming it’s
business to broadband services & digital business. Many business opportunities in
broadband services & digital business can be identified by processing and analyzing
data quickly, accurately, and completely. Right now PT. XYZ has the capability in
processing some structured data sources with limited data size. To make accurate
calculations and decisions, especially in broadband services and digital business,
PT. XYZ also required to be able to process and analyze the data that has the
characteristics of 3V (Velocity, Volume, Variety) or known as big data. This
research aims to design the architecture of big data processing system. The
enterprise architecture framework used in this study is TOGAF. The results
obtained from this study is the design of big data processing system architecture
that is capable of processing data which has the characteristics of 3V (the fast data
flow, massive data size, and diverse structured or unstructured data sources) at a
lower cost than the current data processing system in PT. XYZ. The suggestion
about this study is the big data processing system can be implemented properly in
PT. XYZ with the full support of the PT. XYZ management, started with a specific
business use case that want targeted. The maximum results from the business use
case can be used as a piloting for big data processing system investments more
thorough in supporting business transformation toward broadband services and
digital business. ]"
2015
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Desiana Nurul Maftuhah
"Algoritma pencarian string telah menjadi topik yang ramai dibicarakan di dunia komputer sejak berpuluh-puluh tahun yang lalu. Banyak para ahli yang mencoba menemukan algoritma pencarian string yang dapat memberikan hasil yang tepat dalam waktu singkat. Algoritma-algoritma baru bermunculan untuk memperbaiki kinerja algoritma pencarian string yang telah ada sebelumnya. Pentingnya sebuah algoritma pencarian string yang mampu memberikan hasil yang tepat dalam waktu yang relatif cepat memang sangat beralasan. Mengingat manipulasi string sangat diperlukan dalam dunia komputer. Banyak hal yang dapat dilakukan dengan adanya algoritma pencarian string yang handal. Permasalahan yang sering berkaitan dengan pengolahan string adalah mengenai ukuran data yang sangat besar dan juga pola atau karakteristik string yang berbedabeda. Ukuran data yang sangat besar jelas memberikan pengaruh yang besar terhadap waktu serta space yang dibutuhkan untuk melakukan pencarian. Sedangkan karakteristik dari string yang akan diproses berpengaruh terhadap
kematangan sebuah algoritma pencarian string. Algoritma yang dapat bekerja dengan baik pada string umum (string yang terdiri dari banyak jenis karakter serta tidak memiliki pola tertentu) belum tentu dapat memberikan hasil yang sama apabila diterapkan pada string yang khusus. String khusus yang dimaksudkan di sini adalah string yang hanya terdiri dari karakter-karakter tertentu saja ataupun string yang memiliki pola tertentu. Salah satu string khusus yang berbeda dari string yang akrab dengan kehidupan manusia
sehari-hari adalah string yang berisi informasi DNA mahluk hidup. Jenis string ini hanya terdiri dari empat karakter inti, yaitu A, C, G, dan T. Hanya dari empat karakter tersebut, dapat tersusun milyaran informasi DNA yang berbeda-beda. Pencarian string pada data DNA (data genomic), merupakan suatu permasalahan yang patut diberikan perhatian khusus. Karena penelitian mengenai DNA mahluk hidup merupakan suatu penelitian yang mendatangkan banyak sekali manfaat bagi seluruh mahluk hidup. Manfaat dari proses pencarian atau pencocokan string pada data genomic antara lain adalah untuk mengetahui kemiripan suatu mahluk hidup dengan mahluk hidup lain ataupun juga mengetahui manfaat dari suatu protein SK-661-Pencarian string dgn...DesianaNurulM.;FASILKOM;2007 iv tertentu dengan melakukan perbandingan dengan protein-protein yang terdapat di bank data protein. Oleh karena itu, sangat beralasan jika algoritma pencarian string untuk data genomic yang dapat memberi kan hasil yang tepat dalam waktu yang singkat sangat diperlukan."
Depok: Universitas Indonesia, 2007
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nainggolan, Dicky R.M.
"Data are the prominent elements in scientific researches and approaches. Data Science methodology is used to select and to prepare enormous numbers of data for further processing and analysing. Big Data technology collects vast amount of data from many sources in order to exploit the information and to visualise trend or to discover a certain phenomenon in the past, present, or in the future at high speed processing capability. Predictive analytics provides in-depth analytical insights and the emerging of machine learning brings the data analytics to a higher level by processing raw data with artificial intelligence technology. Predictive analytics and machine learning produce visual reports for decision makers and stake-holders. Regarding cyberspace security, big data promises the opportunities in order to prevent and to detect any advanced cyber-attacks by using internal and external security data."
Bogor: Universitas Pertahanan Indonesia, 2017
345 JPUPI 7:2 (2017)
Artikel Jurnal  Universitas Indonesia Library
cover
Meita Pusparini
"Penelitian ini bertujuan untuk mengidentifikasi segmentasi RFM pada toko kosmetik online di Indonesia. Penelitian ini menggunakan analisis RFM (Recency, Frequency, dan Monetary) yang dilanjutkan dengan K-Means Clustering dengan menggunakan Hiearchical Clustering untuk mencari nilai k. Penelitian ini menggunakan data transaksi penjualan Makeupuccino sepanjang tahun 2017 untuk segmentasi RFM. Hasilnya menunjukkan bahwa jumlah segmentasi yang paling tepat untuk toko kosmetik online adalah 4, yang dibagi menjadi Platinum, Gold, Iron, dan Lead. Keempat segmentasi tersebut memiliki marketing objective dan program marketing yang berbeda.

This research aims to identify RFM segmentation on makeup online store in Indonesia. This research uses RFM (Recency, Frequency, and Monetary) analysis and then uses K-Means Clustering with Hierarchical Clustering as the way to finds k values. This study uses transaction on Makeupuccino (one of makeup online store in Indonesia) during 2017 to get RFM segmentation. The result shows that the best RFM segmentation for makeup online store in Indonesia is 4, that divided into Platinum, Gold, Iron, and Lead. Each of segmentation has different marketing objective and marketing program.
"
Jakarta: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2018
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Kelvin Hendiko Sutedjo
"Tujuan dari penelitian ini adalah memberikan solusi dan masukkan kepada XYZ.com untuk mengembangkan layanan video on demand dengan mengevaluasi data yang diperoleh melalui web analytics. Melalui data tersebut XYZ dapat memperdalam pengetahuan mengenai perilaku pengunjung, terutama pengunjung yang memiliki value berupa durasi kunjungan yang tinggi sehingga dimasa mendatang XYZ.com dapat merumuskan strategi untuk meningkatkan dan mempertahankan hubungan yang nantinya diharapkan dapat meningkatkan advertising revenue. Penelitian ini menggunakan big data analytics, yakni analisis deskriptif. Teknik analisa data yang digunakan adalah analisa clustering dan data analysis menggunakan SQL. Clustering analysis digunakan untuk mengelompokkan pengunjung berdasarkan durasi kunjungan dan jumlah perangkat. Data analysis dengan SQL digunakan untuk menganalisa karakteristik dari pola penggunaan perangkat dan traffic source, serta dapat membantu memvisualisasikan data. Hasil akhir dari penelitian yang dilakukan adalah mengetahui jumlah cluster dari pengunjung yang terbentuk, pola penggunaan perangkat dan traffic source yang digunakan pada visitor yang memiliki durasi kunjungan yang tinggi.

The purpose of this research is to provide solution and recommendation for XYZ.com in order to develop and enhance their video on demand service by evaluating the data extracted from web analytics. Through these data, XYZ can deepen the knowledge about the behavior of visitors, especially visitors who have value of high duration of visits, so that in future XYZ.com can formulate strategies to improve and maintain relationship that will be expected to increase advertising revenue. This study use big data analytics, namely descriptive analysis. Data analysis technique used are clustering analysis and data analysis using SQL. Clustering analysis is used to group visitors based on the duration of the visit and the number of devices. Data analysis with SQL is used to analyze characteristics of device usage patterns and traffic sources, and can help visualize data. The final result of this research is to know the number of clusters of visitors formed, the pattern of device usage and traffic source used in visitors who have high duration of visit."
Depok: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2017
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Priagung Khusumanegara
"Komputasi terdistribusi merupakan salah satu kemajuan teknologi dalam mengolah data. Penggunaan komputasi terdistribusi memudahkan user untuk mengolah data menggunakan beberapa komputer yang secara fisik terpisah atau terdistribusi. Salah satu teknologi yang menggunakan konsep komputasi terditribusi adalah Hadoop. Hadoop merupakan framework software berbasis Java dan open source yang berfungsi untuk mengolah data yang memiliki ukuran yang besar secara terdistribusi. Hadoop menggunakan sebuah framework untuk aplikasi dan programming yang disebut dengan MapReduce. Enam skenario diimplementasikan untuk menganalisa performa kecepatan MapReduce pada Hadoop. Berdasarkan hasil pengujian yang dilakukan diketahui penambahan jumlah physical machine dari satu menjadi dua physical machine dengan spesifikasi physical machine yang sesuai perancangan dapat mempercepat kecepatan rata-rata MapReduce. Pada ukuran file 512 MB, 1 GB, 1.5 GB, dan 2 GB, penambahan physical machine dapat mempercepat kecepatan rata-rata MapReduce pada masing-masing ukuran file sebesar 161.34, 328.00, 460.20, dan 525.80 detik. Sedangkan, penambahan jumlah virtual machine dari satu menjadi dua virtual machine dengan spesifikasi virtual machine yang sesuai perancangan dapat memperlambat kecepatan rata-rata MapReduce. Pada ukuran file 512 MB, 1 GB, 1.5 GB, dan 2 GB, penambahan virtual machine dapat memperlambat kecepatan rata-rata MapReduce pada masing-masing ukuran file sebesar 164.00, 504.34, 781.27, dan 1070.46 detik. Berdasarkan hasil pengukuran juga diketahui bahwa block size dan jumlah slot map pada Hadoop dapat mempengaruhi kecepatan MapReduce.

Distributed computing is one of the advance technology in data processing. The use of distributed computing allows users to process data using multiple computers that are separated or distributed physically. One of technology that uses the concept of distributed computing is Hadoop. Hadoop is a Java-based software framework and open source which is used to process the data that have a large size in a distributed manner. Hadoop uses a framework for application and programing which called MapReduce. Six scenarios are implemented to analyze the speed performance of Hadoop MapReduce. Based on the study, known that the additional the number of physical machines from one to two physical machines with suitable specifications design can speed up the average speed of MapReduce. On file 512 MB, 1 GB, 1.5 GB, and 2 GB size additional the number of physical machines can accelerate MapReduce average speed on each file size for 161.34, 328.00, 460.20, and 525.80 seconds. Meanwhile, additional the number of virtual machines from one to two virtual machines with suitable specifications design can slow down the average speed of MapReduce. On file 512 MB, 1 GB, 1.5 GB, and 2 GB size, additional the number of virtual machines can slow down the average speed of each MapReduce on a file size for 164.00, 504.34, 781.27, and 1070.46 seconds. Based on the measurement result is also known that the block size and number of slot maps in Hadoop MapReduce can affect speed.
"
Depok: Fakultas Teknik Universitas Indonesia, 2014
S55394
UI - Skripsi Membership  Universitas Indonesia Library
cover
Diyanatul Husna
"ABSTRAK
Apache Hadoop merupakan framework open source yang mengimplementasikan MapReduce yang memiliki sifat scalable, reliable, dan fault tolerant. Scheduling merupakan proses penting dalam Hadoop MapReduce. Hal ini dikarenakan scheduler bertanggung jawab untuk mengalokasikan sumber daya untuk berbagai aplikasi yang berjalan berdasarkan kapasitas sumber daya, antrian, pekerjaan yang dijalankan, dan banyaknya pengguna. Pada penelitian ini dilakukan analisis terhadapap Capacity Scheduler dan Fair Scheduler. Pada saat Hadoop framework diberikan 1 pekerjaan dengan ukuran data set 1,03 GB dalam satu waktu. Waiting time yang dibutuhkan Capacity Scheduler dan Fair Scheduler adalah sama. Run time yang dibutuhkan Capacity Scheduler lebih cepat 6% dibandingkan Fair Scheduler pada single node. Sedangkan pada multi node Fair Scheduler lebih cepat 11% dibandingkan Capacity Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set (1,03 GB ) yang sama dalam satu waktu. Waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 87% lebih cepat pada single node dan 177% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 55% lebih cepat pada single node dan 212% lebih cepat pada multi node. Turnaround time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 4% lebih cepat pada single node, sedangkan pada multi node Capacity Scheduler lebih cepat 58% dibandingkan Fair Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set yang berbeda dalam satu waktu yaitu data set 1 (456 MB), data set 2 (726 MB), dan data set 3 (1,03 GB) dijalankan secara bersamaan. Pada data set 3 (1,03 GB), waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 44% lebih cepat pada single node dan 1150% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 56% lebih cepat pada single node dan 38% lebih cepat pada multi node. Turnaround time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 12% lebih cepat pada single node, sedangkan pada multi node Fair Scheduler lebih cepat 25,5% dibandingkan Capacity Scheduler

ABSTRACT
Apache Hadoop is an open source framework that implements MapReduce. It is scalable, reliable, and fault tolerant. Scheduling is an essential process in Hadoop MapReduce. It is because scheduling has responsibility to allocate resources for running applications based on resource capacity, queue, running tasks, and the number of user. This research will focus on analyzing Capacity Scheduler and Fair Scheduler. When hadoop framework is running single task. Capacity Scheduler and Fair Scheduler have the same waiting time. In data set 3 (1,03 GB), Capacity Scheduler needs faster run time than Fair Scheduler which is 6% faster in single node. While in multi node, Fair Scheduler is 11% faster than Capacity Scheduler. When hadoop framework is running 3 tasks simultaneously with the same data set (1,03 GB) at one time. Fair Scheduler needs faster waiting time than Capacity Scheduler which is 87% faster in single node and 177% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 55% faster in single node and 212% faster in multi node. Fair Scheduler needs faster turnaround time than Capacity Scheduler which is 4% faster in single node, while in multi node Capacity Scheduler is 58% faster than Fair Scheduler. When hadoop framework is running 3 tasks simultaneously with different data set, which is data set 1 (456 MB), data set 2 (726 MB), and data set 3 (1,03 GB) in one time. In data set 3 (1,03 GB), Fair Scheduler needs faster waiting time than Capacity Scheduler which is 44% faster in single node and 1150% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 56% faster in single node and 38% faster in multi node. Capacity Scheduler needs faster turnaround time than Fair Scheduler which is 12% faster in single node, while in multi node Fair Scheduler is 25,5% faster than Capacity Scheduler"
2016
T45854
UI - Tesis Membership  Universitas Indonesia Library
cover
Haura Syarafa
"ABSTRAK
PT. Citilink Indonesia Citilink adalah maskapai penerbangan yang menerapkan konsep penerbangan berbiaya murah atau Low Cost Carrier LCC . Dalam menjalankan proses operasionalnya, Citilink memiliki masalah terkait efisiensi bahan bakar. Salah satu penyebab bahan bakar tidak efisien adalah tidak teridentifikasinya komponen mesin pesawat yang kinerjanya sudah tidak maksimal. Komponen pesawat yang tidak bekerja maksimal tidak dapat teridentifikasi dikarenakan data log pesawat yang terlalu banyak belum dapat diolah. Berangkat dari masalah tersebut, Citilink dituntut untuk dapat mengolah dan menganalisis data log pesawat tersebut beserta dengan data lainnya yang memiliki karakteristik Big Data Volume, Velocity, dan Variety . Namun agar penerapan Big Data berjalan dengan baik dan tepat sesuai dengan karakteristik perusahaan, maka diperlukan sebuah kerangka kerja penerapan Big Data serta memvalidasi kerangka kerja tersebut di Citilink. Metode yang dipakai untuk merancang rekomendasi kerangka kerja penerapan Big Data adalah metode penelitian Lakoju 2017 , Tianmei dan Baowen 2007 , dan Kitsios dan Kamariotou 2016 yang terdiri dari tahap rencana pemetaan, penilaian framework Big Data, perancangan framework Big Data, dan uji validasi. Hasil penelitian menunjukkan lima fase kerangka kerja penerapan Big Data Big Data Strategic Alignment, Team, Project Plan, Data Analytics, dan Implementation yang dikelilingi oleh tahap proses manajemen kinerja serta adanya keterlibatan proses manajemen perubahan. Setelah itu, kerangka kerja tersebut divalidasi kepada dua responden dari Citilink dan dilakukan enam perbaikan, yaitu penambahan cara menganalisis kondisi internal organisasi, pengkategorian posisi tim, penambahan rekomendasi data processing architecture, penambahan aktivitas pemeliharaan aplikasi Big Data, penambahan bagaimana cara menganalisis perubahan, dan penambahan aktivitas kontrol proyek.

ABSTRACT
PT. Citilink Indonesia Citilink is airline that implements Low Cost Carrier LCC . To perform its operational processes, Citilink has problems related to fuel efficiency. One of the causes inefficient fuel is unidentified damaged aircraft engine components. An unidentified damaged aircraft components because the data log plane is too much and can not be processed. From these problems Citilink also required to be able to process and analyze the log data of the aircraft and other data that has characteristics of Big Data Volume, Velocity, and Variety . But in order for Big Data implementation to run properly and appropriatley in accordance with the characteristics of the company, it would require a framework for implementation of Big Data and validate that framework in Citilink. The method used to design the recommendation of framework for implementation of Big Data is Lakoju 2017 , Tianmei and Baowen 2007 , and Kitsios and Kamariotou 2016 research method begins with the mapping plan stage, the Big Data framework assessment, the Big Data framework design, and the validation test. The results is the five phases in framework for implementation of Big Data Big Data Strategy Alignment, Team, Project Plan, Data Analytics and Implementation surrounded by performance management processes and the involvement of the change management process. After that, the framework has been validated to two respondents from Citilink and has been improvements with adding of how to analyze an organization 39;s internal conditions, categorizing position of the team, addition of a data processing architecture recommendations, additional Big Data maintenance aspects, addition of how to analyze changes, and addition of project control aspects."
2018
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Shantika Luciana
"Anomali Bouger lengkap merupakan superposisi dari anomali regional dan anomali residual. Anomali regional berasosiasi dengan kondisi geologi umum yang dominan pada daerah penelitian. Hal ini biasanya dicirikan oleh anomali yang berfrekuensi rendah. Sebaliknya, anomali residual umumnya memiliki frekuensi tinggi dan memiliki informasi mengenai sumber anomali dangkal. Studi ini mengaplikasikan filter frekuensi pada data anomali Bouger sintetik. Penggunaan metode filter frekuensi pada harga tertentu diharapkan dapat menghasilkan anomali regional dan residual yang tepat. Studi ini memiliki tujuan untuk mengkorelasikan hubungan antara variasi grid spasi dengan kedalaman benda anomali serta korelasi antara kedalaman anomali dengan besar lebar jendela N. Penggunaan grid spasi yang sembarang kemungkinan akan menyebabkan benda yang menjadi target pengukuran tidak tercapai. Penulis mengasumsikan penggunaan grid spasi yang tepat dalam proses survei geoteknik maupun geofisika sangat penting. Untuk menguji metoda serta asumsi penulis tersebut, dibuat tiga model sintetik yaitu model geoteknik (50 m), model eksplorasi mineral (500 m), dan model sistem geothermal (6000 m). Pemisahan anomali regional – residual menggunakan lowpass filter frequency menghasilkan anomali regional yang sesuai dengan anomali akibat benda dalam.

Complete bouger anomaly is the superposition of regional anomaly and residual anomaly. Regional anomaly is associated with general geological condition that dominat at reasearch area. This is characterized by low frequency anomaly. The opposite, residual anomally generally has high frequency and has informations about the source of residual anomaly. This study applies filter frequency on synthetic bouger anomaly data. The application of filter frequency on certain value is expected to give approximate regional and residual anomaly as the result. The objectives of this study is also to connect variation. The objectives of this study is also to relate the variation in grid spacing and the depth of anomaly object and also to state the relation between the depth of anomaly and the value of the width of window N. Use of an arbitrary grid spacing will likely cause the target measurement object are not reached. The author assumes the proper use of grid spacing in the geotechnic and geophysics surveys is essential. To test the method and the writer’s assumption, 3 synthetics models were made, geothectonic (50 m), mineral exploration model (500 m) and also geothermal system model (6000 m). Separation between residual and regional anomaly using frequency filter (low pass filter frequency) produces regional anomaly fits to subsurface body."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2012
S45633
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>