Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 41 dokumen yang sesuai dengan query
cover
P. Buyung Kosasih
Yogyakarta: Andi Yogyakarta, 2006
519.4 BUY k
Buku Teks  Universitas Indonesia Library
cover
Ahmad Ibrahim Badry
Abstrak :
Tesis ini adalah kajian filosofis atas pengembangan komputasi DNA yang menggunakan analisis Arkeologi dan Genealogi dari Michel Foucault. Dalam penelitian ini, ditemukan adanya kesejajaran antara tiga episteme yang telah diungkap Foucault dengan tiga teknologi komputasi yang telah dikembangkan (penerapan metode Arkeologi) dan suatu jenis exercise atas kekuasaanpengetahuan sebagaimana diurai Foucault dengan titik tekan pada normalisasi, pengembangan model Artificial Intelligent Creatures, dan kemungkinan model panopticon molekuler (penerapan metode Genealogi). Hasil penelitian ini juga mengandaikan bahwa problem yang muncul harus disikapi dengan rumusan etika baru. Sebab, etika yang sudah dikembangkan tidak dapat mengatasi persoalan yang sekiranya dapat terjadi dengan dikembangkannya komputasi DNA. ...... This thesis is a philosophical study about DNA computation development which uses Genealogical and Archaeological analytics from Michel Foucault. In this thesis had been found parallelism between three episteme which described by Foucault with the three technology of computation (Archaeological applied) and a kind of exercise of knowledge-power as identified by Foucault which focusing in normalization, developing Artificial Intelligent Creatures, and possibility of molecular panopticon (Genealogical applied). This thesis supposes to formulate a new ethical approach. It is because the ethics which were developed not have an adequacy to solve a problematical discourse which comes from DNA computation development.
Depok: Universitas Indonesia, 2011
T28641
UI - Tesis Open  Universitas Indonesia Library
cover
Gianinna Ardaneswari
Abstrak :
Dalam bioinformatika penelusuran basis data sekuens digunakan untuk mencari kemiripan antara sebuah sekuens dengan sekuens lainnya pada suatu basis data sekuens Salah satu algoritma untuk menghitung skor kemiripan yang optimal adalah algoritma Smith Waterman yang menggunakan pemrograman dinamik Algoritma ini memiliki kompleksitas waktu kuadratik yaitu O n2 sehingga untuk data yang berukuran besar membutuhkan waktu komputasi yang lama Komputasi paralel diperlukan dalam penelusuran basis data sekuens ini agar waktu yang dibutuhkan lebih cepat dan memiliki kinerja yang baik Dalam skripsi ini akan dibahas implementasi paralel untuk algoritma Smith Waterman menggunakan bahasa pemrograman CUDA C pada GPU dengan NVCC compiler pada Linux Selanjutnya dilakukan analisis kinerja untuk beberapa model paralelisasi tersebut yaitu Inter task Parallelization Intra task Parallelization dan gabungan keduanya Berdasarkan hasil simulasi yang dilakukan paralelisasi dengan gabungan kedua model menghasilkan kinerja yang lebih baik dari model lainnya Paralelisasi dengan model gabungan menghasilkan rata rata speed up sebesar 313x dan rata rata efisiensi sebesar 0 93 ......In bioinformatics sequence database searches are applied to find the similarity between a sequence with other sequences in a sequence database One of the algorithms to compute the optimal similarity score is Smith Waterman algorithm that uses dynamic programming This algorithm has a quadratic time complexity O n2 which requires a long computation time for large sized data In this occasion parallel computing is essential to solve this sequence database searches in order to reduce the running time and to increase the performance In this mini thesis we discuss the parallel implementation of Smith Waterman algorithm using CUDA C programming language with NVCC compiler on Linux Furthermore we run the performance analysis using three parallelization models including Inter task Parallelization Intra task Parallelization and a combination of both models Based on the simulation results a combination of both models has better performance than the others In addition parallelization using combination of both models achieves an average speed up of 313x and an average efficiency with a factor of 0 93
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
S52395
UI - Skripsi Membership  Universitas Indonesia Library
cover
Gleim, George A.
New York : McGraw-Hill, 1956
005 GLE d
Buku Teks  Universitas Indonesia Library
cover
Hays, David G.
New York: American Elsevier puvlishing, 1967
410.18 HAY i
Buku Teks  Universitas Indonesia Library
cover
New York: Oxford University Press, 2004
410.285 OXF
Buku Teks  Universitas Indonesia Library
cover
Fathimah Rahimullah
Abstrak :
Pada penelitian ini, penerapan dari komputasi paralel dan komputasi awan dilakukan dalam sistem pendeteksi plagiarisme menggunakan algoritma winnowing dengan tujuan untuk mempersingkat waktu eksekusi program. Paralelisasi dilakukan pada bagian pemrosesan data paragraf dari dokumen referensi. Program dijalankan pada sistem komputasi awan OpenStack yang berada di Departemen Teknik Elektro, Universitas Indonesia agar dapat dilakukan paralelisasi secara optimal dengan mengutilisasi inti prosesor pada sistem. Didapatkan hasil bahwa waktu eksekusi dengan komputasi paralel berhasil menjadi lebih cepat sebesar 1,07 sampai dengan 3,52 kali dibandingkan waktu eksekusi dengan komputasi serial. ......In this research, impementation of parallel computing and cloud computing was done within the plagiarism detection system using the winnowing algorithm with an objective to decrease the execution time of the program. Parallelization was done on the portion of the program where the paragraphs of reference documents are processed. The program was then executed on the OpenStack cloud computing system in the Department of Electrical Engineering, Universitas Indonesia in order for the parallelization to be optimal by utilizing the cores on the system. The results were that the execution time with the paralel computation was successfully sped up by 1.07 to 3.52 times compared to the execution time with serial computing.
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Latief Anggar Kurniawan
Abstrak :
Penjadwalan produksi pada sebuah perusahaan menjadi penting agar dapat mengetahui seberapa lama suatu produk dapat dibuat dan diselesaikan sehingga tidak terjadi keterlambatan. Salah satu yang sering digunakan dalam sistem penjadwalan adalah pola flow shop. Permasalahan penjadwalan menjadi kompleks ketika banyak mesin dan pekerjaan yang harus disinkronkan. FCFS dan CDS adalah metode yang paling banyak digunakan, metode ini menjadwalkan pekerjaan tanpa memperhatikan makespan, sehingga dengan metode ini sering terjadi keterlambatan dan biaya produksi yang tidak efisien. Menurut Baker (1974) metode CDS memiliki berbagai kelemahan oleh karenanya Jin dan kawan-kawan (2007) menyatakan bahwa metode NEH menghasilkan solusi yang lebih optimal daripada metode CDS, tetapi metode NEH memberikan waktu komputasi yang lebih lama. Tujuan dari penelitian ini adalah untuk mengembangkan algoritma baru dalam pemecahan masalah penjadwalan flow shop berdasarkan konsep metode CDS dan NEH yaitu algoritma LPD, LPD2, LPD3 kemudian mengujinya pada kasus acak. Penelitian ini menghasilkan algoritma baru dalam penjadwalan flow shop dan berdasarkan hasil pengujian pada 30 kasus, ditemukan bahwa: algoritma LPD menghasilkan solusi dengan makespan 22,37 menit lebih singkat dibanding metode CDS dengan waktu komputasi 2,73 menit lebih lambat, menghasilkan solusi dengan makespan relatif sama dengan metode NEH (1,7 menit lebih singkat) dengan waktu proses program 1,77% atau 0,07 menit lebih lambat. Algoritma yang dikembangkan (LPD, LPD2, LPD3) memerlukan waktu komputasi yang lebih cepat dari metode NEHFF sekaligus menghasilkan solusi makespan yang sama (LPD2) atau lebih singkat 23,67 menit untuk algoritma LPD dan 12,90 menit untuk algoritma LPD3. ......Every company engaged in the manufacturing industry must implement a productivity improvement program. In avoiding queues in the manufacturing process, an overall solution is needed. One that is often used in scheduling systems is the flow shop pattern. Scheduling problems become complex when many machines and jobs have to be synchronized. FCFS, CDS is the most widely used method, this method schedules work without regard to makespan, so that with this method there are frequent delays and inefficient production costs. According to Baker (1974) the CDS method has various weaknesses, therefore Jin and friends (2007) stated that the NEH method produces a more optimal solution than the CDS method, but the NEH method provides a longer computation time. The purpose of this research is to develop a new algorithm for solving flow shop scheduling problems based on the concept of the CDS and NEH methods, namely the LPD, LPD2, LPD3 algorithms, then test it on random cases. Based on the test results on 30 cases, it was found that: The LPD algorithm produces a solution with a makespan of 22.37 minutes faster than the CDS method with a computation time of 2.73 minutes slower, produces a solution with relatively the same makespan as the NEH method (1.7 minutes more fast) with a program processing time of 1.77% or 0.07 minutes slower. The developed algorithms (LPD, LPD2, LPD3) require faster computation time than the NEHFF method while at the same time producing the same makespan solution (LPD2) or 23.67 minutes faster for the LPD algorithm and 12.90 minutes for the LPD3 algorithm.
Jakarta: Fakultas Teknik Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Ahmad Sanusi
Abstrak :
Penggabungan dua himunan terutut (merging) merupakan salah satu bahan pembahasan dalam bidang ilmu komputer, khususnya yang berkenaan dengan analisa dan kompleksitas algoritma serta kecepatan komputasi. Salah satu usaha untuk nenigkatkan kecepatan komputasi masalah penggabungan ialah dengan menggunakan proses paralel. Oleh karena itu penulis membahas algoritma paralel Penggabungan dari dua buah himpunan terurut pada model komputasi paralel SM CREW (Shared-Memory concurrent Read, Exclusive Write) dari kelas komputer SIMD (Single Instruction Stream Multiple Data Stream) dan SM EREW (Shared-Memory Exlusive Read, Exclusive Write) dari kelas Computer SIMD (Single Instruction Stream Multiple Data Stream), serta analisa algloritma-algoritma tersebut. Untuk implementasinya dipakai metoda simulasi dengan bahasa pemrogaman ADA, karena bahasa pemrogaman ini mendukung dalam simulasi pemrosesan seeara paralel. Dengan membuat simulasi ini dapat diperoleh hasil yang bisa dipakai untuk memperkirakan kemungkinan jika diimplementasikan pada kondisi yang sesungguhnya.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 1994
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Fauzan Akbar Masyhudi
Abstrak :
ABSTRAK
Algoritma Markov Clustering adalah algoritma pengelompokan yang banyak digunakan pada bidang bioinformatik. Operasi utama pada algoritma ini adalah operasi ekspansi. Pada operasi ekspansi dilakukan perkalian dua buah matriks. Karena data pada bidang bioinformatik umumnya berukuran sangat besar dan memiliki tingkat sparsity yang sangat tinggi, diperlukan metode untuk menghemat penggunaan memori dan mempercepat proses komputasi. Sementara itu, Graphics Processing Unit (GPU) berkembang menjadi suatu platform komputasi paralel dengan performa yang lebih baik dari pada Central Processing Unit (CPU). Pada skripsi ini data yang diproses disimpan dalam bentuk sparse matriks ELL-R dan perkalian matriks yang dilakukan menggunakan Sparse Matrix Matrix Product (SpMM) ELL-R. SpMM ELL-R dibuat dengan melakukan Sparse Matrix Vector Product (SpMV) ELL-R beberapa kali. Algoritma MCL yang dibuat menggunakan komputasi paralel dengan GPU.
ABSTRACT
Markov Clustering Algorithm is a clustering algorithm that used often in bioinformatics. The main operation of this algorithm is expand operation. The multiplication of two matrix was done in expand operation. Because data processed in bioinformatics usually have a vast amount of information and have high sparsity, a method to save memory usage and make the computating process faster is needed. Meanwhile, Graphics Processing Unit (GPU) developed into a parallel computing platform with better performance compared to Central Processing Unit (CPU). In this skripsi, processed data stored using ELL-R sparse matrix and matrix multiplication done using Sparse Matrix Matrix Product (SpMM) ELL-R. SpMM ELL-R made by doing Sparse Matrix Vector Product (SpMV) ELL-R several times. MCL Algorithm made using parallel computing with GPU.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2012
S43685
UI - Skripsi Open  Universitas Indonesia Library
<<   1 2 3 4 5   >>