Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 442 dokumen yang sesuai dengan query
cover
Anak Agung Putri Ratna
"Penggunaan komputer sebagai alat komputasi yang menyangkut aplikasi-aplikasi yang bersifat kritis memerlukan kemampuan fault-tolerance, karena jika terjadi suatu kerusakan akan berakibat kerugian yang sangat besar. Untuk meningkatkan kehandalan dan keberadaan suatu sistem komputer, disediakan sumber daya tambahan (redundant resources) yang mampu mengambil alih proses jika terjadi kegagalan. Penambahan ini akan menaikkan biaya (cost), namun biaya tersebut akan menjadi murah jika dibandingkan dengan terjadinya kegagalan.
Sistem komputasi fault-tolerant yang dirancang dengan menggunakan metode tertentu harus mampu meminimasi waktu yang terbuang saat terjadinya recovery sistem (rollback recovery). Metode optimasi checkpointing merupakan metode yang handal mengingat biaya dan waktu yang terbuang saat terjadinya recovery sistem. Metode tersebut menggunakan sejumlah checkpoint (keadaan proses yang dibutuhkan untuk melanjutkan komputasi) (yang optimal, sehingga dapat meminimasi waktu yang terbuang yang diperlukan untuk recovery.
Penyisipan sejumlah checkpoint dalam proses komputasi tersebut berguna untuk mencegah terjadinya komputasi dari awal pada pelayan cadangan (redundant resources), bila terjadi kegagalan pada pelayan utama. Prosedur pembuatan checkpoint perlu dibuat secara efisien mengingat aplikasi-aplikasi yang diterapkan pada sistem ini membutuhkan kecepatan yang tinggi.
Pada Penelitian ini dibahas implementasi sistem komputasi fault-tolerant dengan menggunakan metode optimasi checkpointing dan rollback recovery yang diterapkan pada sistem jaringan (distributed system). Penentuan jumlah checkpoint yang optimal dilakukan melalui analisa matematis dan uji coba hasil rancangan sistem dengan mengubah-ubah jumlah checkpoint tersebut."
Depok: Lembaga Penelitian Universitas Indonesia, 1996
LP-Pdf
UI - Laporan Penelitian  Universitas Indonesia Library
cover
Muhammad Salman
"Salah satu jenis topologi yang banyak digunakan dalam jaringan komunikasi data adalah topologi Mesh. Topologi jenis ini mempunyai keunggulan antara lain sifatnya yang fleksibel dan dinamis sesuai dengan kondisi dan keadaan jaringan tersebut. Ada banyak kombinasi bentuk jaringan dalam topologi Mesh sesuai dengan aplikasi dan syarat serta tuntutan jaringan tersebut. Untuk membantu dalam merancang bentuk jaringan pada topologi Mesh maka pada penelitian ini dirancang suatu algoritma yang dapat memilih dan menentukan bentuk jaringan yang paling optimal pada topologi Mesh. Algoritma Mesh yang dirancang pada penelitian ini menggunakan pendekatan prosedur Minimum Spanning Tree yang merupakan penyempumaan dari algoritma Prim's."
Depok: Fakultas Teknik Universitas Indonesia, 2000
LP-Pdf
UI - Laporan Penelitian  Universitas Indonesia Library
cover
Atik Wintarti
"ABSTRAK
Tesis ini membahas masalah subgraf planar maksimal yang mengandung subgraf tertentu. Subgraf tertentu yang dimaksud adalah graf terhubung yang derajat setiap verteksnya maksimum dua.
Pada tahun 1993, Cal, Han dan Tarjan menyusun sebuah algoritma Maximal Planar Subgrapha (algoritma CHT) untuk mencari subgraf planar maksimal dalam sebuah graf G. Algoritma CHT disusun berdasarkan algoritma Planarity Testing yang dikemukakan oleh Hopcroft dan Tarjan pada tahun 1974. Algoritma terakhir ini menggunakan Depth-First-Search (DFS) untuk menyatakan graf sebagai masukan. Graf hasil DFS ini mengandung satu atau lebih spanning tree yang disebut DFS-tree.
Algortima CHT tersebut diimplementasikan pada mesin SUNsparc berbasis UNIX(r) System V Release 4.0 di Fasilkom Universitas Indonesia dengan menggunakan bahasa C. Uji coba dilakukan pada graf komplit K? dengan n verteks clan beberapa graf sembarang. Dari uji coba pada graf komplit K. dengan n
5 diperoleh kesimpulan bahwa agar memperoleh subgraf planar maksimal dari K,,, jumlah sisi yang harus dihapus minimal adalah 112 (n2 - 7n a- 12).
Pada tesis ini, algoritma CHT dikembangkan untuk menentukan subgraf planar maksimal Gp dari sebuah graf G yang mengandung subgraf terhubung Gs yang derajat setiap verteksnya maksimum dua. Hal ini dilakukan dengan menjadikan G5 sebagai subtree dari salah satu DFS-tree dari G.
"
1997
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Sri Mulyanti
"ABSTRAK
Dalam sistem basis data terdistribusi, replikasi dilakukan untuk tujuan meningkatkan ketersediaan data yakni mengatasi masalah kegagalan data pada beberapa site serta ' memperbaiki kinerja sistem dengan melibatkan replika seminimal mungkin dalam setiap transaksi.
Penelitian ini bertujuan membuat suatu algoritma yang mempunyai kinerja lebih baik dibandingkan dengan algoritma-algoritma berbasis Konsensus Kuorum dan algoritma ini mempunyai kinerja yang lebih baik untuk transaksi-transaksi tertentu dibandingkan dengan algoritma Read One Write All. Algoritma ini dibuat dengan asumsi kebaruan data tidaklah menjadi prasyarat.
Penelitian ini menghasilkan algoritma Penghitungan Konsistensi yang transaksi tulisnya cukup melibatkan sejumlah kuorum tulis replika dan transaksi bacanya cukup melibatkan sebuah replika pertama dari pasangan partisi data yang saling konsisten. Pembuktian terhadap algoritma Penghitungan Konsistensi dilakukan secara induksi. Untuk melihat kinerja algoritma ini, dibuat suatu program simulasi yang membandingkan ketiga algoritma: Penghitungan Konsistensi, Konsensus Kuorum dan Read One Write All.
Simulasi dilakukan dengan mengeksekusi ketiga algoritma terhadap transaksi-transaksi yang jenisnya bervariasi. Dari hasil simulasi ini, lama waktu komputasi konsistensi menunjukkan bahwa algoritma Penghitungan Konsistensi umumnya lebih baik daripada kedua algoritma lainnya; kecuali bila persentase transaksi baca tinggi sekali (di atas 78% transaksi baca), maka algoritma Read One Write All lebih baik. Jumlah replika yang terlibat transaksi menunjukkan bahwa algoritma Penghitungan Konsistensi umumnya lebih baik dibandingkan kedua algoritma lainnya (sekitar 85% bare tersusul oleh algoritma Read One Write All)."
1996
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Suprapto
"Suatu pewarnaan edge yang minimum (minimum edge coloring) pada graph merupakan suatu partisi pada himpunan edge menjadi D matching, konstanta D merupakan derajad vertex terbesar pada graph. Dalam tulisan ini akan dibicarakan dua algoritma pewarnaan edge yang bekerja dalam kompleksitas waktu D(nm), dan 0(n3). Algoritma kedua akan lebih baik (efisien) untuk kasus di mana D merupakan pangkat dari dua."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 1990
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Judhi Santoso
"Dengan suatu program dapat ditunjukkan bahwa kompleksitas waktu simulasi MT 2-pita dengan MPA menggunakan blok memori mempunyai orde yang sama dengan hasil yang diperoleh dari analisa algoritma, yakni T (n) loglog (S (n)).
Dalam tugas akhir ini digunakan tiga metoda untuk menguji orde kompleksitas waktu tersebut. Metoda tersebut adalah:
1. metoda blok statis
2. metoda blok dinamis
3. metoda tabel look up"
Depok: Universitas Indonesia, 1990
T8503
UI - Tesis Membership  Universitas Indonesia Library
cover
"Metode pengenalan wajah 3D pada penelitian ini merupakan metode baru menggunakan model geometri wajah dengan membangkitkan jarak garis wajah pada kondisi normal dnegan berbagai pose horisontal dalam ruang eigen. Garis eajah dibangkitkan dengan menghubungkan titik-titik pada wajak. Titik-titik pada wajah diperoleh dengan membuat garis yang memiliki kemiringan 0, 45, 90 dan 135 dan melalui titik koordinat tertentu pada wajah serta memotong batas lingkar wajah. Rduksi dimensi matriks citra menggunakan Probability Principal Component Analysis (PPCA) dengan mamaksimumkan fungsi likelihood. Algoritma untuk memaksimumkan fungsi likelihood adalam algoritma EM (Expectation Maximization Algorithm). Pembelajaran citra menggunakan jaringan syarat tiruan Backpropagation. hasil percobaan menunjukkan bahwa secara umum metode wajah lebih baik dan memiliki nilai Mean Square Error (MSE) yang lebih kecil dibandingkan dengan metode tingkat keabuan wajah."
Jurnal Ilmu Komputer dan Teknologi Informasi, 4 (1) Mei 2004: 40-46, 2004
JIKT-4-1-Mei2004-40
Artikel Jurnal  Universitas Indonesia Library
cover
Betrianis
"Tabu Search merupakan salah satu metode pemecahan permasalahan optimasi kombinatorial yang tergabung ke dalam local search methods. Metode ini bertujuan untuk mengefektifkan proses pencarian solusi terbaik dari suatu permasalahan optimasi kombinatorial yang berskala besar (bersifat np-hard), contohnya permasalahan penjadwalan job shop, dengan waktu komputasi yang relatif lebih kecil, namun tanpa ada jaminan akan tercapainya solusi yang optimal.
Dalam penelitian ini, Tabu search diterapkan pada sebuah permasalahan penjadwalan job shop dengan tujuan untuk meminimalkan waktu proses total atau makespan (Cmax). Penjadwalan menggunakan algoritma Tabu Search ini dilakukan terhadap tiga kasus, yaitu paket pesanan bulan September, Oktober dan Nopember, dimana untuk setiap paket pesanan dilakukan variasi terhadap initial solution dan panjang tabu list.
Hasil penjadwalan ini kemudian dibandingkan dengan hasil penjadwalan lain yang menggunakan 4 macam metode basic dispatching rules , yaitu Shortest Processing Time (SPT), Earliest Due Date (EDD), Most Work Remaining (MWKR) dan First Come First Served (FCFS). Hasil pengolahan data menunjukkan bahwa penjadwalan yang menggunakan algoritma Tabu Search sensitif terhadap perubahan yang diberikan pada variabel yang ada didalamnya dan makespan yang dihasilkan secara keseluruhan lebih kecil apabila dibandingkan dengan hasil penjadwalan menggunakan ke-4 metode lainnya.

Application of Tabu Search Algorithm in Job Shop Scheduling. Tabu Search is one of local search methods which is used to solve the combinatorial optimization problem. This method aimed is to make the searching process of the best solution in a complex combinatorial optimization problem(np hard), ex : job shop scheduling problem, became more effective, in a less computational time but with no guarantee to optimum solution.
In this paper, tabu search is used to solve the job shop scheduling problem consists of 3 (three) cases, which is ordering package of September, October and November with objective of minimizing makespan (Cmax). For each ordering package, there is a combination for initial solution and tabu list length.
These result then compared with 4 (four) other methods using basic dispatching rules such as Shortest Processing Time (SPT), Earliest Due Date (EDD), Most Work Remaining (MWKR) dan First Come First Served (FCFS). Scheduling used Tabu Search Algorithm is sensitive for variables changes and gives makespan shorter than scheduling used by other four methods.
"
Depok: Lembaga Penelitian Universitas Indonesia, 2003
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Budi Irawan
"Tindak kejahatan pada era globalisasi sekarang ini semakin meningkat. Pentingnya penggunaan kamera pengawas juga semakin dirasakan perlu. Dengan adanya penggunaan kamera pengawas ini diharapkan dapat membantu pihak kepolisian dalam mengungkap kejahatan dengan cepat dan juga membantu dalam proses pengawasan. Namun, banyak keterbatasan dari kamera pengawas ini terutama ketika pengambilan citra dalam keadaan gelap atau minim pencahayaan. Padahal situasi gelap seperti ini adalah waktu tepat bagi para pelaku kejahatan melakukan aksinya. Oleh karena itu, penting untuk menemukan suatu cara untuk memecahkan permasalahan ini. Dalam penelitian ini akan dikembangkan algoritma untuk melakukan restorasi citra dari keadaan kurang cahaya atau gelap menjadi citra yang lebih terang dengan menggunakan jaringan saraf tiruan dan logika fuzzy. Penggunaan dua teknik ini didasari dari perkembangan ilmu pengetahuan keduanya yang pesat dan kemampuan yang sudah terbukti dalam memecahkan permasalahan yang berkaitan dengan citra. Algoritma ini nantinya juga akan mengakomodasi permasalahan pada citra yang berada pada intensitas minim pencahayaan yang berbeda-beda. Penentuan algoritma baik itu menggunakan logika fuzzy dan jaringan saraf tiruan mengacu pada beberapa penelitian sebelumnya yaitu algoritma restorasi warna menggunakan color change vector dan juga penelitian-penelitian yang berhubungan dengan logika fuzzy, jaringan saraf tiruan, dan pemrosesan citra. Hasil uji coba memperlihatkan hasil restorasi citra yang memuaskan diukur dari tingkat luminance dari warna tiap pixel baik untuk algoritma fuzzy maupun algoritma jaringan saraf tiruan walaupun teknik yang digunakan berbeda. Algoritma menggunakan logika fuzzy dikembangkan dengan memperhatikan unsur luminance dari warna. Sedangkan, algoritma menggunakan jaringan saraf tiruan dengan melalui proses pelatihan terlebih dahulu. Diharapkan algoritma ini menjadi dasar pengembangan algoritma restorasi selanjutnya dan dapat diintegrasikan dalam sistem kamera pengawas agar dapat berfungsi secara real-time."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2007
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rian Yusran
"Pada tugas akhir ini akan dibahas tinjauan mengenai beberapa teknik kompresi teks dan pengaruhnya terhadap bermacam sumber informasi. Algoritma kompresi yang akan dibandingkan adalah algoritma fano, shannon, huffman, alphabetic, arithmetic, lempel-ziv dan LZW. Semua algoritma tersebut penulis implementasikan dengan menggunakan bahasa pemrograman java. Algoritma ini diterapkan pada bermacam sumber informasi, dan dibandingkan pengaruh masing-masing algoritma kompresi terhadap sumber informasi tersebut. Sumber informasi yang dimaksud dalam skripsi ini adalah penghasil berita-berita berbahasa Indonesia yang dikelompokkan kedalam aspek ekonomi, politik, hankam, hukum, iptek, senibudaya, olahraga, dan kesehatan. Kedelapan macam sumber informasi itu dianalisis dengan metode sampling, yaitu dengan mengambil sampel berupa beberapa file berita. File-file berita tersebut diambil dari berbagai koran dan majalah online dalam rentang waktu dari 22 juni sampai 25 juni 2004 dan dari 4 agustus sampai 6 agustus 2004. Masing-masing aspek berita informasi ini akan mempunyai karakteristik yang berbeda-beda, sehingga perngaruh kompresi terhadap aspek berita tersebut berbeda-beda juga. Ada beberapa hal yang akan dibandingkan antara lain: compression ratio, efisiensi, kekhasan masing-masing metode kompresi. Compression ratio menunjukkan perbandingan besar file aslinya dengan file hasil kompresinya. Efisiensi menunjukkan perbandingan antara entropi dan panjang rata-rata untuk satu karakter. Hasil analisis terhadap ke-delapan macam sumber informasi tersebut menunjukkan bahwa tingkah-laku masing-masing sumber informasi tidak jauh berbeda satu sama lainnya. Untuk semua sumber informasi tersebut terlihat bahwa metode kompresi dictionary (universal source encoding) lebih baik dalam hal pemampatan bila dibandingkan dengan metode symbolwise."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2004
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>