Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 127553 dokumen yang sesuai dengan query
cover
"Knowledge discovery in databases (KDD) merupakan proses pencarian pengetahuan bermanfaat dari data menggunakan teknik komputasi. Salah satu langkah khusus dalam KDD adalah data mining , yaitu aplikasi algoritma spesifik untuk mengekstrak pola/model dari data...."
Artikel Jurnal  Universitas Indonesia Library
cover
Arista Nurbaya
"Efisiensi prosedural kerja yang melibatkan relevansi antar data yang kompleks dan dalam kuantitas yang besar adalah sangat diperlukan. Salah satu solusi adalah dengan menggunakan fasilitas mesin database AS/400 yangmenyediakaii sarana untuk mengolah data kapasitas besar sesuai dengan keinginan pengguna dari operasi sistem yang tersedia. Dalam skripsi ini dibahas tentang dasar-dasar database relational, tujuannya adalah mempelajari fasilitas database relational yang terintegrasi pada AS/400. Database relational merupakan suatu cara untuk melihat data dengan model relational berkenaan dengan aspek data seperti struktur data, integritas data dan manipuiasi data. Pembahasan lebih jauh akan mengungkap seluk beluk tabel jamak, arsutektur database dan fasilitas database. Pada skripsi ini dibuat suatu rancangan aplikasi database untuk keperluan pembelian material menggunakan dasar-dasar database relational untuk membangun relasi antar data yang disediakan oleh AS/400. Algoritma yang dibangun mempertimbangkan mapping database relational dalam menuungkan kebutuhan pengolahan data yang diperlukan dalam proses pembelian. Selanjutnya program aplikasi ini dikembangkan dengan membangun program tambahan P/O error list sebagai sarana database material yang diabaakan dalam program aplikasi OSL supaya dapat dengan mudah diolah kembali jika diperlukan. Sistem AS/400 yang dipakai sebagai mesin database menyediakan fasilitas database relational tcrintegrasi akan mcmberikan data secara sama dan konsisten schingga dapat dibangun program aplikasi database yang cfisien. Respon waktu proses adalah salah situ sarana untuk mcngetahui parameter tersebut, mcskipun sistem dengan banyak pengguna seperti AS/400 akan bmariasi responnya sciring dengan beban data dan sistem. Dari hasil uji coba didapatkan bahwa program inti OSL akan menggunakan utilitas sistem 47 % dan memiliki efisiensi sekitar 20% dibandingkan dengan program aplikasi pembehan acuan."
Depok: Fakultas Teknik Universitas Indonesia, 2004
S40007
UI - Skripsi Membership  Universitas Indonesia Library
cover
Jacoueline, Irene
Depok: Fakultas Teknik Universitas Indonesia, 1992
S38256
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sri Mulyanti
"ABSTRAK
Dalam sistem basis data terdistribusi, replikasi dilakukan untuk tujuan meningkatkan ketersediaan data yakni mengatasi masalah kegagalan data pada beberapa site serta ' memperbaiki kinerja sistem dengan melibatkan replika seminimal mungkin dalam setiap transaksi.
Penelitian ini bertujuan membuat suatu algoritma yang mempunyai kinerja lebih baik dibandingkan dengan algoritma-algoritma berbasis Konsensus Kuorum dan algoritma ini mempunyai kinerja yang lebih baik untuk transaksi-transaksi tertentu dibandingkan dengan algoritma Read One Write All. Algoritma ini dibuat dengan asumsi kebaruan data tidaklah menjadi prasyarat.
Penelitian ini menghasilkan algoritma Penghitungan Konsistensi yang transaksi tulisnya cukup melibatkan sejumlah kuorum tulis replika dan transaksi bacanya cukup melibatkan sebuah replika pertama dari pasangan partisi data yang saling konsisten. Pembuktian terhadap algoritma Penghitungan Konsistensi dilakukan secara induksi. Untuk melihat kinerja algoritma ini, dibuat suatu program simulasi yang membandingkan ketiga algoritma: Penghitungan Konsistensi, Konsensus Kuorum dan Read One Write All.
Simulasi dilakukan dengan mengeksekusi ketiga algoritma terhadap transaksi-transaksi yang jenisnya bervariasi. Dari hasil simulasi ini, lama waktu komputasi konsistensi menunjukkan bahwa algoritma Penghitungan Konsistensi umumnya lebih baik daripada kedua algoritma lainnya; kecuali bila persentase transaksi baca tinggi sekali (di atas 78% transaksi baca), maka algoritma Read One Write All lebih baik. Jumlah replika yang terlibat transaksi menunjukkan bahwa algoritma Penghitungan Konsistensi umumnya lebih baik dibandingkan kedua algoritma lainnya (sekitar 85% bare tersusul oleh algoritma Read One Write All)."
1996
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Budi Irawan
"Tindak kejahatan pada era globalisasi sekarang ini semakin meningkat. Pentingnya penggunaan kamera pengawas juga semakin dirasakan perlu. Dengan adanya penggunaan kamera pengawas ini diharapkan dapat membantu pihak kepolisian dalam mengungkap kejahatan dengan cepat dan juga membantu dalam proses pengawasan. Namun, banyak keterbatasan dari kamera pengawas ini terutama ketika pengambilan citra dalam keadaan gelap atau minim pencahayaan. Padahal situasi gelap seperti ini adalah waktu tepat bagi para pelaku kejahatan melakukan aksinya. Oleh karena itu, penting untuk menemukan suatu cara untuk memecahkan permasalahan ini. Dalam penelitian ini akan dikembangkan algoritma untuk melakukan restorasi citra dari keadaan kurang cahaya atau gelap menjadi citra yang lebih terang dengan menggunakan jaringan saraf tiruan dan logika fuzzy. Penggunaan dua teknik ini didasari dari perkembangan ilmu pengetahuan keduanya yang pesat dan kemampuan yang sudah terbukti dalam memecahkan permasalahan yang berkaitan dengan citra. Algoritma ini nantinya juga akan mengakomodasi permasalahan pada citra yang berada pada intensitas minim pencahayaan yang berbeda-beda. Penentuan algoritma baik itu menggunakan logika fuzzy dan jaringan saraf tiruan mengacu pada beberapa penelitian sebelumnya yaitu algoritma restorasi warna menggunakan color change vector dan juga penelitian-penelitian yang berhubungan dengan logika fuzzy, jaringan saraf tiruan, dan pemrosesan citra. Hasil uji coba memperlihatkan hasil restorasi citra yang memuaskan diukur dari tingkat luminance dari warna tiap pixel baik untuk algoritma fuzzy maupun algoritma jaringan saraf tiruan walaupun teknik yang digunakan berbeda. Algoritma menggunakan logika fuzzy dikembangkan dengan memperhatikan unsur luminance dari warna. Sedangkan, algoritma menggunakan jaringan saraf tiruan dengan melalui proses pelatihan terlebih dahulu. Diharapkan algoritma ini menjadi dasar pengembangan algoritma restorasi selanjutnya dan dapat diintegrasikan dalam sistem kamera pengawas agar dapat berfungsi secara real-time."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2007
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rian Yusran
"Pada tugas akhir ini akan dibahas tinjauan mengenai beberapa teknik kompresi teks dan pengaruhnya terhadap bermacam sumber informasi. Algoritma kompresi yang akan dibandingkan adalah algoritma fano, shannon, huffman, alphabetic, arithmetic, lempel-ziv dan LZW. Semua algoritma tersebut penulis implementasikan dengan menggunakan bahasa pemrograman java. Algoritma ini diterapkan pada bermacam sumber informasi, dan dibandingkan pengaruh masing-masing algoritma kompresi terhadap sumber informasi tersebut. Sumber informasi yang dimaksud dalam skripsi ini adalah penghasil berita-berita berbahasa Indonesia yang dikelompokkan kedalam aspek ekonomi, politik, hankam, hukum, iptek, senibudaya, olahraga, dan kesehatan. Kedelapan macam sumber informasi itu dianalisis dengan metode sampling, yaitu dengan mengambil sampel berupa beberapa file berita. File-file berita tersebut diambil dari berbagai koran dan majalah online dalam rentang waktu dari 22 juni sampai 25 juni 2004 dan dari 4 agustus sampai 6 agustus 2004. Masing-masing aspek berita informasi ini akan mempunyai karakteristik yang berbeda-beda, sehingga perngaruh kompresi terhadap aspek berita tersebut berbeda-beda juga. Ada beberapa hal yang akan dibandingkan antara lain: compression ratio, efisiensi, kekhasan masing-masing metode kompresi. Compression ratio menunjukkan perbandingan besar file aslinya dengan file hasil kompresinya. Efisiensi menunjukkan perbandingan antara entropi dan panjang rata-rata untuk satu karakter. Hasil analisis terhadap ke-delapan macam sumber informasi tersebut menunjukkan bahwa tingkah-laku masing-masing sumber informasi tidak jauh berbeda satu sama lainnya. Untuk semua sumber informasi tersebut terlihat bahwa metode kompresi dictionary (universal source encoding) lebih baik dalam hal pemampatan bila dibandingkan dengan metode symbolwise."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2004
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ma`ruf Pattimura
"Perkembangan penggunaan internet dimanfaatkan dalam dunia pendidikan melalui metode Distance learning. Sebagai Salah satu bagian dari proses pendidikan. pelaksanaan ujian dalam Distance Learning dirasa memerlukan perhatian. Tanpa adanya evaluasi maka tidak dapat diketahui keberhasilan proses pembelajaran.
ADES (Agent-based Distance Educational System) sebagai Salah satu sistem yang menggunakan metode Dfsmnce Learning memiliki algoritrna yang cukup baik untukmenetukan tingkat pemahaman pelajar terhadap materi yang diajarkan serta untuk memilih soal ujian. Soal ujian yang dipilih dipengaruhi oleh hasil ujian sebelumnya. Algoritma sistem ini dapat digunakan untuk membantu proses evaluasi karena pengajar dapat mengetahui tingkat pemahaman masing-masing pelajar.
Modui Ujian dibuat menggunakan bahasa pemrograman PHP dan HTML serta database MySQL umuk penyimpanan datanya. Dalam aplikasinya algoritma ADES yang digunakan disesuaikan dengan kebutuhan modul ujian. Dengan penggunaan algoritma ADES pada modul ujian penentuan lingkat pemahaman pelajar menjadi Iebih akurat dibandingkan melalui ujian biasa. Hal ini disebabkan karena setiap pelajar akan memperoleh soal ujian yang berbeda tingkat kesukarannya, tergantung dari hasil ujian sebelumnya. Dengan demikian setiap pelajar akan memperoleh nilai yang sesuai dengan ringkat pemahamannya pada pelajaran tersebut."
Depok: Fakultas Teknik Universitas Indonesia, 2004
S40104
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nola Marina
"Flowshop Scheduling Problem (FSP) adalah masalah penjadwalan yang berkaitan dengan pengurutan pemrosesan n pekerjaan pada m mesin, dimana setiap pekerjaan harus diproses tepat satu kali pada setiap mesin dalam urutan yang sama, dengan waktu proses tertentu. Permutation Flowshop Scheduling Problem (PFSP) adalah kasus khusus dalam FSP, dimana n pekerjaan diproses dalam urutan yang sama pada setiap mesin.
Pada tugas akhir ini akan dilihat kinerja kombinasi Algoritma Memetika (AM) dan metode Greedy Randomized Adaptive Search Procedure (GRASP) dalam menyelesaikan PFSP dengan tujuan meminimumkan makespan. Kinerja metode AM dan GRASP dilihat dari kedekatan solusi yang dihasilkan dengan Best Known Solution (BKS) pada Taillard’s Benchmark dan dari waktu komputasinya.
Berdasarkan pengujian, disimpulkan bahwa metode AM dan GRASP cukup kompetitif dalam meyelesaikan PFSP dengan error relatif tidak lebih dari 2 %. Selain itu, metode AM dan GRASP lebih cepat konvergen ke solusi optimal dibandingkan dengan metode AM dan metode GRASP sendiri-sendiri."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2008
S27769
UI - Skripsi Open  Universitas Indonesia Library
cover
cover
Ferdian Sulaiman
"Pengujian yang dilakukan pada skripsi ini dilakukan untuk mengimplementasikan dan menganalisis sebuah algoritma navigasi otomatis untuk robot beroda yang juga ditunjang dengan algoritma untuk menghindari tabrakan. Algoritma ini bertujuan membuat robot yang dapat bergerak mengikuti jalur yang telah diberikan oleh sebuah aplikasi peta. Robot tersebut menggunakan smartphone Android sebagai unit pemrosesan utamanya dan IOIO sebagai perantara smartphone dengan sensor dan aktuatornya. Dalam menjalankan algoritma, digunakan GPS dan aplikasi peta dari smartphone. Skenario pengujian menggunakan tiga nilai akurasi posisi robot yang berbeda dan dilakukan sebanyak sepuluh pengujian per nilai akurasi. Nilai akurasi ini menentukan jarak dimana robot akan menganggap bahwa posisinya sudah berhasil mencapai suatu koordinat. Setelah dilakukan pengujian, hasil pengujian menunjukkan bahwa untuk akurasi posisi robot sebesar 3.145 m (perbedaan garis bujur dan lintang sebesar 0.00002), didapat nilai rata-rata jarak posisi robot dengan koordinat tertentu sebesar 2.003 m dengan rata-rata waktu tempuh selama tiga menit dua puluh satu detik. Untuk akurasi posisi robot sebesar 6.297 m (perbedaan garis bujur dan lintang sebesar 0.00004), didapat nilai rata-rata jarak 4.490 m dengan rata-rata waktu tempuh selama dua menit tiga puluh lima detik. Untuk akurasi posisi robot sebesar 10.22 m (perbedaan garis bujur dan lintang sebesar 0.000065), didapat nilai rata-rata jarak 6.720 m dengan rata-rata waktu tempuh selama dua menit tiga belas detik. Hal ini berarti algoritma tersebut memang dapat diimplementasikan ke robot beroda dengan tingkat akurasi tertentu. Tetapi, semakin tinggi tingkat akurasi, semakin lama waktu navigasi yang dibutuhkan. Kemampuan navigasi ini juga sangat dipengaruhi oleh sinyal GPS yang diterima oleh smartphone.

Trials in this final project are done to implement and analyze an automatic navigation algorithm for wheeled robot, with the support of collision avoidance algorithm. The purpose of this algorithm is to create a robot which can follow the route given by the map application. This robot uses smartphone Android as its main processor and IOIO as the link between this smartphone and the robot?s sensors and actuators. The built-in GPS and map application from smartphone are used in running the algorithm. The trial scenarios uses three different robot position accuracy and every scenario is done ten times. The accuracy determines the distance where the robot will assume that its position has reached certain coordinate. After the trials are done, the results show that when the robot position accuracy is 3.145 m (0.00002 difference in latitude and longitude), the average distance is 2.003 m with average travel time of three minutes and twenty one seconds. When the robot position accuracy is 6.297m (0.00004 difference in latitude and longitude), the average distance is 4.490m with average travel time of two minutes and thirty five seconds. When the robot position accuracy is 10.22 m (0.000065 difference in latitude and longitude), the average distance is 6.720m with average travel time of two minutes and thirteen seconds. It means that this algorithm is possible to be implemented in wheeled robot with certain accuracy. But, the more accurate it is, the longer it takes to navigate through the route. This ability to navigate is also very affected by GPS signal received by the smartphone."
Depok: Fakultas Teknik Universitas Indonesia, 2014
S55250
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>