Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 164112 dokumen yang sesuai dengan query
cover
Tito Wahyu Purnomo
"Sambungan las pada material perlu diuji dengan metode Non-Destructive Testing untuk memastikan spesifikasi desain dan fungsi material terpenuhi serta menjamin keamanan dan keandalan, karena cacat pada sambungan las dapat terjadi selama proses pengelasan. Deteksi cacat las merupakan bagian dari evaluasi citra radiografi yang dilakukan oleh ahli radiografi. Evaluasi citra radiografi dengan metode konvensional memiliki beberapa kekurangan, di antaranya proses pengolahan citra secara konvensional kompleks dan lama, hasil interpretasi yang terlalu subjektif, kurang konsisten terutama pada jumlah citra yang banyak, dan bias pada cacat yang serupa. Kekurangan ini dapat dikompensasi melalui otomatisasi evaluasi menggunakan algoritma deep learning dan computer vision berbasis YOLO. Penelitian ini membangun model deteksi dan segmentasi cacat las menggunakan arsitektur YOLOv8. Dataset yang digunakan adalah citra radiografi dengan bentuk penampang las horizontal dari database GDXRay dan citra radiografi elips (DWDV) dari hasil akuisisi dengan metode computed radiography. Penerapan teknik augmentasi citra geometri dan mosaik diterapkan untuk mengatasi keterbatasan dataset. Keluaran yang dihasilkan dari penelitian ini adalah model yang dibangun dapat melakukan deteksi dan segmentasi sebanyak 10 jenis cacat las, yaitu crack, cavity, excessive penetration, incomplete penetration, lack of fusion, porosity, slag inclusion, tungsten inclusion, undercut, dan worm-hole dengan nilai mAP untuk model yang dibangun dengan teknik augmentasi geometri adalah mAP50 = 0.798 dan mAP50-95 = 0.603 untuk bounding box, serta mAP50 = 0.790 dan mAP50-95 = 0.530 untuk mask. Sementara nilai mAP pada model yang dibangun dengan teknik augmentasi mosaik adalah mAP50 = 0.907 dan mAP50-95 = 0.743 untuk bounding box, serta mAP50 = 0.896 dan mAP50-95 = 0.648 untuk mask. Model deteksi dan segmentasi yang telah dibangun diharapkan dapat membantu operator dan ahli radiografi, serta calon operator dan ahli radiografi dalam mengevaluasi cacat las dengan lebih efisien dan akurat.

..Non-Destructive Testing needs to be performed on welded joints in materials to ensure that design specifications and material functions are fulfilled, as well as safety and reliability, due to defects in welded joints that may occur during the welding process. The evaluation of radiographic images includes the detection of weld defects by radiographers. Conventional radiographic image evaluation is more complex and time-consuming, subjective, inconsistent, especially in large numbers of images, and occasionally biased with respect to defects with similar features. This limitation can be compensated for by using YOLO-based deep learning and computer vision algorithms for evaluation automation. Using the YOLOv8 architecture, this study develops a detection and segmentation model for weld defects. A radiographic image with a horizontal weld region from the GDXRay database and an elliptical radiographic image (DWDV) from the acquisition using the computed radiography method represent the dataset. In order to overcome the limitations of the dataset, the geometric and mosaic image augmentation techniques were utilized. The mAP values for models built using the geometric augmentation are mAP50 = 0.798 and mAP50-95 = 0.603 for bounding boxes, and mAP50 = 0.790 and mAP50-95 = 0.530 for masks. Meanwhile, the mAP values for the model built using the mosaic augmentation are mAP50 = 0.907 and mAP50-95 = 0.743 for bounding boxes, and mAP50 = 0.896 and mAP50-95 = 0.648 for masks. The proposed model is able to detect and segment up to ten classes of weld defects, including cracks, cavities, excessive penetration, incomplete penetration, lack of fusion, porosity, slag inclusion, tungsten inclusion, undercut, and worm-hole. It is expected that the proposed detection and segmentation model will aid radiographers in evaluating weld defects more precisely and efficiently."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Satrya N. Ardhytia
"Kompresi citra adalah proses mengurangi ukuran dari citra dengan mengurangi kualitas dari citra tersebut. Metode Fraktal yang digunakan bekerja dengan mencari kemiripan pada piksel-piksel citra dan mengelompokkannya dalam beberapa cluster. Semakin tinggi tingkat kemiripan pada citra, rasio kompresi akan semakin baik. Pada citra berwarna (RGB) metode tersebut diulang sebanyak tiga kali, masing-masing untuk satu elemen warna. Hasil akhir dari proses kompresi adalah tiga virtual codebook, masing-masing untuk satu elemen warna, yang menyimpan nilai dari brightness, contrast, dan tipe transformasi affine yang digunakan untuk tiap cluster. Proses dekompresi dari metode ini adalah dengan membentuk citra kosong dengan resolusi yang sama dengan citra asli dan mengisikan nilai RGB pada tiap piksel yang bersangkutan dengan menghitung nilai yang tersimpan pada virtual codebook. Dengan menggunakan nilai Coefficient of Variation (CV) sebagai penyesuaian nilai standar deviasi dan 57 citra BMP24-bit, hasil pengujian menunjukkan rasio kompresi rata-rata sebesar 41.79%. Dengan metode paralel yang digunakan, proses kompresi citra berwarna menunjukkan rata-rata nilai speed-up sebesar 1.69 dan nilai efisiensi prosesor sebesar 56.34%.
Image compression is a process of reducing the size of the image by reducing the quality of the image. Fractal method is used to work by searching for similarities in the image pixels, and group them in clusters. The higher the degree of resemblance to the image, the better the compression ratio. In the color image (RGB) the method is repeated three times, each for one color element.The end result of the compression process is a three virtual codebook, each for one color element, which stores the value of the brightness, contrast, and the type of affine transformation are used for each cluster. Decompression process of this method is to form a blank image with the same resolution with the original image and fill in the RGB values at each pixel corresponding to the count value stored in the virtual codebook.By using the Coefficient of Variation (CV) as an adjustment value and standard deviation of 57 pieces of 24-bit BMP images, test results showed an average compression ratio of 41.79%. With the parallel method is used, the compression process of color image shows the average speed-up values of 1.69 and the processor efficiency of 56.34%."
Jakarta: Fakultas Teknologi Informasi Universitas Tarumanegara, 2010
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Ahmad Syahroni
"Permasalahan banyak benda (many-body) secara lengkap, dimana melibatkan interaksi elektron-ion dan interaksi elektron-elektron, merupakan permasalahan yang sulit untuk dipecahkan secara eksak. Pendekatan first-principles seperti Density Functional Theory (DFT) telah menjadi pilihan yang populer untuk mengamati band structure secara lengkap pada suatu material. Bagaimanapun juga, terlepas dari perumusannya yang telah mapan, hal itu tetap menjadi tantangan besar untuk menggunakan pendekatan DFT untuk mengamati efek yang yang disebabkan oleh korelasi yang kuat antara elektron secara benar. Saat ini telah diperkenalkan pendekatan yang menggabungkan DFT dengan pendekatan diagram Feynman, yang disebut metode GW, untuk mengoreksi efek dari interaksi antara elektron. Terlepas dari beberapa keberhasilan dari pendekatan GW berbasis DFT ini, pendekatan ini memiliki kekurangan yaitu tidak cukup eksibel untuk digunakan untuk memecahkan masalah dengan interaksi yang lain, seperti interaksi magnetik. Pada skripsi ini, kami memperkenalkan algoritma metode GW dalam kerangka tight- binding. Kami turunkan setiap langkah pada algoritma secara lengkap dengan menggunakan diagram Feynman dan konsep analytic continuation untuk mengekspresikan besaran-besaran fisika pada real frequency. Untuk tujuan tertentu, kami tertarik untuk menerapkan algoritma ini pada sistem graphene dengan harapan menggunakan metode ini untuk sifat optik sistem graphene dengan berbagai jenis interaksi tambahan dalam waktu mendatang.

The full many-body problem in condensed-matter physics, in which electronion as well as electron-electron (e-e) interactions play crucial roles, is very tough to solve exactly. To explore the details of the band structure of the material, a first-principles approach such as Density Functional Theory (DFT) has become a popular choice. However, a part from its well-established formulation, it remains a big challenge to use such an approach to capture effects arising from strong correlations among the electrons correctly. Nowadays, an approach to combine DFT with a Feynman diagrammatic approach, so called the GW method, to address the effects of e-e interactions, has been introduced. Despite some successes of the DFT-based GW approach, there is an issue that this approach does not seem exible enough to use for solving problems with other types of interactions, such as magnetic interactions. In this skripsi, we aim to introduce an algorithm of the implementation of GW method in the frame of tight-binding approximation. We rigorously derive each step in the algorithm with the aid of Feynman diagrams, and the concept of analytic continuation to express the physical quantities of interest in real frequency. For a particular purpose, we are interested to apply this algorithm to graphene in hope of using this method address optical properties of graphene systems with various kinds of additional interactions in the near future.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2014
S56170
UI - Skripsi Membership  Universitas Indonesia Library
cover
Daniel Baktiar
"Algoritma Lempel-Ziv adalah algoritma yang digunakan luas pada domain kompresi data secara umum. Salah satu algoritma yang diusulkan oleh Lempel-Ziv dikenal dengan LZ77. Aplikasi algoritma ini sangat menarik untuk kompresi teks, tetapi apakah pengembangan modifikasinya untuk melakukan kompresi citra secara lossy juga menjanjikan. Pada modifikasi lossy LZ77 kompresi dilakukan dengan pencarian string yang memiliki ?kemiripan?, dan perulangannya dikodekan. Tantangan yang dihadapi adalah efisiensi waktu dan kompresi. Melalui penelitian secara empiris penulis mencoba untuk menguji kebenaran pendapat yang dikemukakan oleh Atallah et al. mengenai efisiensi yang dapat dilakukan terhadap modifikasi lossy dari LZ77. Sensitivitas terhadap input masih dirasakan pada saat menggunakan kompresi ini."
Depok: Universitas Indonesia, 2001
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Tampubolon, Patuan Pangihutan
"Kebutuhan untuk mendapatkan pola yang terbentuk dari matriks biner pada masa ini dan mendatang, meningkat dengan pesat. Data dari 'clickstream' pengguna internet, 'face-recognition', matriks setelah dilakukan prapengolahan dari data kategorik, interaksi protein-protein dan masih banyak daftar lainnya yang menghasilkan matriks biner. Salah satu pola yang dapat dibentuk dari matriks biner merupakan satu himpunan submatriks yang semua entrinya bernilai 1. Submatrik tersebut disebut dengan 'bicluste''r' dengan jenis nilai konstan. Permasalahan dari pembentukan 'bicluster' disebut dengan 'biclustering'. Permasalahan tersebut tergolong dalam permasalahan 'NP-complete'. Meskipun demikian, hasil yang suboptimal mampu didapatkan dengan membuat algoritma 'biclustering'.
Penelitian ini mengusulkan suatu algoritma 'biclustering' baru dengan menggunakan jarak 'Hamming' antara satu kolom dengan kolom yang lainnya pada matriks biner. Algoritma yang diberi nama 'bicHPT' ('biclustering based on Hamming distance Pattern Table') ini, mampu membuat satu himpunan 'bicluster' dengan lima langkah, yaitu mereduksi kolom matriks, membuat tabel jarak 'Hamming', mencari kandidat 'bicluster', menyaring kandidat 'bicluster', dan membentuk 'bicluster'. Setelah uji coba performa, algoritma 'bicHPT' mampu menghasilkan satu himpunan 'bicluster', bahkan mampu mengungguli algoritma lain dalam hal jumlah 'bicluster' yang dibentuk. Algoritma ini juga mampu untuk diaplikasikan sebagai salah satu unsur yang digunakan untuk memprediksi interaksi protein-protein baru, antara protein 'Human Immunodeficiency Virus type' 1 (HIV-1) dan protein manusia. Total interaksi baru yang didapatkan dengan menggunakan algoritma ini ada sebanyak 482 interaksi.

The demand to obtain patterns from a binary matrix today and in the future is rapidly increasing. Data from internet users clickstreams, face-recognition, the matrix after preprocessing categorical data, protein-protein interactions, and so on that will produce a binary matrix. One kind of pattern that might be obtained from a binary matrix is a set of submatrices which all their entries have the value of 1. A submatrix is called with bicluster with constant values. The problem to make biclusters is called with biclustering. This problem is NP-complete. Although, the suboptimal solution might be obtained with constructing a biclustering algorithm.
This research proposes a novel biclustering algorithm based on Hamming distance among each column in a binary matrix. The algorithm which called with \pt (biclustering based on Hamming distance Pattern Table) can produce biclusters in 5 steps, which are, the column reduction of the matrix, constructing Hamming distance table, finding bicluster candidate, filtering bicluster candidate and forming the biclusters. After testing the performance, this algorithm can produce biclusters. Moreover, it can outperform another algorithm in numbers of biclusters. This algorithm is also succeeded to be applied as one of the elements to predict protein-protein interaction between Human Immunodeficiency Virus type 1 protein (HIV-1) and human protein. The total new interactions which using this algorithm are 482 interaction.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
T52670
UI - Tesis Membership  Universitas Indonesia Library
cover
Ahmad Sanusi
"Penggabungan dua hispunan terurut {merging) merupakan salah satu bahan pembahasan dalam bidang ilmu komputer, khususnya berkenaan dengan analisa dan konpleksitas algoritma serta kecepatan komputasi. Salah satu usaha untuk meningkatkan kecepatan komputasi masalah penggabungan ialah dengan menggunakan proses paralel. Oleh karena itu penulis meinbahas algoritma paralel penggabungan dari dua buah hispunan terurut pada model komputasi paralel SM CREW {SMred-Memory Concurrent Read, Exclusive Write) dari kelas koaputer SIMD ( Single Instruction Stream, Multiple Data Stream) dan SM EREW (Shared-Memory Exlusive Read, Exclusive Write) dari kelas komputer SIMD (Shared-Memory Single Instruction Stream, Multiple Data Stream), serta analisa algorima - algoritma tersebut. Untuk implementasinya dipakai metcda simulasi dengan bahasa pemrograman ADA, karena bahasa pemrograman ini mendukung dalam simulasi pemrosesan secara paralel. Dengan membuat simulasi ini dapat diperoleh hasil yang bisa dipakai untuk memperkirakan kemungkinan jika diimplementasikan pada kondisi yang sesungguhnya."
Depok: Fakultas Ilmu Sosial dan Ilmu Politik Universitas Indonesia, 1990
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dian Khusnia
"Citra dari suatu objek homogen (citra homogen) umumnya digunakan untuk mengetahui kinerja detektor melalui uji uniformitas, dengan memeriksa setiap elemennya apakah berfungsi dengan baik atau tidak mengandung artefak yang dapat mengganggu visibilitas citra. Citra homogen pada pesawat radiografi digital dapat dianalisis dengan metode uji uniformitas, karakterisasi noise menggunakan perhitungan SNR, dan karakterisasi noise menggunakan perhitungan varians (VAR) untuk dekomposisi noise. Analisis uji uniformitas secara kuantitatif terhadap citra radiografi digital dilakukan dengan menggunakan dua metode yaitu metode yang menggunakan 5 buah ROI berdasarkan IPEM Report No.91 dan Protokol Belgia untuk Kontrol Kualitas Tahunan Peralatan Sinar-X (RX-BHPA), serta metode yang menggunakan ROI half-overlapping yang diadopsi dari European Guidelines for Quality Assurance in Breast Cancer Screening and Diagnosis. Analisis citra radiografi digital ini dilakukan pada 2 pesawat AGFA DX-D100 Mobile dan 2 pesawat Siemens AXIOM Luminos dRF. Analisis uji uniformitas dilakukan terhadap citra radiografi digital untuk mengetahui nilai tipikal mean pixel value (MPV), varians (VAR), dan SNR terhadap nilai dosis atau faktor eksposinya. Selain itu, dapat diketahui juga nilai deviasi mean pixel value (MPV), varians, dan SNR. Pada penelitian ini, didapatkan batas nilai deviasi MPV˂5% di mana hal ini menjelaskan bahwa citra pada semua pesawat radiografi digital yang digunakan seragam. Didapatkan juga batas nilai deviasi varians sebesar ± 10% dan batas nilai deviasi SNR sebesar ± 5% yang dapat digunakan sebagai parameter uji uniformitas selanjutnya. Karakterisasi noise yang digunakan pada penelitian ini diadopsi dari European Guidelines for Quality Assurance in Breast Cancer Screening and Diagnosis. Analisis karakterisasi noise menggunakan perhitungan SNR dapat dilakukan terhadap citra radiografi digital dengan melihat hubungan linear dari grafik hubungan SNR2 dengan dosis. Selanjutnya, analisis karakterisasi noise menggunakan perhitungan varians (VAR) untuk dekomposisi noise dapat membedakan komponen noise pada citra menjadi quantum noise, electronic noise, dan structure noise. Quantum noise merupakan noise yang dominan dibandingkan electronic noise dan structure noise pada semua pesawat radiografi digital yang digunakan. Karakterisasi noise menggunakan perhitungan SNR dan dekomposisi noise ini diharapkan dapat menjadi parameter analisis kontrol kualitas untuk citra pesawat radiografi digital selanjutnya.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rendi Kurniawan
"Pada mode infrastruktur, ketika setiap kali node wired dan node wireless hendak mengirimkan paket data ke node wireless lainnya, data harus dulu dikirimkan ke access point (AP). Kemudian access point (AP) akan memforward paket data ke node coresponden. Oleh karena itu AP adalah tempat yang bagus untuk menambahkan mekanisme FEC untuk improve delivery video yang berkualitas. Jumlah redundant data yang ada pada mekanisme FEC statis adalah tetap.
Dalam Mekanisme EAFEC redundant data ditentukan oleh access point (AP) berdasarkan beban traffic jaringan dan wireless channel state. Algoritma EAFEC menentukan berapa jumlah paket redundant yang harus di-generate berdasarkan panjang antrian yang mengindikasikan beban traffic jaringan dan times retransmisi paket yang mengindikasikan wireless channel state. Layanan video streaming tidak pernah lepas dari throughput, delay, jitter dan packet loss.
Pada penelitian ini penulis membangun simulasi optimalisasi streaming video pada jaringan wireless. Penulis juga melakukan studi literatur dalam merancang simulasi ini. Dalam membangun simulasi penulis menggunakan aplikasi NS2 (network simulator) versi 2.28 yang berjalan diatas sistem operasi Microsoft Windows Xp Sp2 dengan aplikasi Cygwin.
Hasil output akhir pada NS-2 divisualisasikan berupa grafik dan tabel yang kemudian dianalisa lebih lanjut yaitu berupa pengukuran throughput, delay, jitter, packet error dan dengan menggunakan script AWK beserta beberapa tambahan modifikasinya. Dari thesis ini diperoleh performance dari penggunaan mekanisme EAFEC dapat mengurangi kemacetan pada jaringan (congestion) sehingga berdampak pula berkurangnya jumlah packet loss.

In the infrastructure mode, when a wired and wireless node wants to send data packets to other wireless nodes, data must first be sent to the Access Point (AP). The AP then forwards packets to the corresponding node. Therefore, AP is a good place for adding the FEC mechanism for improving video delivery quality. The number of redundant FEC data in a fixed number.
EAFEC redundant data is determined by AP which is based on both network traffic load and wireless channel state. EAFEC Algorithm determines number FEC redundant generated based on queue length indicating network traffic load and packet retransmisi times indicating wireless channel state. Streaming video services are usually related to throughput, delay, jitter and packet loss.
In this thesis, the author develops a simulation study of streaming video service on wireless network. The research method is performed studying and developing simulation using Network simulator (NS-2) application version 2.28. The application running at Microsoft Windows Xp SP2 operating sistem, with CYGWIN aplication.
The result of simulation are graphics and measurement such us throughput, delay, jitter and packet error. The measurements are conducted using AWK script with some modifications. From this thesis obtained performance usage of mechanism EAFEC can lessen traffic jam on network ( congestion ) also causing affects the lessen amounts of packet loss.
"
Depok: Fakultas Teknik Universitas Indonesia, 2009
T26920
UI - Tesis Open  Universitas Indonesia Library
cover
Krisnadi Tri Oktara
"Nilai Glomelural Filtration Rate (GFR) sebagai salah satu hasil pemeriksaan renogram, saat ini diperoleh dengan cara membuat Region of Interest (ROI) secara manual pada kedua ginjal. ROI ini akan menghasilkan jumlah cacahan dari kedua ginjal yang akan digunakan untuk menghitung GFR. Karena dibuat secara manual, maka ROI dan nilai GFR tersebut hasilnya subyektif dan bergantung pada kemampuan operator. Oleh karena itu, pembuatan ROI ginjal secara otomatis menggunakan prinsip segmentasi citra dengan algoritma pengolahan citra yang sudah ada dapat menjadi solusi. Proses pembuatan ROI ginjal secara otomatis meliputi 3 tahap yaitu pre-processing, image contrast enhancement, dan image segmentation.
Hasil akhir yang diperoleh adalah citra hasil pemeriksaan renogram dengan kedua ginjal yang sudah dibROI secara otomatis. Hasil pengujian yang dilakukan terhadap 35 pasien diperoleh 26 pasien berhasil di ROI secara otomatis dan 9 pasien gagal. Dari 26 pasien yang berhasil, hasilnya dibandingkan secara kuantitatif dengan ROI manual yang dilihat dari nilai true positive (TP), false negative (FN), dan false positive (FP). Diperoleh nilai rata-rata dari semua pasien yang berhasil yaitu TP 82,42%, FN 16,86%, dan FP 14,57%.

Glomelural Filtration Rate (GFR) value as one of the result of renogram examination, is obtained by delineate Region of Interest (ROI) manually on both kidney. This ROI will produce counts from both kidney which is used to calculate GFR. Because of delineate manually, the result would be subjective and depend on operators’ skill. Therefore, automatic kidney ROI using image segmentation with image processing algorithm that have been widely used can be one solution to relieve this problem. The process to make this automatic kidney ROI include 3 steps: pre-processing, image contrast enhancement, and image segmentation.
The final result is renogram examination image that both kidney have ROI automatically. Results of the test performed on 35 patients show 26 patients were successful and 9 patients failed because of some reasons. From this 26 successful patients, the results were compared quantitatively with manual delineation ROI as seen from true positive (TP), false negative (FN), dan false positive (FP) value. The average values ​​obtained from all patients who successfully ie TP 82.42%, FN 16.86%, and 14.57% FP.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2014
S57382
UI - Skripsi Membership  Universitas Indonesia Library
cover
Bagio Budiarjo
"ABSTRAK
Supercomputer, yang pada dekade delapan puluhan merupakan sarana komputasi berkinerja tinggi saat ini semakin kurang diminati oleh kalangan akademisi di universitas karena perbandingan biaya dan kinerjanya yang semakin menurun. Pilihan lain yang tersedia adalah jaringan komputer, terutama setelah berkembangnya programming tools yang mendukung implementasi algoritma komputasi paralel pada sarana tersebut.
Kecenderungan pemanfaatan jaringan komputer sebagai sarana komputasi berkinerja tinggi sejalan dengan perkembangan jaringan komputer itu sendiri, yang pada masa kini ditandai dengan : meningkatnya kinerja prosesor disertai dengan penurunan harga yang tajam, meningkatnya kapasitas transfer jalur komunikasi antar prosesor secara drastis dan tersedianya sarana bantu pemrograman yang semakin mendukung. Akibatnya, jaringan komputer yang banyak terdapat di lembaga pendidikan tinggi, dapat dimanfaatkan sesuai dengan kemampuannya sebagai sarana komputasi berkinerja tinggi. Penelitian ini I bertujuan untuk mengkaji kemampuan jaringan komputer dalam mendukung komputasi paralel.
Metode pengujian yang dilakukan adalah metode pengujian empiris. Dilakukan serangkaian ujicoba dengan program penguji yang dirancang khusus, atau benchmark programs, baik dalam bentuk synthetic benchmark maupun application benchmark. Program-program uji tersebut dirancang untuk menggali potensi kemampuan jaringan komputer, ditinjau dari : kinerja prosesornya, efektifitasnya dalam mendukung berbagai jenis penjadwalan beban kerja, kemampuan sarana pertukaran pesan antar prosesnya dan kemungkinan penerapan mekanisme untuk menghindari kegagalan proses komputasi (fault tolerant computing). Juga dilakukan penelitian terhadap faktor-faktor lain yang berpengaruh terhadap kinerja algoritma komputasi paralel, seperti : pemanfaatan prosesor heterogen dan pemanfaatan prosesor · dengan berbagai ukuran memori. Pengujian dilakukan secara berulang, untuk setiap jenis program penguji; agar didapatkan data statistik yang relatif konvergen.
Sebagai sarana uji coba, digunakan dua jenis computing platforms, yaitu Jaringan komputer homogen berbasis stasiun kerja SUN dan jaringan komputer heterogen berbasis komputer pribadi jenis terakhir.
Dari hasil uji coba dan analisa data yang telah dilakukan, dapat ditarik kesimpulan bahwa jaringan komputer memiliki potensi yang besar untuk dapat dimanfaatkan sebagai sarana penerapan algoritma komputasi paralel. Semakin banyak prosesor yang digunakan, semakin cepat proses dapat diselesaikan. Walaupun demikian, pengguna sarana jenis ini harus memperhatikan keterbatasan yang ditemukan pada penelitian : pertukaran pesan antar proses harus dilakukan dengan perhitungan cermat, karena relatif rendahnya kemampuan transfer data dari saluran komunikasi dan kurang efisien-nya protokol pendukung. Kinerja jaringan akan optimal bila algoritma paralel dapat dijadwalkan dengan membagi beban secara seimbang keseluruh prosesor yang berpartisipasi dan membatasi pertukaran pesan seminimal mungkin. Semakin tinggi kompleksitas beban kerja prosesor, semakin baik kinerja jaringan yang diperoleh, ditinjau dari perolehan percepatan proses (speed-up). Pada jaringan ho111ogen, penyei1nbangan be ban kerja paralel relatif mudah untuk dilakukan, karena kemampuan olah prosesor yang setara. Pada jaringan heterogen, penyeirnbangan beban lebih sulit untuk dilakukan, karena kemampuan prosesor yang berbeda. Pendekatan yang dilakukan pada jaringan jenis ini adalah, menjadwalkan beban dengan mengusahakan agar kompleksitas beban kerja setara dengan kemampuan olah prosesor yang dituju (heuristic). Ukuran memory, berpengaruh terhadap kinerja program. Program dengan ukuran relatif besar, yang melebihi kapasitas memory yang ada, menimbulkan terjadinya proses paging antara memori utama dan memori maya, yang memperlambat waktu olah program secara keseluruhan.
"
Depok: Fakultas Teknik Universitas Indonesia, 1997
LP-pdf
UI - Laporan Penelitian  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>