Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 10 dokumen yang sesuai dengan query
cover
Saiful Bahri Musa
"One of ways to facilitate process of information retrieval is by performing clustering toward collection of the existing documents. The existing text documents are often unstructured. The forms are varied and their groupings are ambiguous. This cases cause difficulty on information retrieval process. More-over, every second new documents emerge and need to be clustered. Generally, static document clus-tering method performs clustering of document after whole documents are collected. However, per-forming re-clustering toward whole documents when new document arrives causes inefficient clus-tering process. In this paper, we proposed a new method for document clustering with dynamic hierar-chy algorithm based on fuzzy set type-II from frequent item set. To achieve the goals, there are three main phases, namely: determination of keyterm, the extraction of candidates clusters and cluster hierar-chical construction. Based on the experiment, it resulted the value of F-measure 0.40 for Newsgroup, 0.62 for Classic and 0.38 for Reuters. Meanwhile, time of computation when addition of new document is lower than to the previous static method. The result shows that this method is suitable to produce so-lution of clustering with hierarchy in dynamical environment effectively and efficiently. This method also gives accurate clustering result.
Salah satu cara untuk mempermudah proses information retieval adalah dengan melakukan peng-klasteran terhadap koleksi dokumen yang ada. Dokumen teks yang ada seringkali tidak terstruktur, formatnya bervariasi, dan pengelompokannya ambigu. Hal ini menimbulkan kesulitan dalam proses information retrieval. Selain itu, setiap detik dokumen baru bartambah dan perlu untuk dikelompokkan. Pada umumnya, metode pengklasteran dokumen statis melakukan pengklasteran dokumen setelah kese-luruhan dokumen terkumpul. Namun, melakukan pengklasteran ulang terhadap keseluruhan dokumen ketika dokumen baru tiba mengakibatkan proses pengklasteran menjadi tidak efisien. Penelitian ini mengusulkan metode baru untuk pengklasteran dokumen dengan algoritma hierarki dinamis berbasis fuzzy set type-II dari frequent itemset. Untuk mencapai tujuan tersebut, terdapat 3 tahapan utama yang akan dilakukan, yaitu; ekstraksi keyterm, ekstraksi kandidat klaster dan pembangunan hirarki klaster. Berdasarkan eksperimen yang telah dilakukan diperoleh nilai F-Measure 0,40 untuk Newsgroup, 0,62 untuk Classic, dan 0,38 untuk Reuters. Sedangkan waktu komputasi pada saat penambahan dokumen dapat direduksi dibanding dengan metode statis sebelumnya. Hasil percobaan terhadap beberapa dataset koleksi dokumen menunjukkan bahwa metode ini tidak hanya sesuai untuk menghasilkan solusi peng-klasteran secara hirarki dalam lingkungan yang dinamis secara efektif dan efisien, tetapi juga membe-rikan hasil pengklasteran yang akurat."
Surabaya: Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2016
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
"Ant-based document clustering is a cluster method of measuring text documents similarity based on the shortest path between nodes (trial phase) and determines the optimal clusters of sequence do-cument similarity (dividing phase). The processing time of trial phase Ant algorithms to make docu-ment vectors is very long because of high dimensional Document-Term Matrix (DTM). In this paper, we proposed a document clustering method for optimizing dimension reduction using Singular Value Decomposition-Principal Component Analysis (SVDPCA) and Ant algorithms. SVDPCA reduces size of the DTM dimensions by converting freq-term of conventional DTM to score-pc of Document-PC Matrix (DPCM). Ant algorithms creates documents clustering using the vector space model based on the dimension reduction result of DPCM. The experimental results on 506 news documents in Indo-nesian language demonstrated that the proposed method worked well to optimize dimension reduction up to 99.7%. We could speed up execution time efficiently of the trial phase and maintain the best F-measure achieved from experiments was 0.88 (88%).
Klasterisasi dokumen berbasis algoritma semut merupakan metode klaster yang mengukur kemiripan dokumen teks berdasarkan pencarian rute terpendek antar node (trial phase) dan menentukan sejumlah klaster yang optimal dari urutan kemiripan dokumen (dividing phase). Waktu proses trial phase algoritma semut dalam mengolah vektor dokumen tergolong lama sebagai akibat tingginya dimensi, karena adanya masalah sparseness pada matriks Document-Term Matrix (DTM). Oleh karena itu, penelitian ini mengusulkan sebuah metode klasterisasi dokumen yang mengoptimalkan reduksi dimensi menggunakan Singular Value Decomposition-Principal Component Analysis (SVDPCA) dan Algoritma Semut. SVDPCA mereduksi ukuran dimensi DTM dengan mengkonversi bentuk freq-term DTM konvensional ke dalam bentuk score-pc Document-PC Matrix (DPCM). Kemudian, Algoritma Semut melakukan klasterisasi dokumen menggunakan vector space model yang dibangun berdasarkan DPCM hasil reduksi dimensi. Hasil uji coba dari 506 dokumen berita berbahasa Indonesia membuk-tikan bahwa metode yang diusulkan bekerja dengan baik untuk mengoptimalkan reduksi dimensi hingga 99,7%, sehingga secara efisien mampu mempercepat waktu eksekusi trial phase algoritma se-mut namun tetap mempertahankan akurasi F-measure mencapai 0,88 (88%)."
Surabaya: Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2016
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
"Dental record is one of the ways to identify human identity. Identification requires a system, which is able to recognize each human tooth automatically. Teeth and gums becomes an important issue be-cause they have a high similarity in a dental radiograph image. This similarity tends to influence the segmentation error. This paper proposes a new contrast enhancement by using parameter sigmoid transform to improve the segmentation accuracy. The five main steps are: 1) preprocessing to improve the image contrast using our proposed method, 2) teeth segmentation using horizontal and vertical in-tegral projection, 3) feature extraction, 4) teeth classification using Support Vector Machine (SVM) and 5) teeth numbering. Experimental results using our proposed method have an accuracy rate of 88% for classification and 73% for teeth numbering.

Data rekaman gigi adalah salah satu cara untuk mengidentifikasi manusia. Pengidentifikasian membutuhkan sebuah sistem yang mampu mengenali tiap gigi secara otomatis. Intensitas gigi dan gusi yang hampir sama menjadi masalah utama pada citra dental radiographs karena dapat menga-kibatkan kesalahan dalam proses segmentasi. Pada paper ini diusulkan sebuah metode perbaikan kontras yang baru dengan menggunakan parameter sigmoid transform untuk meningkatkan keaku-ratan hasil segmentasi. Lima tahapan utama yaitu: 1) praproses untuk memperbaiki kontras gambar menggunakan metode yang diusulkan, 2) segmentasi gigi menggunakan horizontal dan vertical inte-gral projection, 3) ekstraksi fitur, 4) klasifikasi meggunakan Support Vector Machine (SVM) dan 5) penomoran gigi. Hasil eksperimen menggunakan metode yang diusulkan menunjukkan tingkat keaku-ratan hasil klasifikasi sebesar 88% dan penomoran gigi sebesar 73%."
Surabaya: Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2015
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
"Research on medical images becomes one of the studies that attracted many researchers, because it can help medical field to analyse the disease. One of the existing research in medical image is using dental panoramic radiographs image to detect osteoporosis. The analysed area is the width of cortical bone. Determination of the cortical bone width requires proper segmentation on the dental panoramic radiographs image. This study proposed the integration of watershed and region merging method based on statistical features for cortical bone segmentation on dental panoramic radiographs. Watershed segmentation process perform using gradient magnitude value from the input image. The watershed image that has excess segmentation can be solved by region merging based on statistical features. Statistical features used in this study is mean, standard deviation, and variance. The similarity of adjacent regions measure with weighted Euclidean distance from the statistical feature of the regions. Merging process will run by incorporating the background regions as many as possible, while keeping the object regions from being merged. Results of segmentation has succeeded in forming contour of the cortical bone. The average value of accuracy is 93.211%, the average value of sensitivity is 93.858%, and the average value of specificity is 93.071%.

Penelitian terhadap citra medis menjadi salah satu penelitian yang banyak diminati karena dapat membantu dokter untuk menganalisa penyakit. Salah satu penelitian yang ada dalam citra medis adalah menggunakan citra dental panoramic radiographs untuk mendeteksi osteoporosis. Daerah yang dianalisis adalah lebar dari cortical bone. Segmentasi yang tepat sangat dibutuhkan untuk me-nentukan lebar cortical bone pada dental panoramic radiographs. Pada penelitian ini diusulkan inte-grasi metode watershed dan metode region merging berbasis fitur statistik untuk segmentasi cortical bone pada dental panoramic radiographs. Citra masukan berupa cortical bone dilakukan proses gradient magnitude kemudian dilanjutkan dengan proses segmentasi menggunakan watershed. Citra hasil proses watershed yang masih memiliki segmentasi berlebih dilakukan proses region merging berbasis fitur statistik. Selanjutnya kemiripan antar region dihitung dengan menggunakan weighted Euclidean distance dari fitur statistik setiap region. Fitur statistik yang digunakan adalah mean, vari-ance, dan standar deviasi. Proses merging akan berjalan dengan melakukan penggabungan pada dae-rah background telebih dahulu selanjutnya sisa region yang dihasilkan akan digabungkan sebagai dae-rah objek. Hasil segmentasi yang dilakukan telah berhasil membentuk contour dari cortical bone. Da-ri hasil uji coba didapatkan rata-rata akurasi 93,211%, rata-rata sensitifitas 93,858%, dan rata-rata spesifisitas 92,071%."
Surabaya: Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2015
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Annisaa Sri Indrawanti
"Updating mechanism is the most important thing in giving the information for the end-user by send-ing the data from client to the server. There are several kinds of update mechanisms, one of them is reporting protocol. Reporting protocol sends the data from the client to the server continuously within a certain time period. Sometimes, the data that is sent continuously from the client to the server gives the same information repeatedly to the end-user. Although, there is no need for same information to be sent to the end-user repeatedly. This can cause a large amount of bandwidth usage. In this research, the researcher developed an improvement of reporting protocol mechanism for mobile user using cha-nge detection and resource-aware data sensing to minimize the bandwidth and resource usage. The data transmission frequency is reduced by the user activity changes prediction and the data sensing speed is reduced by adaptive data sensing. The results show that the improvement of reporting protocol mechanism adaptively can improve reporting protocol performance. This is shown by the improvement of the bandwidth efficiency up to 36-97%, memory efficiency at 1.5-6% and battery efficiency at 7-13%.
Mekanisme update memegang peranan penting dalam menyampaikan informasi kepada end-user dengan melakukan pengiriman data dari klien ke server. Ada beberapa mekanisme update yang digunakan, salah satunya adalah reporting protocol. Reporting protocol mengirimkan data dari klien ke server secara kontinyu dalam interval waktu tertentu dimana terkadang memberikan informasi yang selalu sama dan berulang kepada end-user. Padahal, informasi yang sama tidak perlu dikirim secara berulang kepada end-user karena menyebabkan penggunaan bandwidth menjadi kurang efisien. Dalam penelitian ini, peneliti mengembangkan sebuah perbaikan mekanisme reporting protocol dengan change detection dan resource aware data sensing untuk menghemat penggunaan bandwidth dan resource. Mekanisme perbaikan reporting protocol yang dilakukan adalah mengurangi frekuensi pengiriman data dengan memprediksi adanya perubahan aktivitas dan posisi pada user. Prediksi perubahan aktivitas dan posisi digunakan sebagai trigger ketika akan melakukan pengiriman data. Hasil penelitian menunjukkan bahwa mekanisme reporting protocol secara adaptif dapat meningkatkan performa reporting protocol. Hal ini ditunjukkan dengan penghematan bandwidth sebesar 36-97%, penghematan memori sebesar 1.5-6% dan penghematan baterai sebesar 7-13%."
Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2015
PDF
Artikel Jurnal  Universitas Indonesia Library
cover
Rizal Setya Perdana
"The popularity of Twitter has attracted spammers to disseminate large amount of spam messages. Preliminary studies had shown that most spam messages were produced automatically by bot. Therefore bot spammer detection can reduce the number of spam messages in Twitter significantly. However, to the best of our knowledge, few researches have focused in detecting Twitter bot spam-mer. Thus, this paper proposes a novel approach to differentiate between bot spammer and legitimate user accounts using time interval entropy and tweet similarity. Timestamp collections are utilized to calculate the time interval entropy of each user. Uni-gram matching-based similarity will be used to calculate tweet similarity. Datasets are crawled from Twitter containing both normal and spammer accounts. Experimental results showed that legitimate user may exhibit regular behavior in posting tweet as bot spammer. Several legitimate users are also detected to post similar tweets. Therefore it is less optimal to detect bot spammer using one of those features only. However, combination of both features gives better classification result. Precision, recall, and f-measure of the proposed method reached 85.71%, 94.74% and 90% respectively. It outperforms precision, recall, and f-measure of method which only uses either time interval entropy or tweet similarity.

Ketenaran Twitter mengundang spammer untuk menggunakannya dalam penyebarluasan pesan spam. Penelitian terdahulu menunjukkan bahwa kebanyakan pesan spam dihasilkan secara otomatis oleh bot. Deteksi bot spammer akan dapat mengurangi jumlah pesan spam pada Twitter secara signifikan. Akan tetapi, sejauh yang penulis ketahui, masih sedikit penelitian yang fokus dalam deteksi bot spammer pada Twitter. Sehingga, paper ini mengusulkan pendekatan baru untuk membedakan antara bot spammer dan pengguna sah menggunakan time interval entropy dan kemiripan antar tweet. Kum-pulan timestamp digunakan untuk menghitung time interval entropy dari tiap akun pengguna. Uni-gram matching-based similarity akan digunakan untuk menghitung kemiripan antar tweet. Dataset diambil dari Twitter yang terdiri atas kumpulan akun normal dan akun yang terindikasi sebagai bot spammer. Hasil percobaan menunjukkan beberapa pengguna sah Twitter juga memiliki kebiasaan yang teratur dalam menghasilkan tweet sebagaimana bot spammer. Beberapa pengguna sah juga ter-deteksi menghasilkan tweet yang mirip. Oleh karena itu, deteksi bot spammer menggunakan satu fitur saja akan kurang optimal. Akan tetapi, kombinasi atas kedua fitur tersebut memberikan hasil klasifi-kasi yang lebih baik. Presisi, recall, dan f-measure dari metode yang diusulkan mencapai 85.71%, 94.74% dan 90%. Nilai ini melampaui presisi, recall, dan f-measure dari metode yang hanya meng-gunakan baik time interval entropy maupun kemiripan antar tweet saja."
Surabaya: Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2015
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
M. Misbachul Huda
"Categorical data is a kind of data that is used for computational in computer science. To obtain the information from categorical data input, it needs a clustering algorithm. There are so many clustering algorithms that are given by the researchers. One of the clustering algorithms for categorical data is k-modes. K-modes uses a simple matching approach. This simple matching approach uses similarity va-lues. In K-modes, the two similar objects have similarity value 1, and 0 if it is otherwise. Actually, in each attribute, there are some kinds of different attribute value and each kind of attribute value has different number. The similarity value 0 and 1 is not enough to represent the real semantic distance between a data object and a cluster. Thus in this paper, we generalize a k-modes algorithm for catego-rical data by adding the weight and diversity value of each attribute value to optimize categorical data clustering.

Data Kategorial merupakan suatu jenis data perhitungan di ilmu komputer .Untuk mendapatkan infor-masi dari input data kategorial diperlukan algoritma klastering. Ada berbagai jenis algoritma klas-tering yang dikembangkan peneliti terdahulu. Salah satunya adalah K-modes. K-modes menggunakan pendekatan simple matching. Pendekatan simple matching ini menggunakan nilai similarity. Pada K-modes, jika dua objek data mirip, maka akan diberi nilai. Jika dua objek data tidak mirip, maka diberi nilai 0. Pada kenyataannya, tiap atribut data terdiri dari beberapa jenis nilai atribut dan tiap jenis nilai atribut terdiri dari jumlah yang berbeda. Nilai similarity 0 dan 1 kurang merepresentasi jarak antara sebuah objek data dan klaster secara nyata. Oleh karena itu, pada paper ini, kami mengembangkan algoritma K-modes untuk data kategorial dengan penambahan bobot dan nilai diversity pada setiap atribut untuk mengoptimalkan klastering data kategorial."
Surabaya: Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2014
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Febri Liantoni
"Ant Colony Optimization (ACO) is a nature-inspired optimization algorithm which is motivated by ants foraging behavior. Due to its favorable advantages, ACO has been widely used to solve several NP-hard problems, including edge detection. Since ACO initially distributes ants at random, it may cause imbalance ant distribution which later affects path discovery process. In this paper an adaptive ACO is proposed to optimize edge detection by adaptively distributing ant according to gradient ana-lysis. Ants are adaptively distributed according to gradient ratio of each image regions. Region which has bigger gradient ratio, will have bigger number of ant distribution. Experiments are conducted using images from various datasets. Precision and recall are used to quantitatively evaluate perfor-mance of the proposed algorithm. Precision and recall of adaptive ACO reaches 76.98% and 96.8%. Whereas highest precision and recall for standard ACO are 69.74% and 74.85%. Experimental results show that the adaptive ACO outperforms standard ACO which randomly distributes ants.

Ant Colony Optimization (ACO) merupakan algoritma optimasi yang terinspirasi oleh tingkah laku semut dalam mencari makan. Karena keunggulan yang dimilikinya, ACO banyak digunakan untuk menyelesaikan permasalahan non-polinomial yang sulit, salah satunya adalah deteksi tepi pada citra. Pada tahapan awal, ACO menyebarkan semut secara acak, hal ini dapat menyebabkan ketidak seim-bangan distribusi semut yang dapat mempengaruhi proses pencarian jalur. Paper ini mengusulkan algoritma adaptif ACO untuk mengoptimalkan deteksi tepi pada citra dengan cara menyebarkan se-mut awal secara adaptif berdasarkan analisis gradient. Semut disebarkan berdasarkan perbandingan gradient dari tiap bagian citra. Bagian citra dengan perbandingan gradient yang lebih besar akan men-dapatkan pembagian semut yang lebih banyak dibandingkan bagian lainnya. Percobaan dilakukan pada beberapa citra yang berasal dari berbagai data set. Precision dan recall digunakan sebagai alat untuk mengukur citra keluaran algoritma yang diusulkan secara kuantitatif. Berdasarkan hasil uji co-ba, adaptif ACO mampu mencapai precision dan recall hingga 76.98 % dan 96.8 %. Sedangkan, nilai precision and recall tertinggi menggunakan ACO murni mencapai 69.74% dan 74.85%. Hasil ini me-nunjukkan bahwa adaptif ACO mampu menghasilkan citra keluaran yang lebih baik dibandingkan ACO murni yang sebaran semut awalnya dilakukan secara acak."
Surabaya: Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2014
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Cahyono
"Image segmentation is typically used to distinguish objects that exist in an image. However, it remains difficult to accommodate favourable thresholding in multimodal image histogram problem with specifically desired number of thresholds. This research proposes a novel approach to find thresholds in multimodal grayscale image histogram. This method consists of histogram smoothing, identifi-cation of peak(s) and valley(s), and merging process using hierarchical cluster analysis. Using five images that consisted of grayscale and converted-to-grayscale images. This method yields maximum value of accuracy, precision, and recall of 99.93%, 99.75%, and 99.75% respectively. These results are better than the similar peak finding method in multimodal grayscale image segmentation.
Salah satu penggunaan segmentasi citra adalah membedakan objek-objek yang ada dalam suatu citra. Namun, untuk mengakomodasi suatu metode penentuan nilai ambang yang diinginkan dalam histo-gram multimodal citra masih sulit dilakukan. Maka dari itu, penelitian ini memberikan suatu pen-dekatan baru untuk menentukan nilai ambang dalam histogrammultimodal citra keabuan. Metode ini terdiri dari penghalusan histogram, identifikasi lembah dan puncak, dan proses penggabungan dengan analisis kluster hierarkis. Metode ini diuji dengan lima citra keabuan dan citra warna yang dikonversi ke citra keabuan dan menghasilkan nilai maksimum dari akurasi, presisi, dan recall masing-masing 99,93%, 99,75%, dan 99,75%. Hasil ini lebih baik daripada metode segmentasi citra keabuan dengan penentuan puncak yang mirip dengan metode dalam penelitian ini."
Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2014
PDF
Artikel Jurnal  Universitas Indonesia Library
cover
Dyah Rahayu
"In the software development cycle, validation is the important stage which is held in final stage especially in intelligent system. Validation obtains the validity, credibility and trustworthy of the system. It is needed to ensure that the intelligent system has same manner as human experts. Whilst with the importance of validation stage, determining the validation criteria is also important. This paper presents the evaluation of validation criteria which is commonly used in intelligent system validation process. The evaluation is carried out by reviewing the literature of intelligent system validation process. The result shows that the validation criteria have its own characteristic so it requires for understanding the validation criteria characteristics, purposes of validation and also the intelligent system itself to hold validation process.
Pada siklus pengembangan perangkat lunak, validasi adalah tahap penting yang diadakan ditahap akhir terutama dalam bidang sistem cerdas. Validasi dilakukan untuk memperoleh validitas, kredibilitas, dan kepercayaan terhadap sistem. Hal ini diperlukan untuk memastikan bahwa sistem cerdas memiliki cara yang sama seperti para ahli. Sementara itu dengan pentingnya tahap validasi, penentuan kriteria validasi juga menjadi penting. Makalah ini menyajikan evaluasi kriteria validasi yang umum digunakan dalam proses validasi sistem cerdas. Evaluasi dilakukan dengan melakukan review literatur dari proses validasi sistem cerdas. Hasil penelitian menunjukkan bahwa kriteria validasi memiliki karakteristik tersendiri sehingga untuk melaksanakan proses validasi diperlukan pemahaman terhadap karakteristik kriteria validasi, tujuan validasi dan juga sistem cerdas itu sendiri."
Institut Teknologi Sepuluh Nopember, Faculty of Information Technology, Department of Informatics Engineering, 2013
PDF
Artikel Jurnal  Universitas Indonesia Library