Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 12621 dokumen yang sesuai dengan query
cover
Mohd Zul Helmi Rozaini
"Studies on the determination of Critical Micelle Concentration (CMC), of mixed surfactants were carried out at 30°C for hexadecyltrimethylammonium bromide (HTAB) and polyoxyethylene sorbitan monolaurate (Tween 20), hexanol and water. From the phase diagram, a composition of 0.2 to 1.0 fraction of water is the best area for normal micelle region for HTAB and 0.3 to 1.0 fraction of water for Tween 20 with curving upward the 1-hexanol apex maximum solubility of 1-hexanol. From the fluorescence method, the CMC value for pure T20 and HTAB were 1.6293×10-3 M and 2.7439×10-3 M respectively. While for CMC1 and CMC11 value for mixed surfactant system at mole ratio 0.2: 0.8 (T20: HTAB) were CMC1: 2.358×10-3 M and CMC11: 7.0741×10-3 M. These finding were observed upon the theoretical values, which indicate the synergistic behavior between both surfactants."
Depok: Faculty of Engineering, Universitas Indonesia, 2012
UI-IJTECH 3:2 (2012)
Artikel Jurnal  Universitas Indonesia Library
cover
cover
Rimania Dwi Haryani
"Beberapa jenis obat memiliki sifat sukar larut dalam air sehingga perlu ditingkatkan kelarutannya menggunakan sistem pembawa obat. Pada penelitian ini digunakan miselbiosurfaktan sebagai pembawa obat carvedilol, obat yang memiliki kelarutan 0.0044 mg/mL dalam air. Biosurfakan saponin didapatkan dari ekstrak daun mengkudu Morinda citrifolia L. yang mudah didapat di Indonesia. Saponin dalam fraksi air diidentifikasi dengan uji fitokimia dan dikarakterisasi dengan FTIR, spektrofotometer UV-Vis, dan mikroskop optik. Nilai CMC saponin didapatkan 500 ppm dalam air, 300 ppm dalam media pH 1.2, dan 600 ppm dalam media pH 7.4. Nilai solubilisasi carvedilol dalam misel dilakukan dengan spektrofotometer UV-Vis. Solubilisasi optimum didapatkan pada konsentrasi saponin 1000 ppm, konsentrasi carvedilol 300 ppm, dan waktu kontak 5 jam. Dalam media pH 7.4, carvedilol dapat terdisolusi lebih baik dibandingkan dalam media pH 1.2 dalam waktu 1 jam.

Some of medicines have the characteristic of insoluble in water so they require a drug carrier system to enhance its solubilization. This research uses a micelle drug carrier system to carry carvedilol, which is a drug with 0.0044 mg mL of water solubility. Bio surfactant saponin got from the extract of noni Morinda citrifolia L. leaves that easily get in Indonesia. The saponin is extracted from the water fraction that has been identified byfito chemical test and has been characterized using FTIR, spectrophotometer UV VIS, and through optical microscope. The CMC value is 500 ppm in water, 300 ppm in pH 1.2, and 600 ppm in pH 7.4. The measurement of micelles rsquo s optimum solubilization for carvedilol is measured by UV Vis spectrofotometry. Result shows that the maximum solubilization of carvedilol in the maximum saponin concentration of 1000 ppm is 300 ppm, and the time required of making contact is 5 hours. The disolution percentage of carvedilol better in pH 7.4 than in pH 1.2 within 1 hour.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2017
S66830
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adi Wahyu Pribadi
"Setiap dokumen pada koleksi menjelaskan suatu konsep berdasarkan topik yang dibahasnya Konsep tersebut didapat dengan teknik pengindeksan konseptual atau Latenl Semantic Indexing. Teknik tersebut mengakibatkan jumlah dokumen yang terambil lebih banyak karena adanya perluasan kueri (c/uery expansion) secara konseptual. Seiring berjalannya waktu, teijadi penambahan dokumen sehingga indeks menjadi tidak lengkap. Digunakan metode penambahan dokumen secara dinamis pada indeks konseptual yang ada dengan metode folding-in dan SVD- Update. Ujicoba dilakukan pada kumpulan hasil penelitian lembaga BATAN sebanyak 1162 abstrak dokumen. Berdasarkan ujicoba, pada model pengindeksan konseptual dokumen yang terambil lebih banyak yaitu rata-rata 12,63% dibandingkan dengan penggunaan pengindeksan biasa sebanyak 10,37%, Pada ujicoba penambahan dokumen, terjadi penurunan kinerja yang tidak signifikan yaitu 0,5% hingga 2% saja.

Each document in the collection describes a concept based on particular topics. The concept is obtained with the technique of conceptual or latent Semantic Indexing. The technique resulting in the number of documents fetched more because of the conceptual queiy expansion. Over time, Ihere was the addition of documents so that the indexes are not complete. Using Folding-in and SVD- Update to update the index of document collection conceptually. We use BATAN research collection of 1162 document abstracts. Based on testing, on the conceptual model of the document fetched more with the average of 12.63% compared with the normal indexing of 10.37%. On testing of adding documents, a decline of performance that is not significant, namely 0.5% to 2% only."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
T25887
UI - Tesis Open  Universitas Indonesia Library
cover
Delano Novrilianto
"ABSTRAK
Pendeteksian topik merupakan proses untuk mendapatkan topik dari koleksi data tekstual. Salah satu metode otomatis untuk masalah pendeteksian topik adalah Separable Nonnegative Matrix Factorization SNMF . Terdapat tiga tahap yang dilakukan untuk menyelesaikan SNMF yakni membentuk matriks kookurensi kata-kata, menentukan kata-kata anchor, dan mencari matriks kata-topik. Metode yang umum digunakan untuk menentukan kata-kata anchor pada tahap kedua dari penyelesaian SNMF adalah dengan metode berbasis Convex Hull. Pada penelitian ini digunakan pendekatan lain untuk menentukan kata-kata anchor yaitu dengan memakai metode Singular Value Decomposition SVD . Topik-topik yang dihasilkan dengan kata-kata anchor -nya ditentukan dengan metode SVD dievaluasi tingkat intepretabilitasnya dengan memakai satuan Pointwise Mutual Information PMI dan dibandingkan dengan topik-topik dimana kata-kata anchor -nya ditentukan dengan metode berbasis Convex Hull. Waktu komputasi yang dibutuhkan untuk menentukan kata-kata anchor dengan metode SVD juga dibandingkan dengan waktu komputasi yang dibutuhkan untuk menentukan kata-kata anchor dengan metode berbasis Convex Hull.

ABSTRACT
Topic detection is the process of getting topics from a collection of textual data. One of the methods for detection problems is the Separable Nonnegative Matrix Factorization SNMF . There are three stages done to complete SNMF that is to form the word kookurensi matrix, determine the anchor words, and search for the word topic matrix. The common method used to determine the anchor words in the second stage of SNMF completion is the Convex Hull based method. In this research another approach is used to determine the anchor words, that is using Singular Value Decomposition SVD method. The resulting topics where the anchor words are determined by the SVD method will be evaluated for their interpretability level by using the Pointwise Mutual Information PMI unit and will compare with the topics where the anchor 39 s words are based on the Convex Hull based method. The computational time required to determine the anchor words by the SVD method will also be compared with the computational time required to determine the anchor words by the Convex Hull based method."
2017
S68021
UI - Skripsi Membership  Universitas Indonesia Library
cover
Duffy, Dean G.
Boca Raton: Chapman & Hall/CRC , 2008
515.35 DUF m
Buku Teks SO  Universitas Indonesia Library
cover
Cohen, Einya
The Hague: Mouton, 1977
R 419.03 COH n
Buku Referensi  Universitas Indonesia Library
cover
Pratama Amirullisan
"Kebutuhan terhadap Internet sudah sangat dirasakan, namun, akibat kurangnya kontrol dalam mengawasi kegiatan berselancar di dunia maya ini, menjadikan konten yang dapat merusak moral tersebar dengan sangat cepat dan begitu leluasa untuk diakses oleh setiap orang.
Penelitian ini membahas Analisa dan Rancang Bangun Sistem Deteksi Cepat Konten Web Negatif Berbasis Teks Menggunakan Random Sampling dan Latent Semantic Analysis dengan Algoritma Singular Value Decomposition yang bertujuan untuk mengklasifikasikan website-website berkonten negatif dengan langkah awal melakukan penelusuran terhadap link-link pada suatu website dengan teknik crawling oleh program web crawler untuk mengumpulkan konten website yang berupa teks. Seluruh konten teks yang telah dikumpulkan selanjutnya akan diklasifikasikan menggunakan metode Latent Semantic Analysis dengan menerapkan algoritma Singular Value Decomposition untuk menunjukkan hasil klasifikasi yang mampu membedakan antara website berkonten negatif dengan konten non-negatif. Pengujian dilakukan dengan menggunakan metode full sampling dan random sampling untuk menentukan cara pendeteksian website berkonten negatif yang lebih cepat.
Hasil pengujian pada penelitian ini menunjukkan bahwa metode Latent Semantic Analysis dengan algoritma Singular Value Decomposition berhasil mengklasifikasikan website berkonten negatif dengan batas persentase hasil klasifikasi sebesar 70% sebagai indikatornya, dan metode random sampling dengan pengambilan sample hanya 30% dari total telah berhasil meningkatkan kecepatan eksekusi program rata-rata sebesar 507.01%, dengan penurunan akurasi rata-rata hanya sebesar 27.19% dibandingkan dengan metode full sampling untuk website berkonten negatif.

The need of the Internet has been keenly felt, however, due to a lack of control in monitoring the activities of surfing in this virtual world, making contents that will damage the morale spread very quickly and so freely accessible to everyone.
This study discusses the Analysis and Design of Quick Detection System to Text-Based Negative Web Content Using Random Sampling and Latent Semantic Analysis with Singular Value Decomposition Algorithm which aims to classify negative content websites with the first step is to perform a search for links in a website using crawling technique by a web crawler program to gather website content in the text form. The entire text-based contents that have been collected will then be classified using Latent Semantic Analysis method by applying Singular Value Decomposition algorithm to show the result of classification that is able to distinguish the negative content and non-negative content website. The testing is performed using full sampling and random sampling method to determine which one is faster in doing the detection of negative content website.
The results of this study showed that Latent Semantic Analysis method with Singular Value Decomposition algorithm successfully classifies the negative content websites with the percentage of classification result by 70% as the indicator, and the random sampling method with only 30% of total samples has been successful in increasing the speed of program execution by an average of 507.01%, with decreasing accuracy by an average of only 27.19% compared to full sampling method for negative content websites.
"
Depok: Fakultas Teknik Universitas Indonesia, 2016
S66330
UI - Skripsi Membership  Universitas Indonesia Library
cover
Laskito Harmantyo
"Aplikasi information retrieval dalam wujud mesin pencari atau search engine sudah dikenal luas oleh pengguna internet. Informasi bisa didapatkan dengan melakukan pencocokan istilah dalam dokumen dengan istilah yang ingin dicari. Kata yang dimasukkan dalam query dicari kehadirannya dalam sejumlah dokumen. Pencocokan ini merupakan pencocokan secara harfiah atau yang dikenal dengan lexical matching. Metode pencocokan secara harfiah ini dapat memberikan hasil yang kurang akurat karena pencocokan harfiah hanya melihat kesamaan bentuk kata atau istilah saja tanpa melihat makna dan korelasi istilah tersebut. Latent Semantic Indexing (LSI) mengatasi masalah tersebut dengan menggunakan pendaftaran dan penyusunan istilah secara statistik. Struktur laten dituangkan dan digambarkan secara matematis dalam elemen-elemen matriks yang terukur. Teknik Singular Value Decomposition (SVD) digunakan untuk melakukan estimasi struktur penggunaan kata dalam dokumen-dokumen. SVD juga dipakai untuk meminimalisasi perhitungan dan meningkatkan performa information retrieval. Pembobotan pada dokumen dan query ditambahkan untuk meningkatkan performa relevansi perolehan dokumen. Implementasi LSI dengan SVD dilakukan secara web-based, dengan koleksi dokumen berupa judul dan abstrak dari sejumlah skripsi mahasiswa teknik elektro. Hasil ujicoba memberikan kesimpulan bahwa dari seluruh rangkaian proses perolehan informasi, 95% waktunya dihabiskan untuk kalkulasi SVD. Selain itu, pemakaian fitur klasifikasi dapat mempercepat proses sampai 64 kali waktu tanpa klasifikasi. Berbagai metode pembobotan juga terbukti memberikan hasil perolehan dokumen yang berbeda pada query yang sama, dengan tingkat relevansi yang berbeda. Berdasarkan perhitungan Non Interpolated Average Precision, skema pembobotan frekuensi kata untuk dokumen dan query merupakan skema yang paling baik dalam hal presisi.

Information retrieval in form like search engine has already known by a lot of internet users. Information can be obtained by doing terms matching. Terms in documents are matched dan compared by terms given by users in query. Such method like this known as lexical matching. This method can give inaccurate results because the mechanism is only matching and seeing the similarities of words without giving any concern of meaning or relevancy. Latent Semantic Indexing (LSI) try to compensate this problem by doing indexing and arranging terms in statistical manner. Latent structures are developed in mathematical way as values in matrices elements. Singular Value Decomposition (SVD) is used to estimating the structure of words in documents. In addition, SVD minimalize the matrices calculation and improves the performance of information retrieval application. Weighting scheme to documents and query added to improves the performance of relevancy retrieval. LSI with SVD implemented in web based way, with title and abstract from student of electrical engineering papers as document corpus. The experiment gives a fact that from all LSI process time, for about 95% is spent for SVD calculation. Classification feature of this application gives an acceleration up to 64 times of common process time (without classification). The number of user agent accessing the application gives a slow effect of processing time in linear manner. The great number of user, the longer process time. Various kind of weighting scheme makes a different documents retrieval result at the same queries. Calculation of Non-Interpolated Average Precision stated that word frequency weighting scheme for both document and query is the best in precision performance."
Depok: Fakultas Teknik Universitas Indonesia, 2007
S40368
UI - Skripsi Membership  Universitas Indonesia Library
cover
Boma Anantasatya Adhi
"SIMPLE-O merupakan sistem penilaian esaiotomatis berbasis latent semantic analysis (LSA) yang bergantungpada Java Matrix untuk melakukan perhitungan singular value decomposition (SVD) dalam melakukan penilaian. Pada skripsi ini akan dibahas mengenai implementasi proses SVD pada platform general purposes graphic processing unit (GPGPU)pada SIMPLE-O yang lebih cepat daripada algoritma sekuensial biasa yang ada pada JAMA.GPGPU merupakan suatu platform komputasi paralel performa tinggi yang berbasiskan Graphic Processing Unit komersial biasa.
Implementasi akan dilakukan dengan cara memindahkan proses eksekusi SVD pada SIMPLE-O ke modul eksternal yang ditulis dalam bahasa Cdengan Application Programming Interface (API) untuk GPGPU seperti CUDA, CULA tools, danOpenCL. Performa diukur dengan peningkatan kecepatan waktu kalkulasi SVD dan jumlah kalkulasi yang dapat dilakukan setiap detiknya. Implementasi GPGPU meningkatkan performa pada matriks ukuran 512x512 berkisar antara lebih dari 200 kali lipat (CULA tools) hingga 4200 kali lipat (OpenCL).

Simple-O is an automated essay grading system based on latent semantic analysis (LSA) which depends on Java Matrix (JAMA) for singular value decomposition (SVD) calculation.This paper will present an implementation of SVD calculation on General Purpose Graphic Processing Unit (GPGPU) platformin SIMPLE-O, which is essentially faster and more efficient than standard sequential algorithm found in JAMA. GPGPU is a high performance parallel computing platform based on commercially available 3D Graphic Processing Unit.
Implementation will be done by altering the SVD execution unit to pipe an external module written in C with GPGPU Application Programming Interface (API) such as CUDA, CULA tools and OpenCL. Performance will be measured in terms of SVD calculation time improvements and numbers of calculation per second. Over 200 times (CULA tools) up to 4200 times (OpenCL) performance gain were measured in 512 x 512 matrix.
"
Depok: Fakultas Teknik Universitas Indonesia, 2010
S51220
UI - Skripsi Open  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>