Ditemukan 19 dokumen yang sesuai dengan query
Cohen, Einya
The Hague: Mouton, 1977
R 419.03 COH n
Buku Referensi Universitas Indonesia Library
Saitz, Robert L.
Paris: Mouton, 1972
419 SAI h
Buku Teks SO Universitas Indonesia Library
Sandler, Wendy
New York: Cambridge University Press, 2006
419 SAN s
Buku Teks SO Universitas Indonesia Library
"What are the unique characteristics of sign languages that make them so fascinating? What have recent researchers discovered about them, and what do these findings tell us about human language more generally? This thematic and geographic overview examines more than forty sign languages from around the world. It begins by investigating how sign languages have survived and been transmitted for generations, and then goes on to analyze the common characteristics shared by most sign languages: for example, how the use of the visual (rather than the auditory) system affects grammatical structures. The final section describes the phenomena of language variation and change. Drawing on a wide range of examples, the book explores sign languages both old and young, from British, Italian, Asian and American to Israeli, Al-Sayyid Bedouin, African and Nicaraguan."
Cambridge, UK: Cambridge University Press, 2010
e20394969
eBooks Universitas Indonesia Library
Johnston, Trevor
Cambridge, UK: Cambridge University Press, 2014
419.94 JOH a
Buku Teks SO Universitas Indonesia Library
Jakarta: Departemen Pendidikan dan Kebudayaan, 1994
R 419 IND k
Buku Referensi Universitas Indonesia Library
Valentino Herdyan Permadi
"Perkembangan teknologi saat ini sudah mampu menunjang kegiatan belajar mengajar secara daring. Salah satu metode yang digunakan untuk melakukan kegiatan tersebut adalah secara asinkronus. Umumnya, materi yang disampaikan secara asinkronus menggunakan video pemelajaran. Pengajar mengunggah video pemelajaran pada sebuah layanan Learning Management System (LMS) dan siswa menggunakan video tersebut sebagai bahan belajar. Siswa tunarungu mengalami kesulitan mengikuti kegiatan pemelajaran dengan media tersebut karena kurangnya fitur aksesibilitas pada LMS yang digunakan. Fasilkom UI sebelumnya sudah mengembangkan modul pengubah suara menjadi teks dengan Automatic Speech Recognition (ASR) dan pengubah teks menjadi animasi bahasa isyarat (Text-to-Gesture). LMS yang digunakan adalah Moodle. Pada penelitian ini, dikembangkan suatu layanan yang bisa mengintegrasikan modul ASR dengan aplikasi Text-to-Gesture. Penelitian ini mengembangkan sebuah Application Programming Interface (API) yang bisa menerima hasil ASR dan mengirimkannya ke aplikasi Text-to-Gesture. Animasi dibangkitkan dengan aplikasi Text-to-Gesture yang di saat bersamaan direkam dan kemudian diproses menggunakan FFmpeg. Hasil prosesnya kemudian dikirimkan kembali ke Moodle untuk disajikan sebagai bahan ajar. Pada penelitian ini disimpulkan pengembang dapat membuat sebuah API yang bisa menghubungkan modul ASR pada Moodle dengan aplikasi Text-to-Gesture. API yang dibuat juga bisa dihubungkan dengan aplikasi lain selain Moodle selama mengikuti format yang sama dengan modul ASR.
The current technology development has been able to support online learning activities. One of the methods used for such activities is asynchronous learning. Typically, asynchronous learning materials utilize instructional videos. Educators upload instructional videos to a Learning Management System (LMS), and students use these videos as learning materials. Deaf students face difficulties in following the learning activities with these media due to the lack of accessibility features in the LMS being used. Previously, Fasilkom UI has developed modules to convert speech into text using Automatic Speech Recognition (ASR) and to convert text into sign language animations (Text-to-Gesture). The LMS used in this research is Moodle. In this study, a service was developed to integrate the ASR module with the Text-to-Gesture application. An Application Programming Interface (API) was developed to receive ASR results and send them to the Text-to-Gesture application. The animations that are generated using the Text-to-Gesture application are recorded and then processed using FFmpeg. The processed results are then sent back to Moodle to be presented as teaching materials. This research concludes that developers can create an API to connect the ASR module in Moodle with the Text-to-Gesture application. The created API can also be connected to other applications as long as they follow the same format as the ASR module."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
"This book constitutes revised selected papers from the 9th International Gesture Workshop, GW 2011, held in Athens, Greece, in May 2011. The 24 papers presented were carefully reviewed and selected from 35 submissions. They are ordered in five sections named: human computer interaction; cognitive processes; notation systems and animation; gestures and signs: linguistic analysis and tools; and gestures and speech."
Berlin: Springer-Verlag, 2012
e20407814
eBooks Universitas Indonesia Library
Aldi
"Mempelajari bahasa isyarat bukanlah sesuatu yang mudah. Untuk membantu mempelajari bahasa isyarat, muncul penelitian mesin translasi gerakan isyarat menjadi teks yang dapat dibaca. Untuk penggunaan secara luas, terdapat mesin translasi gerakan isyarat menjadi teks memanfaatkan telepon pintar. Hasil teks yang dihasilkan oleh mesin translasi bergantung terhadap masukkan rangkaian gerakan isyarat. Masukkan ini dapat diperoleh melalui rekaman kamera telepon pintar. Ketika gerakan isyarat bergerak lebih cepat dibandingkan penangkapan bingkai oleh kamera, hasil rekaman menjadi kabur. Rekaman yang kabur akan membuat mesin translasi tidak dapat melakukan prediksi dengan baik. Salah satu solusi untuk mengurangi kabur pada gambar adalah dengan melakukan deblurring. Penelitian ini akan menggunakan metode DeblurGAN-v2 untuk mengurangi tingkat kabur pada bingkai dan menguji hasilnya pada mesin translasi gerakan isyarat SIBI ke teks. Mesin translasi gerakan isyarat SIBI ke teks memperoleh hasil teks yang cukup baik pada data berlatar belakang hijau. Hasil Nugraha dan Rakun (2022) memperoleh 2,986% WER (Word Error Rate), 83,434% SAcc (Sentence Accuracy), dan TC (Time Computation) menggunakan RetinaNet sebesar 0.038 detik per frame pada data berlatar belakang hijau. Hasil evaluasi juga menemukan kekurangan kualitas hasil prediksi dikarenakan masukkan bingkai yang kabur. Penelitian ini mencoba mengatasi masalah bingkai yang kabur dengan menggabungkan metode deblurring ke dalam sistem mesin translasi gerakan isyarat dan mengukur kinerja dengan WER, SAcc, dan TC. Terjadi penambahan TC akibat penambahan metode deblurring, dan untuk mengurangi TC, digunakan nilai ambang batas agar tidak semua bingkai di-deblur. Peneliti menemukan bahwa dengan menambahkan proses deblurring, terjadi peningkatan kinerja mesin translasi gerakan isyarat dari 2.37% WER dan 87.85% SAcc menjadi 1.95% WER dan 89.28% SAcc (tanpa ambang batas) dan 1.96% WER dan 89.28% SAcc (dengan ambang batas) pada data berlatar belakang hijau. Mesin translasi gerakan isyarat menjadi teks tanpa metode deblurring memerlukan TC 0.8036 detik per frame dan setelah menambahkan metode deblurring menjadi 0.8650 detik per frame (tanpa ambang batas) dan 0.8436 detik per frame (dengan ambang batas).
Learning sign language isn’t something easy to do. To help learning sign language, born machine sign language translation to text that can be read. For widely usage, there is a machine for translating gestures into text using a smartphone. Text result from machine translation depend on input sign language sequence frame. This input can be obtain from smartphone video recording. When sign language movement is faster than camera frame rate, recording result become blurry. Blurry record will make machine translation can’t make good prediction. One of the solution to reduce blur on the image is by doing deblurring. This research will use DeblurGAN-v2 as method to reduce image blurry rate on frame and test it on machine sign language SIBI translation to text. Machine sign language SIBI translation to text gain good text result on greenscreen background. Result Nugraha dan Rakun (2022) obtain 2,986% WER (Word Error Rate), 83,434% SAcc (Sentence Accuracy), and TC (Time Computation) using RetinaNet at 0.038 seconds per frame on background greenscreen data. Evaluation result also found a lack of of predictive quality due to blurred frame input. This research attempts to overcome the blurred frame problem by combining deblurring method to inside machine sign language translation system and measure performance with WER, SAcc, and TC. There is an addition of TC due to the addition of the deblurring method and to reduce TC, a threshold value is used so not all frames are deblurred. The researcher found that by adding deblurring process, there was an improvement on machine sign language translation from 2.37% WER and 87.85% SAcc to 1.95% WER and 89.28% SAcc (without threshold) and 1.96% WER and 89.28% SAcc (with threshold) on background greenscreen data. Machine for translating gestures into text without deblurring method need TC 0.8036 seconds per frame and after adding deblurring method become 0.8650 seconds per frame (without threshold) and 0.8436 seconds per frame (with threshold)."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership Universitas Indonesia Library
Tambunan, Anggino
"Tulisan ini bertujuan mendeskripsikan pembentukan kalimat nondeklaratif, yaitu kalimat yang tidak mengungkapkan pernyataan atau proposisi, dalam Bahasa Isyarat Indonesia atau yang lebih dikenal dengan sebutan Bisindo. Kalimat nondeklaratif yang dibahas dalam tulisan ini adalah kalimat interogatif, kalimat imperatif, dan kalimat eksklamatif. Dua aspek kalimat nondeklaratif yang diperiksa adalah strukturnya dan unsur nonmanual yang menandainya. Berdasarkan analisis terhadap kalimat-kalimat nondeklaratif yang dihasilkan oleh dua penutur Bisindo ditemukan bahwa (1) kalimat nondeklaratif Bisindo cenderung diawali dengan topik yang dapat berupa subjek, pronomina, nomina atau pewatas frasa yang bermakna 'pemilik'; (2) dalam kalimat interogatif, kata tanya, apabila digunakan, cenderung muncul pada kata di akhir kalimat; (3) unsur nonmanual yang terdapat dalam kalimat nondeklaratif adalah alis (mengerut, menaik), mata (membesar, menyipit, tertutup), dan gerakan kepala (mengangguk); dan (4) unsur-unsur nonmanual tersebut dapat muncul pada keseluruhan kalimat, sebagain kalimat, dan pada kata tertentu.
The Indonesian Sign Language, better known as Bisindo, is a sign language used by many deaf communities in Indonesia. Misconceptions about this language and its speakers are abound because little is known about it. This paper aims at describing the formation of non-declarative sentences-those that do not express statement or proposition in Indonesian Sign Language. Non-declarative sentences discussed in this research are interrogative, imperative, and exclamative sentences. Two aspects to be examined are the structure and non-manual elements. The data for this paper are collected through elicitation from two Bisindo speakers. From the analysis of the data, it is found that (1) nondeclarative sentences in Bisindo tends to be initially marked by topic-part of sentence which shows what the sentence is about; (2) in interogative sentences, the wh-question word tends to occur at the end of the sentence; (3) non-manual elements that occur in non-declarative sentences are eye brows (lowered, arisen), eyes (widened, narrowed, closed), and head movement (nodded); and (4) the nonmanual elements can occur in in a certain part of the sentence or in the whole sentence depending on the types of non-declarative sentence. "
Depok: Fakultas Ilmu Pengetahuan Budaya Universitas Indonesia, 2017
S70319
UI - Skripsi Membership Universitas Indonesia Library