Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 2 dokumen yang sesuai dengan query
cover
Nadhirah Putri Aurora
"Customer Due Diligence (“CDD”) merupakan uji tuntas nasabah yang terdiri atas tahapan identifikasi, verifikasi, dan pemantauan dalam rangka prinsip mengenal nasabah. Pada proses CDD, mekanisme proses identifikasi dan verifikasi tersebut dapat dilakukan secara non face to face atau elektronik selama memenuhi 2 (dua) faktor otentikasi yaitu what you are dan what you have. Pada praktiknya, Bank dapat bekerja sama dengan pihak ketiga setelah mendapat persetujuan Otoritas Jasa Keuangan untuk melakukan proses identifikasi dan verifikasi nasabah. Namun, CDD elektronik yang memanfaatkan artificial intelligence untuk memverifikasi data nasabah tidak luput dari risiko teknologi deepfake. Skripsi ini akan meninjau bagaimana pengaturan terhadap penyelenggaraan CDD secara elektronik pada industri perbankan di Indonesia. Selain itu, akan dianalisis pula bagaimana mitigasi risiko Bank dalam menghadapi risiko teknologi deepfake. Penelitian ini dilakukan dengan bentuk penelitian yuridis-normatif dan tipologi penelitian deskriptif-analitis. Penulis menggunakan data sekunder dan melakukan analisis dengan metode kualitatif. Adapun tujuan diadakannya penelitian dalam skripsi ini adalah untuk menganalisis aspek hukum penyelenggaraan CDD secara elektronik di Indonesia baik yang dilakukan secara mandiri oleh Bank maupun yang bekerja sama dengan pihak ketiga dengan risiko teknologi yang mengancamnya. Hasil penelitian menunjukkan bahwa saat ini pengaturan CDD secara elektronik mengacu pada kewajiban penerapan prinsip mengenal nasabah sebagaimana yang diatur dalam Undang-Undang Nomor 8 tahun 2010 tentang Tindak Pidana Pencucian Uang dan Undang-Undang No. 9 Tahun 2013 tentang Pencegahan dan Pemberantasan Tindak Pidana Pendanaan Terorisme. Kemudian, secara teknis mekanisme CDD secara elektronik diatur dalam Pasal 17 POJK No. 12/01/2017 sebagaimana yang telah diubah dengan POJK No. 23/01/2019. Selanjutnya, Bank perlu untuk meningkatkan sistem keamanan dan arsitektur teknologi informasi yang digunakannya sebagai bentuk mitigasi risiko untuk menghadapi teknologi deepfake. Bank juga perlu untuk melakukan analisis untuk menemukan celah ataupun kekurangan terhadap sistem keamanan dan arsitektur teknologi informasinya. Lalu, langkah lain yang dapat ditempuh oleh Bank adalah dengan bekerja sama dengan pihak ketiga yang berkompeten dan bersertifikasi untuk menyelenggarakan CDD secara elektronik. Namun, perlu adanya pengaturan yang secara eksplisit mengatur mengenai persyaratan dan tata cara kerja sama Bank dengan pihak ketiga untuk meminimalisir risiko teknologi yang dapat terjadi. Lebih lanjut, literasi keuangan terkait dengan transformasi digital pada industri perbankan perlu ditingkatkan sebagai bentuk perlindungan konsumen.

Customer Due Diligence ("CDD") is a customer due diligence consisting of identification, verification, and monitoring stages in the framework of know your customer principles. In the CDD process, the identification and verification process mechanism can be done non-face to face or electronically as long as it meets 2 (two) authentication factors, namely what you are and what you have. In practice, the Bank may cooperate with third parties after obtaining approval from the Financial Services Authority to carry out the customer identification and verification process. However, electronic CDDs that utilize artificial intelligence to verify customer data are not spared from the risks of deepfake technology. This thesis will review the regulation of the implementation of electronic CDD in the banking industry in Indonesia. In addition, Bank risk mitigation will also be analyzed in dealing with deepfake technology risks. This research is carried out in the form of juridical-normative research and descriptive-analytical research typology. The author uses secondary data and conducts analysis with qualitative methods. The purpose of conducting research in this thesis is to analyze the legal aspects of electronic CDD implementation in Indonesia, both independently carried out by banks and in collaboration with third parties with technological risks that threaten them. The results showed that currently CDD regulation electronically refers to the obligation to apply the principle of knowing customers as stipulated in Law Number 10 of 2010 concerning Money Laundering and Law Number 9 of 2013 concerning Prevention and Eradication of Terrorism Financing Crimes. Then, technically the electronic CDD mechanism is regulated in Article 17 of POJK No. 12/01/2017 as amended by POJK No. 23/01/2019. Furthermore, the Bank needs to improve the security system and information technology architecture it uses as a form of risk mitigation to deal with deepfake technology. Banks also need to conduct analysis to find gaps or shortcomings in their security systems and information technology architecture. Then, another step that can be taken by the Bank is to cooperate with competent and certified third parties to organize CDD electronically. However, there is a need for regulations that explicitly regulate the requirements and procedures for cooperation between banks and third parties to minimize technological risks that can occur. Furthermore, financial literacy related to digital transformation in the banking industry needs to be improved as a form of consumer protection."
Depok: Fakultas Hukum Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Glenn Ludwig
"Perkembangan teknologi Artificial Intelligence Deepfake, menimbulkan ancaman terhadap sistem peradilan pidana, khususnya dalam pembuktian. Kemampuan Deepfake memanipulasi gambar atau video dapat mengelabui kemampuan manusia untuk mengenali bentuk yang asli ataupun yang telah dimanipulasi. Meskipun Undang-Undang Informasi dan Transaksi Elektronik telah mengalami perubahan kedua pada tahun 2024, regulasi ini belum secara spesifik mengatur tentang Deepfake. Di lain sisi European Union telah membentuk regulasi terkait Artificial Intelligence dan pencegahan penyalahgunaan Deepfake dalam Artificial Intelligence Act. Penelitian ini menganalisis (1) perlindungan hukum terhadap penyalahgunaan Deepfake di Indonesia menurut UU ITE, dan (2) ancaman penyalahgunaan Deepfake dalam proses pembuktian di sistem peradilan pidana Indonesia. Penelitian ini membandingkan UU ITE dan AIA untuk menemukan bentuk perlindungan yang efektif terhadap ancaman tersebut. Melalui penelitian doktrinal dan pendekatan kualitatif, ditemukan bahwa: Pertama, UU ITE memberikan perlindungan hukum secara represif terhadap penyalahgunaan Deepfake. Kedua, diperlukan perlindungan hukum preventif seperti yang diatur dalam AIA. Ketiga, ketidakjelasan definisi Deepfake menyebabkan ketidakpastian hukum sehingga manipulasi Deepfake masih dapat dianggap sebagai alat bukti elektronik yang sah menurut UU ITE. Keempat, ancaman penyalahgunaan Deepfake dalam pembuktian mencakup perlunya validasi otentisitas bukti digital dan penanganan tuduhan bukti palsu di pengadilan.

The development of Artificial Intelligence Deepfake technology poses a threat to the criminal justice system, particularly in the area of evidence. Deepfake's ability to manipulate images or videos can deceive humans into believing altered content is genuine. Although the Electronic Information and Transactions Law (UU ITE) was amended for the second time in 2024, it does not specifically address Deepfake technology. In contrast, the European Union has established regulations on Artificial Intelligence and the prevention of Deepfake misuse in the Artificial Intelligence Act (AIA). This study analyzes (1) the legal protection against Deepfake misuse in Indonesia according to UU ITE, and (2) the threat of Deepfake misuse in the evidence process within the Indonesian criminal justice system. This study compares UU ITE and AIA to identify effective protective measures against these threats. Through doctrinal research and a qualitative approach, the findings are as follows: First, UU ITE provides repressive legal protection against Deepfake misuse. Second, preventive legal protection, as outlined in the AIA, is necessary. Third, the lack of a clear definition of Deepfake results in legal uncertainty, allowing Deepfake manipulations to be considered valid electronic evidence under UU ITE. Fourth, the threat of Deepfake misuse in evidence includes the need for authenticity validation of digital evidence and handling allegations of falsified digital evidence in court."
Depok: 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library