Klaim Artikel Anda
Verifikasi kepemilikan artikel akademik
Apakah artikel-artikel ini milik Anda?
Daftarkan diri Anda sebagai author untuk mengklaim artikel dan dapatkan profil akademik terverifikasi dengan fitur lengkap.
Badge Verifikasi
Profil terverifikasi resmi
Statistik Lengkap
H-index, sitasi, dan metrik
Visibilitas Tinggi
Tampil di direktori author
Kelola Publikasi
Dashboard artikel terpadu
Langkah-langkah Klaim Artikel:
- 1. Daftar akun author dengan email akademik Anda
- 2. Verifikasi email dan lengkapi profil
- 3. Login dan buka menu "Klaim Artikel"
- 4. Cari dan klaim artikel Anda
- 5. Tunggu verifikasi dari admin (1-3 hari kerja)
Menampilkan 1–1 dari 1 artikel
Hybrid Real-time Framework for Detecting Adaptive Prompt Injection Attacks in Large Language Models
Journal of Computing Theories and Applications
Vol 3
, No 3
(2026)
Prompt injection has emerged as a critical security threat for Large Language Models (LLMs), exploiting their inability to separate instructions from data within application contexts reliably. This paper provides a structured review of current attack vectors, including direct and indirect prompt injection, and highlights the limitations of existing defenses, with particular attention to the fragility of Known-Answer Detection (KAD) against adaptive attacks such as DataFlip. To address these gaps...
Sumber Asli
Google Scholar
DOI