Skip to main content

🟢 Ringkasan

Mencegah injeksi prompt bisa sangat sulit, dan hanya ada sedikit pertahanan kuat terhadapnya12. Namun, ada beberapa solusi yang masuk akal. Misalnya, jika aplikasi Anda tidak perlu menghasilkan teks bebas, jangan izinkan keluaran semacam itu. Ada banyak cara berbeda untuk melindungi sebuah prompt. Kita akan membahas beberapa yang paling umum di sini.

Bab ini mencakup strategi-strategi umum tambahan seperti menyaring kata-kata. Bab ini juga mencakup strategi peningkatan prompt (pertahanan instruksi, pengiriman pasca, cara berbeda untuk melampirkan input pengguna, dan penandaan XML). Akhirnya, kita membahas menggunakan LLM untuk mengevaluasi output dan beberapa pendekatan yang lebih spesifik pada model.


  1. Crothers, E., Japkowicz, N., & Viktor, H. (2022). Machine Generated Text: A Comprehensive Survey of Threat Models and Detection Methods. ↩
  2. Goodside, R. (2022). GPT-3 Prompt Injection Defenses. https://twitter.com/goodside/status/1578278974526222336?s=20&t=3UMZB7ntYhwAk3QLpKMAbw ↩