Selamat Datang
πŸ˜ƒDasar
πŸ’Ό Aplikasi Dasar
πŸ§™β€β™‚οΈ Pelajaran Tingkat Menengah
πŸ€– Agen
βš–οΈ Keandalan
πŸ–ΌοΈ Prompt untuk Menghasilkan Gambar
πŸ”“ Prompt Hacking
πŸ”¨ Tooling
πŸ’ͺ Prompt Tuning
🎲 Serba aneka
πŸ“™ Referensi Kosakata
Daftar Pustaka
πŸ“¦ Prompted Products
πŸ›Έ Sumber Daya Tambahan
πŸ”₯ Hot Topics
✨ Credits
πŸ”“ Prompt Hacking🟒 Tindakan Defensif🟒 Ringkasan

Ringkasan

🟒 This article is rated easy
Reading Time: 1 minute
Last updated on August 7, 2024

Sander Schulhoff

Mencegah injeksi prompt bisa sangat sulit, dan hanya ada sedikit pertahanan kuat terhadapnya. Namun, ada beberapa solusi yang masuk akal. Misalnya, jika aplikasi Anda tidak perlu menghasilkan teks bebas, jangan izinkan keluaran semacam itu. Ada banyak cara berbeda untuk melindungi sebuah prompt. Kita akan membahas beberapa yang paling umum di sini.

Bab ini mencakup strategi-strategi umum tambahan seperti menyaring kata-kata. Bab ini juga mencakup strategi peningkatan prompt (pertahanan instruksi, pengiriman pasca, cara berbeda untuk melampirkan input pengguna, dan penandaan XML). Akhirnya, kita membahas menggunakan LLM untuk mengevaluasi output dan beberapa pendekatan yang lebih spesifik pada model.

Sander Schulhoff

Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.

🟒 Penyaringan Kata / Frasa (Filtering)

🟒 Pertahanan Instruksi

🟒 Evaluasi LLM secara Terpisah

🟒 Pendekatan Lainnya

🟒 Post-Prompting

🟒 Random Sequence Enclosure

🟒 Sandwich Defense

🟒 XML Tagging

Footnotes

  1. Crothers, E., Japkowicz, N., & Viktor, H. (2022). Machine Generated Text: A Comprehensive Survey of Threat Models and Detection Methods. ↩

  2. Goodside, R. (2022). GPT-3 Prompt Injection Defenses. https://twitter.com/goodside/status/1578278974526222336?s=20&t=3UMZB7ntYhwAk3QLpKMAbw ↩