Mencegah injeksi prompt bisa sangat sulit, dan hanya ada sedikit pertahanan kuat terhadapnya. Namun, ada beberapa solusi yang masuk akal. Misalnya, jika aplikasi Anda tidak perlu menghasilkan teks bebas, jangan izinkan keluaran semacam itu. Ada banyak cara berbeda untuk melindungi sebuah prompt. Kita akan membahas beberapa yang paling umum di sini.
Bab ini mencakup strategi-strategi umum tambahan seperti menyaring kata-kata. Bab ini juga mencakup strategi peningkatan prompt (pertahanan instruksi, pengiriman pasca, cara berbeda untuk melampirkan input pengguna, dan penandaan XML). Akhirnya, kita membahas menggunakan LLM untuk mengevaluasi output dan beberapa pendekatan yang lebih spesifik pada model.
Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.
Crothers, E., Japkowicz, N., & Viktor, H. (2022). Machine Generated Text: A Comprehensive Survey of Threat Models and Detection Methods. β©
Goodside, R. (2022). GPT-3 Prompt Injection Defenses. https://twitter.com/goodside/status/1578278974526222336?s=20&t=3UMZB7ntYhwAk3QLpKMAbw β©