Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!
Check it out →Mencegah injeksi prompt bisa sangat sulit, dan hanya ada sedikit pertahanan kuat terhadapnya12. Namun, ada beberapa solusi yang masuk akal. Misalnya, jika aplikasi Anda tidak perlu menghasilkan teks bebas, jangan izinkan keluaran semacam itu. Ada banyak cara berbeda untuk melindungi sebuah prompt. Kita akan membahas beberapa yang paling umum di sini.
Bab ini mencakup strategi-strategi umum tambahan seperti menyaring kata-kata. Bab ini juga mencakup strategi peningkatan prompt (pertahanan instruksi, pengiriman pasca, cara berbeda untuk melampirkan input pengguna, dan penandaan XML). Akhirnya, kita membahas menggunakan LLM untuk mengevaluasi output dan beberapa pendekatan yang lebih spesifik pada model.
Sign up and get the latest AI news, prompts, and tools.
Join 30,000+ readers from companies like OpenAI, Microsoft, Google, Meta and more!