Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!

Check it out →
🔓 Prompt Hacking🟢 Tindakan Defensif🟢 Post-Prompting

🟢 Post-Prompting

Last updated on August 7, 2024 by Sander Schulhoff

Pertahanan post-prompting1 hanya meletakkan input pengguna sebelum prompt. Gunakan prompt ini sebagai contoh:

Terjemahkan yang berikut ke dalam bahasa Indonesia: {{user_input}}

Hal ini bisa ditingkatkan dengan post-prompting:

{{user_input}}

Terjemahkan teks di atas ke bahasa Prancis.

Ini dapat membantu karena mengabaikan instruksi di atas... tidak berfungsi juga. Meskipun pengguna dapat mengatakan mengabaikan instruksi di bawah ini... sebaliknya, LLM seringkali akan mengikuti instruksi terakhir yang mereka lihat.

Footnotes

  1. Mark, C. (2022). Talking to machines: prompt engineering & injection. https://artifact-research.com/artificial-intelligence/talking-to-machines-prompt-engineering-injection/

Word count: 0

Get AI Certified by Learn Prompting


Copyright © 2024 Learn Prompting.