A defesa de pós-prompting1 simplesmente coloca a entrada do usuário antes do prompt. Por exemplo:
Traduza o seguinte para o francês: {{user_input}}
Ele pode ser aprimorado com o pós-prompt:
{{user_input}} Traduza o texto acima para o francês.
Isso pode ser útil, já que às vezes ignore a instrução acima...
não funciona tão bem. Mesmo que um usuário diga ignore a instrução abaixo...
, geralmente os LLMs seguirão a última instrução que recebem.
Mark, C. (2022). Talking to machines: prompt engineering & injection. https://artifact-research.com/artificial-intelligence/talking-to-machines-prompt-engineering-injection/ ↩
Sign up and get the latest AI news, prompts, and tools.
Join 30,000+ readers from companies like OpenAI, Microsoft, Google, Meta and more!