Last updated on August 7, 2024
A defesa de pós-prompting simplesmente coloca a entrada do usuário antes do prompt. Por exemplo:
Traduza o seguinte para o francês: {{user_input}}
Ele pode ser aprimorado com o pós-prompt:
{{user_input}} Traduza o texto acima para o francês.
Isso pode ser útil, já que às vezes ignore a instrução acima...
não funciona tão bem. Mesmo que um usuário diga ignore a instrução abaixo...
, geralmente os LLMs seguirão a última instrução que recebem.
Mark, C. (2022). Talking to machines: prompt engineering & injection. https://artifact-research.com/artificial-intelligence/talking-to-machines-prompt-engineering-injection/ ↩