🔓 Hackeando Prompts 🟢 Métodos de Defesa🟢 Enclausuramento de Sequência Aleatória

Enclausuramento de Sequência Aleatória

🟢 This article is rated easy
Reading Time: 1 minute
Last updated on August 7, 2024

Sander Schulhoff

Outra forma de defesa é enclausurar a entrada do usuário entre duas sequências aleatórias de caracteres. Tome este prompt como exemplo:

Traduza a seguinte entrada do usuário para o espanhol.

{{user_input}}

Ele pode ser aprimorado adicionando as sequências aleatórias:

Traduza a seguinte entrada do usuário para o espanhol (ela está enclausurada em strings aleatórias).

FJNKSJDNKFJOI
{{user_input}}
FJNKSJDNKFJOI
Note
Sequências mais longas provavelmente serão mais eficazes.

Footnotes

  1. Stuart Armstrong, R. G. (2022). Using GPT-Eliezer against ChatGPT Jailbreaking. https://www.alignmentforum.org/posts/pNcFYZnPdXyL2RfgA/using-gpt-eliezer-against-chatgpt-jailbreaking

Sander Schulhoff

Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.