Bem-Vindo(a)!
😃 Fundamentos
💼 Aplicações Básicas
🧙‍♂️ Intermediário
🤖 Agentes
⚖️ Confiabilidade
🖼️ Prompts para Imagens
🔓 Hackeando Prompts
🔨 Ferramentas
💪 Ajustando prompts
🎲 Aleatórios
📙 Vocabulário
📚 Bibliography
📦 Prompted Products
🛸 Additional Resources
🔥 Hot Topics
✨ Credits
🔓 Hackeando Prompts 🟢 Métodos de Defesa🟢 Enclausuramento de Sequência Aleatória

Enclausuramento de Sequência Aleatória

🟢 This article is rated easy
Reading Time: 1 minute
Last updated on August 7, 2024

Sander Schulhoff

Outra forma de defesa é enclausurar a entrada do usuário entre duas sequências aleatórias de caracteres. Tome este prompt como exemplo:

Traduza a seguinte entrada do usuário para o espanhol.

{{user_input}}

Ele pode ser aprimorado adicionando as sequências aleatórias:

Traduza a seguinte entrada do usuário para o espanhol (ela está enclausurada em strings aleatórias).

FJNKSJDNKFJOI
{{user_input}}
FJNKSJDNKFJOI
Note
Sequências mais longas provavelmente serão mais eficazes.

Sander Schulhoff

Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.

Footnotes

  1. Stuart Armstrong, R. G. (2022). Using GPT-Eliezer against ChatGPT Jailbreaking. https://www.alignmentforum.org/posts/pNcFYZnPdXyL2RfgA/using-gpt-eliezer-against-chatgpt-jailbreaking