Prévenir l'injection de prompt (prompt injection) peut être extrêmement difficile, et il existe peu de défenses robustes contre cela. Cependant, certaines solutions de bon sens existent. Par exemple, si votre application n'a pas besoin de produire du texte libre, ne permettez pas de tels résultats. Il existe de nombreuses manières différentes de défendre un prompt. Nous discuterons ici de certaines des plus courantes.
Ce chapitre couvre des stratégies supplémentaires de bon sens comme filtrer les mots. Il traite également des stratégies d'amélioration de prompt (défense par instruction, post-prompting, différentes façons d'encadrer les entrées utilisateur, et le balisage XML). Enfin, nous discutons de l'utilisation d'un LLM pour évaluer la sortie et de quelques approches plus spécifiques au modèle.
Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.
Crothers, E., Japkowicz, N., & Viktor, H. (2022). Machine Generated Text: A Comprehensive Survey of Threat Models and Detection Methods. ↩
Goodside, R. (2022). GPT-3 Prompt Injection Defenses. https://twitter.com/goodside/status/1578278974526222336?s=20&t=3UMZB7ntYhwAk3QLpKMAbw ↩