Хоча попередні підходи можуть бути дуже надійними, деякі інші підходи, такі як використання іншої моделі, точне налаштування, м’які запити та обмеження довжини включно, також будуть ефективними.
Більш сучасні моделі, такі як GPT-4, стійкіші проти швидкого введення запиту. Крім того, моделі, які не налаштовані за інструкціями, можуть бути складними для введення запиту.
Точне налаштування моделі є дуже ефективним захистом, оскільки під час виконання не залучають жодних запитів, окрім введених користувачем. Ймовірно, це найкращий захист у будь-якій важливій ситуації, оскільки він дуже надійний. Однак для цього потрібний великий обсяг даних і багато коштів, тому його рідко коли впроваджують.
М'який запит також може бути ефективним, оскільки він не має чітко визначеної дискретного запиту (окрім введення користувача). М’які запити фактично потребують точного налаштування, тому вони мають багато тих самих переваг, але, ймовірно, будуть дешевшими. Однак м’які запити досліджені не так добре, як точне налаштування, тому незрозуміло, наскільки вони ефективні.
Нарешті, обмеження довжини введення користувача або обмеження тривалості чат-ботів, як це робить Bing, може запобігти деяким атакам, таким як величезні запити у стилі DAN або віртуалізовані атаки відповідно.
Goodside, R. (2022). GPT-3 Prompt Injection Defenses. https://twitter.com/goodside/status/1578278974526222336?s=20&t=3UMZB7ntYhwAk3QLpKMAbw ↩
Selvi, J. (2022). Exploring Prompt Injection Attacks. https://research.nccgroup.com/2022/12/05/exploring-prompt-injection-attacks/ ↩