Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!

Check it out →
🔓 Злом запиту🟢 Захисні заходи🟢 Інші підходи

🟢 Інші підходи

Востаннє оновлено Сандер Шульхофф August 7, 2024 року

Хоча попередні підходи можуть бути дуже надійними, деякі інші підходи, такі як використання іншої моделі, точне налаштування, м’які запити та обмеження довжини включно, також будуть ефективними.

Використання іншої моделі

Більш сучасні моделі, такі як GPT-4, стійкіші проти швидкого введення запиту. Крім того, моделі, які не налаштовані за інструкціями, можуть бути складними для введення запиту.

Точне налаштування

Точне налаштування моделі є дуже ефективним захистом1, оскільки під час виконання не залучають жодних запитів, окрім введених користувачем. Ймовірно, це найкращий захист у будь-якій важливій ситуації, оскільки він дуже надійний. Однак для цього потрібний великий обсяг даних і багато коштів, тому його рідко коли впроваджують.

М'які запити

М'який запит також може бути ефективним, оскільки він не має чітко визначеної дискретного запиту (окрім введення користувача). М’які запити фактично потребують точного налаштування, тому вони мають багато тих самих переваг, але, ймовірно, будуть дешевшими. Однак м’які запити досліджені не так добре, як точне налаштування, тому незрозуміло, наскільки вони ефективні.

Обмеження за довжиною

Нарешті, обмеження довжини введення користувача2 або обмеження тривалості чат-ботів, як це робить Bing, може запобігти деяким атакам, таким як величезні запити у стилі DAN або віртуалізовані атаки відповідно.

Footnotes

  1. Goodside, R. (2022). GPT-3 Prompt Injection Defenses. https://twitter.com/goodside/status/1578278974526222336?s=20&t=3UMZB7ntYhwAk3QLpKMAbw

  2. Selvi, J. (2022). Exploring Prompt Injection Attacks. https://research.nccgroup.com/2022/12/05/exploring-prompt-injection-attacks/

Word count: 0

Get AI Certified by Learn Prompting


Copyright © 2024 Learn Prompting.