просимо
😃 Основи
💼 Основні застосунки
🧙‍♂️ Середній рівень
🤖 Агенти
⚖️ Надійність
🖼️ Написання запитів для створення зображень
🔓 Злом запиту
🔨 Інструменти
💪 Налаштування запиту
🎲 Різне
📙 Словниковий довідник
📚 Бібліографічний список
📦 Рекомендовані продукти
🛸 Додаткові ресурси
🔥 У тренді
✨ Список залучених людей
🔓 Злом запиту🟢 Захисні заходи🟢 Інші підходи

Інші підходи

🟢 This article is rated easy
Reading Time: 1 minute

Last updated on August 7, 2024

Хоча попередні підходи можуть бути дуже надійними, деякі інші підходи, такі як використання іншої моделі, точне налаштування, м’які запити та обмеження довжини включно, також будуть ефективними.

Використання іншої моделі

Більш сучасні моделі, такі як GPT-4, стійкіші проти швидкого введення запиту. Крім того, моделі, які не налаштовані за інструкціями, можуть бути складними для введення запиту.

Точне налаштування

Точне налаштування моделі є дуже ефективним захистом, оскільки під час виконання не залучають жодних запитів, окрім введених користувачем. Ймовірно, це найкращий захист у будь-якій важливій ситуації, оскільки він дуже надійний. Однак для цього потрібний великий обсяг даних і багато коштів, тому його рідко коли впроваджують.

М'які запити

М'який запит також може бути ефективним, оскільки він не має чітко визначеної дискретного запиту (окрім введення користувача). М’які запити фактично потребують точного налаштування, тому вони мають багато тих самих переваг, але, ймовірно, будуть дешевшими. Однак м’які запити досліджені не так добре, як точне налаштування, тому незрозуміло, наскільки вони ефективні.

Обмеження за довжиною

Нарешті, обмеження довжини введення користувача або обмеження тривалості чат-ботів, як це робить Bing, може запобігти деяким атакам, таким як величезні запити у стилі DAN або віртуалізовані атаки відповідно.

Сандер Шульхофф

Footnotes

  1. Goodside, R. (2022). GPT-3 Prompt Injection Defenses. https://twitter.com/goodside/status/1578278974526222336?s=20&t=3UMZB7ntYhwAk3QLpKMAbw

  2. Selvi, J. (2022). Exploring Prompt Injection Attacks. https://research.nccgroup.com/2022/12/05/exploring-prompt-injection-attacks/

Copyright © 2024 Learn Prompting.