Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!

Check it out →
🔓 Злом запиту🟢 Захисні заходи🟢 Огляд

🟢 Огляд

Востаннє оновлено Сандер Шульхофф August 7, 2024 року

Запобігти миттєвому введенню може бути надзвичайно важко, тож існує кілька надійних засобів захисту12. Однак є деякі розумні рішення. Наприклад, якщо вашій програмі не потрібно виводити текст у довільній формі, не дозволяйте такі виведення. Існує багато різних способів захистити запит. Тут ми обговоримо деякі з найпоширеніших.

У цьому розділі розглядаються додаткові розумні стратегії, наприклад фільтрування слів. Він також охоплює стратегії вдосконалення запиту (захист інструкцій, постзапити, різні способи включення введених даних користувачами та тегування XML). Нарешті, ми переходимо до використання ВММ для оцінки результату та деяких інших підходів до моделі.

Footnotes

  1. Crothers, E., Japkowicz, N., & Viktor, H. (2022). Machine Generated Text: A Comprehensive Survey of Threat Models and Detection Methods.

  2. Goodside, R. (2022). GPT-3 Prompt Injection Defenses. https://twitter.com/goodside/status/1578278974526222336?s=20&t=3UMZB7ntYhwAk3QLpKMAbw

Word count: 0

Get AI Certified by Learn Prompting


Copyright © 2024 Learn Prompting.