Compete in HackAPrompt 2.0, the world's largest AI Red-Teaming competition!

Check it out →
Selamat Datang
😃Dasar
💼 Aplikasi Dasar
🧙‍♂️ Pelajaran Tingkat Menengah
🤖 Agen
⚖️ Keandalan
🖼️ Prompt untuk Menghasilkan Gambar
🔓 Prompt Hacking
🔨 Tooling
💪 Prompt Tuning
🎲 Serba aneka
Daftar Pustaka
📦 Prompted Products
🛸 Sumber Daya Tambahan
🔥 Hot Topics
✨ Credits
🔓 Prompt Hacking🟢 Tindakan Defensif🟢 Pendekatan Lainnya

Pendekatan Lainnya

🟢 This article is rated easy
Reading Time: 1 minute
Last updated on August 7, 2024

Sander Schulhoff

Meskipun pendekatan sebelumnya dapat sangat kuat, beberapa pendekatan lain, seperti menggunakan model yang berbeda, termasuk penyetelan yang baik, bimbingan lunak, dan pembatasan panjang, juga dapat efektif.

Menggunakan Model yang Berbeda

Model-model yang lebih modern seperti GPT-4 lebih tangguh terhadap injeksi permintaan. Selain itu, model yang tidak diatur untuk instruksi mungkin sulit dimasukkan promptnya.

Fine Tuning

Memperhalus model adalah pertahanan yang sangat efektif, karena saat waktu inferensi tidak ada rangsangan yang terlibat, kecuali input pengguna. Ini kemungkinan adalah pertahanan yang lebih disukai dalam setiap situasi nilai tinggi, karena sangat kuat. Namun, ini membutuhkan sejumlah besar data dan dapat mahal, itulah mengapa pertahanan ini jarang diterapkan.

Soft Prompting

Soft prompting bisa pula efektif, karena tidak memiliki prompt diskret yang jelas (selain masukan pengguna). Prompt lunak secara efektif membutuhkan penyesuaian yang halus, sehingga memiliki banyak manfaat yang sama, tetapi kemungkinan akan lebih murah. Namun, pengumuman lembut tidak dipelajari dengan baik seperti penyetelan halus, sehingga tidak jelas seberapa efektifnya.

Pembatasan Panjang

Akhirnya, dengan memasukkan batasan panjang pada masukan pengguna atau membatasi panjang percakapan chatbot seperti yang dilakukan Bing dapat mencegah beberapa serangan seperti permintaan gaya DAN yang besar atau serangan virtualisasi masing-masing.

Sander Schulhoff

Sander Schulhoff is the CEO of HackAPrompt and Learn Prompting. He created the first Prompt Engineering guide on the internet, two months before ChatGPT was released, which has taught 3 million people how to prompt ChatGPT. He also partnered with OpenAI to run the first AI Red Teaming competition, HackAPrompt, which was 2x larger than the White House's subsequent AI Red Teaming competition. Today, HackAPrompt partners with the Frontier AI labs to produce research that makes their models more secure. Sander's background is in Natural Language Processing and deep reinforcement learning. He recently led the team behind The Prompt Report, the most comprehensive study of prompt engineering ever done. This 76-page survey, co-authored with OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions, analyzed 1,500+ academic papers and covered 200+ prompting techniques.

Footnotes

  1. Goodside, R. (2022). GPT-3 Prompt Injection Defenses. https://twitter.com/goodside/status/1578278974526222336?s=20&t=3UMZB7ntYhwAk3QLpKMAbw

  2. Selvi, J. (2022). Exploring Prompt Injection Attacks. https://research.nccgroup.com/2022/12/05/exploring-prompt-injection-attacks/