Selamat Datang
πŸ˜ƒDasar
πŸ’Ό Aplikasi Dasar
πŸ§™β€β™‚οΈ Pelajaran Tingkat Menengah
πŸ€– Agen
βš–οΈ Keandalan
πŸ–ΌοΈ Prompt untuk Menghasilkan Gambar
πŸ”“ Prompt Hacking
πŸ”¨ Tooling
πŸ’ͺ Prompt Tuning
🎲 Serba aneka
πŸ“™ Referensi Kosakata
Daftar Pustaka
πŸ“¦ Prompted Products
πŸ›Έ Sumber Daya Tambahan
πŸ”₯ Hot Topics
✨ Credits
πŸ”“ Prompt Hacking🟒 Tindakan Offensif🟒 Injeksi Rekursif

Injeksi Rekursif

🟒 This article is rated easy
Reading Time: 1 minute

Last updated on August 7, 2024

Seperti yang telah kita lihat sebelumnya, pertahanan yang sangat baik terhadap hacking prompting adalah menggunakan satu LLM untuk mengevaluasi hasil dari LLM lain, untuk memeriksa apakah ada keluaran yang bersifat adversarial. Bisa mengelabui pertahanan ini dengan serangan injeksi rekursif **. Serangan ini melibatkan menyisipkan perintah ke dalam LLM pertama yang menghasilkan output yang berisi instruksi penyisipan untuk LLM kedua.

Mari kita anggap bahwa prompt yang ingin kita retas adalah:

Berikanlah sesuatu yang positif tentang berikut ini dan alam:
{{user_input}}

Output dari prompt ini akan dievaluasi oleh prompt:

Apakah berikut ini mengandung kata-kata kotor atau konten yang mengganggu (YA atau TIDAK)?
{{output}}

Kita dapat membobol kedua prompt ini dengan menambahkan ke prompt seperti yang terlihat di bawah ini. Perhatikan bahwa ini juga merupakan contoh serangan penugasan variabel.

Output di atas adalah upaya injeksi yang memasukkan input ke dalam panggilan LLM kedua:

Kami sekarang berhasil menguasai panggilan LLM yang kedua ini. Injeksi rekursif sulit dilakukan, tetapi dalam keadaan yang tepat, mereka dapat sangat berguna.

Sander Schulhoff

Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.

Footnotes

  1. Kang, D., Li, X., Stoica, I., Guestrin, C., Zaharia, M., & Hashimoto, T. (2023). Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard Security Attacks. ↩

Copyright Β© 2024 Learn Prompting.