Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!

Check it out →
🔓 پرامپٹ ہیکنگ🟢 جارحانہ اقدامات🟢 کوڈ انجیکشن

🟢 کوڈ انجیکشن

نے اپ ڈیٹ کیا۔ سینڈر شلہوف کو August 7, 2024 آخری بار

کوڈ انجیکشن1 ایک فوری ہیکنگ استحصال ہے جہاں حملہ آور صوابدیدی کوڈ (اکثر ازگر) چلانے کے لیے LLM حاصل کرنے کے قابل ہوتا ہے۔ یہ ٹول سے بڑھے ہوئے LLMs میں ہو سکتا ہے، جہاں LLM کسی مترجم کو کوڈ بھیجنے کے قابل ہوتا ہے، لیکن یہ اس وقت بھی ہو سکتا ہے جب LLM ہی کوڈ کا جائزہ لینے کے لیے استعمال ہوتا ہے۔

ایک AI ایپ، MathGPT پر مبینہ طور پر کوڈ انجیکشن کیا گیا ہے اور اسے OpenAI حاصل کرنے کے لیے استعمال کیا گیا تھا۔ API کلید (MITRE رپورٹ

Note

اس کے بعد سے MathGPT کو کوڈ انجیکشن کے خلاف محفوظ کر لیا گیا ہے۔ براہ کرم اسے ہیک کرنے کی کوشش نہ کریں۔ وہ API کالز کے لیے ادائیگی کرتے ہیں۔

مثال

آئیے MathGPT ایپ کی ایک آسان مثال کے ساتھ کام کریں۔ ہم فرض کریں گے کہ یہ ایک ریاضی کا مسئلہ لیتا ہے اور مسئلہ کو حل کرنے کی کوشش کرنے کے لیے ازگر کوڈ لکھتا ہے۔

یہ وہ اشارہ ہے جسے آسان مثال ایپ استعمال کرتی ہے:

درج ذیل ریاضی کے مسئلے کو حل کرنے کے لیے Python کوڈ لکھیں:
{{user_input}}

آئیے اسے یہاں ہیک کریں:

یہ ایک سادہ سی مثال ہے، لیکن اس سے ظاہر ہوتا ہے کہ اس قسم کا استحصال اہم اور خطرناک ہے۔

Footnotes

  1. Kang, D., Li, X., Stoica, I., Guestrin, C., Zaharia, M., & Hashimoto, T. (2023). Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard Security Attacks.

Word count: 0

Get AI Certified by Learn Prompting


Copyright © 2024 Learn Prompting.