کوڈ انجیکشن ایک فوری ہیکنگ استحصال ہے جہاں حملہ آور صوابدیدی کوڈ (اکثر ازگر) چلانے کے لیے LLM حاصل کرنے کے قابل ہوتا ہے۔ یہ ٹول سے بڑھے ہوئے LLMs میں ہو سکتا ہے، جہاں LLM کسی مترجم کو کوڈ بھیجنے کے قابل ہوتا ہے، لیکن یہ اس وقت بھی ہو سکتا ہے جب LLM ہی کوڈ کا جائزہ لینے کے لیے استعمال ہوتا ہے۔
ایک AI ایپ، MathGPT پر مبینہ طور پر کوڈ انجیکشن کیا گیا ہے اور اسے OpenAI حاصل کرنے کے لیے استعمال کیا گیا تھا۔ API کلید (MITRE رپورٹ)۔
اس کے بعد سے MathGPT کو کوڈ انجیکشن کے خلاف محفوظ کر لیا گیا ہے۔ براہ کرم اسے ہیک کرنے کی کوشش نہ کریں۔ وہ API کالز کے لیے ادائیگی کرتے ہیں۔
آئیے MathGPT ایپ کی ایک آسان مثال کے ساتھ کام کریں۔ ہم فرض کریں گے کہ یہ ایک ریاضی کا مسئلہ لیتا ہے اور مسئلہ کو حل کرنے کی کوشش کرنے کے لیے ازگر کوڈ لکھتا ہے۔
یہ وہ اشارہ ہے جسے آسان مثال ایپ استعمال کرتی ہے:
درج ذیل ریاضی کے مسئلے کو حل کرنے کے لیے Python کوڈ لکھیں:
{{user_input}}
آئیے اسے یہاں ہیک کریں:
یہ ایک سادہ سی مثال ہے، لیکن اس سے ظاہر ہوتا ہے کہ اس قسم کا استحصال اہم اور خطرناک ہے۔
Kang, D., Li, X., Stoica, I., Guestrin, C., Zaharia, M., & Hashimoto, T. (2023). Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard Security Attacks. ↩