Last updated on August 7, 2024
لینگویج لرننگ ماڈلز (LLMs) کے لیے پرامپٹ تیار کرتے وقت، غور کرنے کے لیے کئی عوامل ہوتے ہیں۔ فارمیٹ اور لیبل اسپیس دونوں ہی پرامپٹ کی تاثیر میں اہم کردار ادا کرتے ہیں۔
ایک پرامپٹ میں exemplars کا فارمیٹ اہم ہے۔ یہ ایل ایل ایم کو ہدایت دیتا ہے کہ اس کے ردعمل کو کس طرح تشکیل دیا جائے۔ مثال کے طور پر، اگر نمونے جوابات کے طور پر تمام بڑے الفاظ استعمال کرتے ہیں، تو LLM اس کی پیروی کرے گا، چاہے فراہم کردہ جوابات غلط ہوں۔
مندرجہ ذیل مثال پر غور کریں:
2+2 کیا ہے؟
پچاس
20+5 کیا ہے؟
تینتالیس
12+9 کیا ہے؟
اکیس
غلط جوابات کے باوجود، LLM اپنے جواب کو تمام بڑے حروف میں درست طریقے سے فارمیٹ کرتا ہے۔
دلچسپ بات یہ ہے کہ مثالوں میں اصل جوابات یا 'زمینی سچائی' اتنے اہم نہیں ہیں جتنا کہ کوئی سوچ سکتا ہے۔ تحقیق سے پتہ چلتا ہے کہ مثالوں میں بے ترتیب labels فراہم کرنے سے کارکردگی پر بہت کم اثر پڑتا ہے۔ اس کا مطلب یہ ہے کہ LLM اب بھی صحیح جواب پیدا کر سکتا ہے یہاں تک کہ اگر مثالیں غلط معلومات پر مشتمل ہوں۔
اگرچہ زمینی سچائی اہم نہیں ہوسکتی ہے، لیبل اسپیس ہے۔ لیبل اسپیس سے مراد کسی کام کے لیے ممکنہ لیبلز کی فہرست ہے۔ مثال کے طور پر، درجہ بندی کے کام میں، لیبل اسپیس میں "مثبت" اور "منفی" شامل ہو سکتے ہیں۔
مثالوں میں لیبل اسپیس سے بے ترتیب لیبل فراہم کرنے سے LLM کو لیبل اسپیس کو بہتر طور پر سمجھنے میں مدد مل سکتی ہے، جس کے نتیجے میں نتائج بہتر ہوتے ہیں۔ مزید برآں، یہ ضروری ہے کہ لیبل اسپیس کی تقسیم کو نمونوں میں درست طریقے سے پیش کیا جائے۔ لیبل اسپیس سے یکساں نمونے لینے کے بجائے، لیبلز کی صحیح تقسیم کے مطابق نمونہ لینا بہتر ہے۔ مثال کے طور پر، اگر آپ کے پاس ریستوراں کے جائزوں کا ڈیٹاسیٹ ہے اور ان میں سے %% مثبت ہیں، تو آپ کے پرامپٹ میں مثبت/منفی پرامپٹس کا تناسب 3:2 ہونا چاہیے۔
پرامپٹس بناتے وقت، 4-8 مثالوں کے درمیان استعمال کرنے سے اچھا نتیجہ نکلتا ہے ۔ تاہم، زیادہ سے زیادہ مثالوں کو شامل کرنا اکثر فائدہ مند ہو سکتا ہے۔
آخر میں، فارمیٹ، زمینی سچائی، اور لیبل اسپیس کی اہمیت کو سمجھنا آپ کے پرامپٹ کی تاثیر کو بہت زیادہ بڑھا سکتا ہے۔
مزید معلومات کے لیے vocabulary reference دیکھیں۔ ↩
Min, S., Lyu, X., Holtzman, A., Artetxe, M., Lewis, M., Hajishirzi, H., & Zettlemoyer, L. (2022). Rethinking the Role of Demonstrations: What Makes In-Context Learning Work? ↩ ↩2 ↩3