ہم ماڈل کے مختلف پہلوؤں کو کنٹرول کرنے کے لیے مخصوص LLM سیٹنگز استعمال کر سکتے ہیں، جیسے کہ یہ کتنا 'رینڈم' ہے۔ ان ترتیبات کو مزید تخلیقی، ٹیکسٹوع اور دلچسپ آؤٹ پٹ پیدا کرنے کے لیے ایڈجسٹ کیا جا سکتا ہے۔ درجہ حرارت، اوپر P اور زیادہ سے زیادہ لمبائی کی ترتیبات سب سے اہم ہیں، لیکن ہم ہر اس ترتیب کی وضاحت کرتے ہیں جسے OpenAI پلے گراؤنڈ آپ کو ترمیم کرنے کی اجازت دیتا ہے۔
درجہ حرارت زبان کے ماڈل کے آؤٹ پٹ کی غیر متوقع صلاحیت کو کنٹرول کرتا ہے۔ اعلی درجہ حرارت کی ترتیبات کے ساتھ، آؤٹ پٹ زیادہ تخلیقی اور کم پیشین گوئی بن جاتے ہیں کیونکہ یہ کم ممکنہ ٹوکنز کے امکانات کو بڑھاتا ہے جبکہ زیادہ ممکنہ ٹوکنز کے لیے اسے کم کرتا ہے۔ اس کے برعکس، کم درجہ حرارت زیادہ قدامت پسند اور متوقع نتائج پیدا کرتا ہے۔ مندرجہ ذیل مثال آؤٹ پٹ میں ان اختلافات کو واضح کرتی ہے:
اعلی درجہ حرارت کی ترتیب کے ساتھ پیدا ہونے والا آؤٹ پٹ ساحل سمندر پر کرنے کے لیے سرگرمیوں کی ایک زیادہ خیالی اور ٹیکسٹوع فہرست پیش کرتا ہے۔ یہ تخلیقی تحریر کے لیے بہت مفید ثابت ہو سکتا ہے۔
اگر آپ درجہ حرارت کو بہت زیادہ ایڈجسٹ کرتے ہیں، تو آپ کو 'بیکسمتھ سٹین مین بیچ کے قریب ایک سپنج بال بیس بال ہوم رن مقابلہ شروع کریں' جیسے غیر حساس نتائج مل سکتے ہیں۔
ٹاپ P زبان کے ماڈلز میں ایک ترتیب ہے جو ان کے آؤٹ پٹ کی بے ترتیبی کو منظم کرنے میں مدد کرتی ہے۔ یہ ایک امکانی حد قائم کرکے اور پھر ایسے ٹوکنز کو منتخب کرکے کام کرتا ہے جن کا مشترکہ امکان اس حد سے تجاوز کرتا ہے۔
مثال کے طور پر، آئیے ایک مثال پر غور کریں جہاں ماڈل بلی ___
میں اگلے لفظ کی پیش گوئی کرتا ہے۔ سرفہرست پانچ الفاظ جن پر یہ غور کر رہا ہے وہ ہو سکتے ہیں درخت
(امکان 0.5)، چھت
(امکان 0.25)، وال
(امکان 0.15)،
window
(امکان .07) اور کارپٹ
، .03 کے امکان کے ساتھ۔
اگر ہم Top P کو .90
پر سیٹ کرتے ہیں، تو AI صرف ان ٹوکنز پر غور کرے گا جو مجموعی طور پر کم از کم ~90% تک کا اضافہ کرتے ہیں۔ ہمارے معاملے میں:
tree
-> کو شامل کرنا اب تک کی کل 50%
ہے۔roof
-> کو شامل کرنے سے کل 75%
بن جاتا ہے۔wall
، اور اب ہماری رقم 90%
تک پہنچ گئی ہے۔لہذا، آؤٹ پٹ پیدا کرنے کے لیے، AI تصادفی طور پر ان تین اختیارات (tree
، چھت
، اور wall
) میں سے ایک کو تصادفی طور پر منتخب کرے گا جیسا کہ وہ ارد گرد بنتے ہیں۔ تمام امکانات کا ~ 90 فیصد۔ یہ طریقہ روایتی طریقوں کے مقابلے میں زیادہ ٹیکسٹوع نتائج پیدا کر سکتا ہے جو کہ پورے ذخیرہ الفاظ سے اندھا دھند نمونہ لیتے ہیں کیونکہ یہ انفرادی ٹوکن کے بجائے مجموعی امکانات کی بنیاد پر انتخاب کو کم کرتا ہے۔
زیادہ سے زیادہ لمبائی کل # ٹوکنز ہے جو AI کو جنریٹ کرنے کی اجازت ہے۔ یہ ترتیب مفید ہے کیونکہ یہ صارفین کو ماڈل کے جواب کی لمبائی کا انتظام کرنے کی اجازت دیتی ہے، ضرورت سے زیادہ لمبے یا غیر متعلقہ ردعمل کو روکتی ہے۔ پلے گراؤنڈ باکس میں USER
ان پٹ اور ASSISTANT
کے تیار کردہ جواب کے درمیان لمبائی کا اشتراک کیا جاتا ہے۔ دھیان دیں کہ کس طرح 256 ٹوکن کی حد کے ساتھ، ہمارا PirateGPT پہلے سے اپنی کہانی کے مختصر وسط جملے کو کاٹنے پر مجبور ہے۔
اگر آپ پلے گراؤنڈ استعمال کرنے کے بجائے API کے ذریعے ماڈل کے استعمال کے لیے ادائیگی کر رہے ہیں تو اس سے لاگت کو کنٹرول کرنے میں بھی مدد ملتی ہے۔
بہت سی دوسری ترتیبات ہیں جو زبان کے ماڈل کی پیداوار کو متاثر کر سکتی ہیں، جیسے کہ سٹاپ سیکوینس، اور تعدد اور موجودگی کے جرمانے۔
اسٹاپ سیکوئنس ماڈل کو بتاتے ہیں کہ آؤٹ پٹ جنریشن کب بند کرنی ہے، جو آپ کو مواد کی لمبائی اور ساخت کو کنٹرول کرنے کی اجازت دیتا ہے۔ اگر آپ AI کو ای میل لکھنے کے لیے کہہ رہے ہیں، "بہترین سلام" یا "مخلصانہ" ترتیب دے رہے ہیں، جیسا کہ اسٹاپ سیکوئنس اس بات کو یقینی بناتا ہے کہ اختتامی سلام سے پہلے ماڈل رک جائے، جو ای میل کو مختصر اور پوائنٹ تک رکھتا ہے۔ اسٹاپ سیکوینس آؤٹ پٹ کے لیے کارآمد ہیں جس کی آپ ایک ساختی شکل جیسے ای میل، نمبر والی فہرست، یا ڈائیلاگ میں آنے کی توقع کرتے ہیں۔
تعدد جرمانہ ایک ترتیب ہے جو ٹوکن کو ٹیکسٹاسب طور پر سزا دے کر کہ تخلیق کردہ ٹیکسٹ میں تکرار کی حوصلہ شکنی کرتی ہے کہ وہ کتنی بار ظاہر ہوتے ہیں۔ ٹیکسٹ میں جتنی بار ٹوکن کا استعمال ہوتا ہے، AI کے دوبارہ استعمال کرنے کا امکان اتنا ہی کم ہوتا ہے۔
موجودگی کا جرمانہ تعدد جرمانے کی طرح ہے، لیکن ٹیکسٹاسب کی بجائے ٹوکنز کو اس بنیاد پر سزا دیتا ہے کہ آیا وہ واقع ہوئے ہیں یا نہیں۔
یہاں تک کہ جب درجہ حرارت اور ٹاپ-P مکمل طور پر صفر پر سیٹ ہو جائیں، ہو سکتا ہے کہ AI ہر بار ایک جیسا درست آؤٹ پٹ نہ دے سکے۔ یہ GPU (گرافکس پروسیسنگ یونٹ) کے حسابات میں بے ترتیب ہونے کی وجہ سے ہے جو AI کے "دماغ" میں کیا جا رہا ہے۔
آخر میں، لینگویج ماڈلز کے ساتھ کام کرتے وقت درجہ حرارت، ٹاپ پی، زیادہ سے زیادہ لمبائی اور دیگر جیسے سیٹنگز میں مہارت حاصل کرنا ضروری ہے۔ یہ پیرامیٹرز مخصوص کاموں یا ایپلی کیشنز کو پورا کرنے کے لیے ماڈل کے آؤٹ پٹ کے عین مطابق کنٹرول کی اجازت دیتے ہیں۔ وہ دیگر چیزوں کے ساتھ جوابات میں بے ترتیب پن، ردعمل کی لمبائی اور تکرار کی فریکوئنسی جیسے پہلوؤں کا نظم کرتے ہیں- یہ سب AI کے ساتھ آپ کے تعامل کو بہتر بنانے میں تعاون کرتے ہیں۔
جزوی طور پر jackdickens382 اور evintunador نے لکھا ہے۔