انجینئرنگ گائیڈ
😃 بنیادی باتیں
💼 بنیادی ایپلی کیشنز
🧙‍♂️ انٹرمیڈیٹ
🤖 ایجنٹس
⚖️ اعتبار
🖼️ امیج پرمپٹنگ
🔓 پرامپٹ ہیکنگ
🔨 ٹولنگ
💪 پرامپٹ ٹیوننگ
🎲 متفرق
📙 الفاظ کا حوالہ
📚 کتابیات
📦 پرامپٹ مصنوعات
🛸 اضافی وسائل
🔥 گرم موضوعات
✨ کریڈٹس
🧙‍♂️ انٹرمیڈیٹ🟢 زیرو شاٹ چین آف تھاٹ

زیرو شاٹ چین آف تھاٹ

🟢 This article is rated easy
Reading Time: 1 minute
Last updated on August 7, 2024

سینڈر شلہوف

زیرو شاٹ چین آف تھاٹ (زیرو شاٹ-کوٹ) پرامپٹنگ ایک ہے CoT prompting تک کی پیروی کریں، جو ایک ناقابل یقین حد تک متعارف کراتی ہے۔ سادہ صفر شاٹ پرامپٹ۔ انہوں نے الفاظ کو جوڑ کر پایا کہ "** آئیے سوچتے ہیں قدم مرحلہ وار۔**" سوال کے اختتام تک، LLMs کا ایک سلسلہ تیار کرنے کے قابل ہیں۔ سوچا کہ سوال کا جواب دیتا ہے. اس زنجیر فکر سے وہ اس قابل ہیں۔ مزید درست جوابات نکالیں۔

تکنیکی طور پر، مکمل Zero-shot-CoT عمل میں دو الگ الگ پرامپٹ/ تکمیلات شامل ہیں۔ نیچے کی تصویر میں، بائیں طرف اوپر والا بلبلہ سوچ کا ایک سلسلہ پیدا کرتا ہے، جبکہ اوپر والا بلبلہ دائیں پہلے پرامپٹ سے آؤٹ پٹ لیتا ہے (بشمول پہلا پرامپٹ خود) اور سوچ کی زنجیر سے جواب نکالتا ہے۔ یہ دوسرا پرامپٹ ایک self augmented prompt ہے۔

مثال

یہاں کچھ ڈیمو ہیں (جو صرف استدلال نکالتے ہیں)۔ یہ پہلے ڈیمو GPT-3 (davinci-003) کو ریاضی کے ایک سادہ سوال میں ناکام ہونے کو دکھاتا ہے، جبکہ دوسرا ڈیمو ایک استعمال کرتا ہے Zero-shot-CoT پرامپٹ اور کامیابی سے مسئلہ حل کرتا ہے۔ بلا جھجھک اپنا درج کریں۔ OpenAI API کلید (جنریٹ پر کلک کریں) اور مثالوں کے ساتھ چلائیں۔ نوٹ کریں کہ کتنا آسان ہے۔ زیرو شاٹ-CoT پرامپٹ کا موازنہ CoT پرامپٹ سے کیا جاتا ہے۔

Incorrect

درست

نتائج

Zero-shot-CoT ریاضی، کامن سینس، پر نتائج کو بہتر بنانے میں بھی موثر تھا۔ اور علامتی استدلال کے کام۔ تاہم، حیرت انگیز طور پر، یہ عام طور پر نہیں تھا CoT پرامپٹنگ کے طور پر موثر۔ Zero-shot-CoT کے لیے استعمال کا ایک اہم کیس حاصل کرتے وقت ہے۔ CoT پرامپٹنگ کے لیے چند شاٹ مثالیں مشکل ہیں۔

سود کا خاتمہ

کوجیما وغیرہ۔ متعدد مختلف Zero-shot-CoT پرامپٹس کے ساتھ تجربہ کریں۔ (مثال کے طور پر "آئیے اس مسئلے کو قدموں میں تقسیم کرکے حل کریں۔" یا "آئیے اس کے بارے میں منطقی طور پر سوچیں۔")، لیکن انہیں معلوم ہوا کہ "آئیے قدم بہ قدم سوچیں" ان کے لیے سب سے زیادہ مؤثر ہے۔ منتخب کام.

نوٹس

نکالنے کا مرحلہ اکثر کام کے لیے مخصوص ہونا چاہیے، جس سے زیرو-Shot-CoT کم ہو جاتا ہے۔ عام طور پر اس سے کہیں زیادہ جو پہلے نظر آتا ہے۔

مختصراً، میں نے محسوس کیا ہے کہ زیرو شاٹ-CoT طرز کے پرامپٹ بعض اوقات کارآمد ہوتے ہیں۔ تخلیقی کاموں کی تکمیل کی لمبائی کو بہتر بنانے میں۔ مثال کے طور پر غور کریں۔ معیاری پرامپٹ 'ایک مینڈک اور ایک مشروم کے بارے میں ایک کہانی لکھیں جو دوست بن جاتے ہیں۔' اس پرامپٹ کے آخر میں 'آئیے قدم بہ قدم سوچتے ہیں' کے الفاظ کو شامل کرنے سے ایک بہت طویل تکمیل.

Footnotes

  1. Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large Language Models are Zero-Shot Reasoners.

  2. Wei, J., Wang, X., Schuurmans, D., Bosma, M., Ichter, B., Xia, F., Chi, E., Le, Q., & Zhou, D. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models.