انجینئرنگ گائیڈ
😃 بنیادی باتیں
💼 بنیادی ایپلی کیشنز
🧙‍♂️ انٹرمیڈیٹ
🤖 ایجنٹس
⚖️ اعتبار
🖼️ امیج پرمپٹنگ
🔓 پرامپٹ ہیکنگ
🔨 ٹولنگ
💪 پرامپٹ ٹیوننگ
🎲 متفرق
📙 الفاظ کا حوالہ
📚 کتابیات
📦 پرامپٹ مصنوعات
🛸 اضافی وسائل
🔥 گرم موضوعات
✨ کریڈٹس

LLMs کہ وجہ اور عمل

🟦 This article is rated medium
Reading Time: 1 minute

Last updated on August 7, 2024

ReAct(وجہ، عمل) پیچیدہ حل کرنے کے لیے زبان کے ماڈلز کو فعال کرنے کے لیے ایک نمونہ ہے۔ فطری زبان استدلال کا استعمال کرتے ہوئے کام۔ ReAct کو ان کاموں کے لیے ڈیزائن کیا گیا ہے جن میں LLM ہے۔ کچھ اعمال انجام دینے کی اجازت ہے۔ مثال کے طور پر، جیسا کہ MRKL سسٹم میں، ایک LLM قابل ہو سکتا ہے۔ معلومات کی بازیافت کے لیے بیرونی APIs کے ساتھ تعامل کرنا۔ جب ایک سوال پوچھا گیا کہ ایل ایل ایم معلومات کو بازیافت کرنے کے لیے ایک کارروائی کرنے کا انتخاب کر سکتا ہے، اور پھر سوال کا جواب دے سکتا ہے۔ حاصل کردہ معلومات کی بنیاد پر۔

ReAct Systems کو MRKL سسٹم کے طور پر سوچا جا سکتا ہے، ** وجہ کی اضافی صلاحیت کے ساتھ ** ان اعمال کے بارے میں جو وہ انجام دے سکتے ہیں۔

درج ذیل تصویر کا جائزہ لیں۔ ٹاپ باکس میں سوال HotPotQA سے لیا گیا ہے، ایک سوال کا جواب دینے والا ڈیٹا سیٹ جس میں پیچیدہ استدلال کی ضرورت ہوتی ہے۔ ReAct سوال کا جواب دینے کے قابل ہے۔ سوال کے بارے میں پہلے استدلال (سوچ 1)، اور پھر سوال بھیجنے کے لیے ایک عمل (ایکٹ 1) انجام دینا گوگل کو اس کے بعد یہ ایک مشاہدہ (Obs 1) حاصل کرتا ہے، اور اس سوچ، عمل، مشاہدے کے ساتھ جاری رہتا ہے۔ اس وقت تک لوپ کریں جب تک یہ کسی نتیجے پر نہ پہنچ جائے (ایکٹ 3)۔

کمک سیکھنے کا علم رکھنے والے قارئین اس عمل کو کلاسک کی طرح پہچان سکتے ہیں۔ ریاست، عمل، انعام، ریاست، کا RL لوپ... ReAct کے لیے کچھ رسمی شکل فراہم کرتا ہے۔ یہ ان کے کاغذ میں.

نتائج

Google نے ReAct کے تجربات میں PaLM LLM استعمال کیا۔ معیاری پرامپٹ (صرف سوال)، CoT، اور دیگر کنفیگریشنز سے موازنہ ظاہر کریں کہ ReAct کی کارکردگی پیچیدہ استدلال کے کاموں کے لیے امید افزا ہے۔ گوگل FEVER ڈیٹاسیٹ پر بھی مطالعہ کرتا ہے، جس کا احاطہ کیا گیا ہے۔ حقیقت نکالنا اور تصدیق۔

سینڈر شلہوف

Footnotes

  1. Yao, S., Zhao, J., Yu, D., Du, N., Shafran, I., Narasimhan, K., & Cao, Y. (2022).

  2. Yang, Z., Qi, P., Zhang, S., Bengio, Y., Cohen, W. W., Salakhutdinov, R., & Manning, C. D. (2018). HotpotQA: A Dataset for Diverse, Explainable Multi-hop Question Answering.

  3. Chowdhery, A., Narang, S., Devlin, J., Bosma, M., Mishra, G., Roberts, A., Barham, P., Chung, H. W., Sutton, C., Gehrmann, S., Schuh, P., Shi, K., Tsvyashchenko, S., Maynez, J., Rao, A., Barnes, P., Tay, Y., Shazeer, N., Prabhakaran, V., … Fiedel, N. (2022). PaLM: Scaling Language Modeling with Pathways.

  4. Thorne, J., Vlachos, A., Christodoulopoulos, C., & Mittal, A. (2018). FEVER: a large-scale dataset for Fact Extraction and VERification.

Copyright © 2024 Learn Prompting.