Announcing our new Course: AI Red-Teaming and AI Safety Masterclass

Check it out →

🟦 具有推理和行動能力的 LLMs

最後更新於August 7, 2024,作者:桑德舒爾霍夫

ReAct1(reason, act)是一種使用自然語言推理解決複雜任務的語言模型範例。ReAct 旨在用於允許 LLM 執行某些操作的任務。例如,在 MRKL 系統中,LLM 可以與外部 API 互動以檢索資訊。當提出問題時,LLM 可以選擇執行操作以檢索資訊,然後根據檢索到的資訊回答問題。

ReAct 系統可以被視為具有推理和行動能力的 MRKL 系統,。

請檢視以下影像。頂部框中的問題來自 HotPotQA2,這是一個需要複雜推理的問答資料集。 ReAct 能夠首先透過推理問題(Thought 1),然後執行一個動作(Act 1)來向 Google 傳送查詢來回答問題。然後它收到了一個觀察(Obs 1),並繼續進行這個思想,行動,觀察迴圈,直到達到結論(Act 3)。

ReAct System (Yao et al.)

具有強化學習知識的讀者可能會認為,這個過程類似於經典的 RL 迴圈:狀態,行動,獎勵,狀態,...。ReAct 在其論文中對此進行了一些規範化。

結論

Google 在 ReAct 的實驗中使用了 PaLM3 LLM。與標準提示(僅問題)、CoT 和其他配置進行比較表明,ReAct 在複雜推理任務方面的表現是有希望的。谷歌還對涵蓋事實提取和驗證的 Fever 資料集4進行了研究。

ReAct Results (Yao et al.)

Footnotes

  1. Yao, S., Zhao, J., Yu, D., Du, N., Shafran, I., Narasimhan, K., & Cao, Y. (2022).

  2. Yang, Z., Qi, P., Zhang, S., Bengio, Y., Cohen, W. W., Salakhutdinov, R., & Manning, C. D. (2018). HotpotQA: A Dataset for Diverse, Explainable Multi-hop Question Answering.

  3. Chowdhery, A., Narang, S., Devlin, J., Bosma, M., Mishra, G., Roberts, A., Barham, P., Chung, H. W., Sutton, C., Gehrmann, S., Schuh, P., Shi, K., Tsvyashchenko, S., Maynez, J., Rao, A., Barnes, P., Tay, Y., Shazeer, N., Prabhakaran, V., … Fiedel, N. (2022). PaLM: Scaling Language Modeling with Pathways.

  4. Thorne, J., Vlachos, A., Christodoulopoulos, C., & Mittal, A. (2018). FEVER: a large-scale dataset for Fact Extraction and VERification.

Edit this page
Word count: 0
Copyright © 2024 Learn Prompting.