Bienvenidos
😃 Básico
💼 Aplicaciones básicas
🧙‍♂️ Intermediate
🤖 Agentes
⚖️ Reliability
🖼️ Image Prompting
🔓 Prompt Hacking
🔨 Tooling
💪 Prompt Tuning
🎲 Miscellaneous
Models
📙 Referencia de Vocabulario
📚 Bibliography
📦 Prompted Products
🛸 Recursos adicionales
🔥 Hot Topics
✨ Créditos
🧙‍♂️ Intermediate🟢 Zero Shot Chain of Thought

Zero Shot Chain of Thought

🟢 This article is rated easy
Reading Time: 2 minutes
Last updated on August 7, 2024

Sander Schulhoff

Zero Shot Chain of Thought (Zero-shot-CoT) prompting es un seguimiento del prompting de CoT, que introduce un prompt zero shot increíblemente simple. Descubren que al agregar las palabras "Pensemos paso a paso." al final de una pregunta, los LLM pueden generar una cadena de pensamiento que responde a la pregunta. A partir de esta cadena de pensamiento, pueden extraer respuestas más precisas.

Zero Shot CoT (Kojima et al.)

Técnicamente, el proceso completo de Zero-shot-CoT implica dos prompts/completions separados. En la siguiente imagen, la burbuja superior de la izquierda genera una cadena de pensamiento, mientras que la burbuja superior de la derecha toma la salida del primer prompt (incluido el primer prompt en sí mismo) y extrae la respuesta de la cadena de pensamiento. Este segundo prompt es un prompt self augmented.

Full Zero Shot CoT Process (Kojima et al.)

Ejemplo

Aquí hay algunas demostraciones (que solo realizan extracción de razonamiento). Esta primera demostración muestra a GPT-3 (davinci-003) fallando en una simple pregunta de matemáticas, mientras que la segunda demostración utiliza un prompt Zero-shot-CoT y resuelve el problema con éxito. Siéntase libre de ingresar su clave de API de OpenAI (haga clic en Generar) y jugar con los ejemplos. Tenga en cuenta lo mucho más simple que es el prompt Zero-shot-CoT en comparación con el prompt CoT.

Incorrecta

Correcta

Resultados

Zero-shot-CoT también fue efectivo para mejorar los resultados en tareas de aritmética, sentido común y razonamiento simbólico. Sin embargo, como era de esperar, generalmente no fue tan efectivo como el CoT prompting. Un caso de uso importante para Zero-shot-CoT es cuando es difícil obtener ejemplos de few shot para la generación de CoT.

Ablaciones de Interés

Kojima et al. experimentaron con varios prompts de Zero-shot-CoT diferentes (por ejemplo, "Resolvamos este problema dividiéndolo en pasos." o "Pensemos en esto lógicamente."), pero encontraron que "Pensemos paso a paso" es el más efectivo para las tareas que seleccionaron.

Notas

El paso de extracción a menudo debe ser específico de la tarea, lo que hace que Zero-Shot-CoT sea menos generalizable de lo que parece al principio.

Anecdóticamente, he encontrado que los prompts de estilo Zero-shot-CoT a veces son efectivos para mejorar la longitud de las completaciones para tareas generativas. Por ejemplo, considera el prompt estándar Escribe una historia sobre una rana y un hongo que se hacen amigos. Agregar las palabras Pensemos paso a paso. al final de este prompt conduce a una completación mucho más larga.

Sander Schulhoff

Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.

Footnotes

  1. Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large Language Models are Zero-Shot Reasoners.

  2. Wei, J., Wang, X., Schuurmans, D., Bosma, M., Ichter, B., Xia, F., Chi, E., Le, Q., & Zhou, D. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models.