Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!

Check it out →
🧙‍♂️ Intermediate🟢 Zero Shot Chain of Thought

🟢 Zero Shot Chain of Thought

Last updated on August 7, 2024 by Sander Schulhoff

Zero Shot Chain of Thought (Zero-shot-CoT) prompting1 es un seguimiento del prompting de CoT2, que introduce un prompt zero shot increíblemente simple. Descubren que al agregar las palabras "Pensemos paso a paso." al final de una pregunta, los LLM pueden generar una cadena de pensamiento que responde a la pregunta. A partir de esta cadena de pensamiento, pueden extraer respuestas más precisas.

Zero Shot CoT (Kojima et al.)

Técnicamente, el proceso completo de Zero-shot-CoT implica dos prompts/completions separados. En la siguiente imagen, la burbuja superior de la izquierda genera una cadena de pensamiento, mientras que la burbuja superior de la derecha toma la salida del primer prompt (incluido el primer prompt en sí mismo) y extrae la respuesta de la cadena de pensamiento. Este segundo prompt es un prompt self augmented.

Full Zero Shot CoT Process (Kojima et al.)

Ejemplo

Aquí hay algunas demostraciones (que solo realizan extracción de razonamiento). Esta primera demostración muestra a GPT-3 (davinci-003) fallando en una simple pregunta de matemáticas, mientras que la segunda demostración utiliza un prompt Zero-shot-CoT y resuelve el problema con éxito. Siéntase libre de ingresar su clave de API de OpenAI (haga clic en Generar) y jugar con los ejemplos. Tenga en cuenta lo mucho más simple que es el prompt Zero-shot-CoT en comparación con el prompt CoT.

Incorrecta

Correcta

Resultados

Zero-shot-CoT también fue efectivo para mejorar los resultados en tareas de aritmética, sentido común y razonamiento simbólico. Sin embargo, como era de esperar, generalmente no fue tan efectivo como el CoT prompting. Un caso de uso importante para Zero-shot-CoT es cuando es difícil obtener ejemplos de few shot para la generación de CoT.

Ablaciones de Interés

Kojima et al. experimentaron con varios prompts de Zero-shot-CoT diferentes (por ejemplo, "Resolvamos este problema dividiéndolo en pasos." o "Pensemos en esto lógicamente."), pero encontraron que "Pensemos paso a paso" es el más efectivo para las tareas que seleccionaron.

Notas

El paso de extracción a menudo debe ser específico de la tarea, lo que hace que Zero-Shot-CoT sea menos generalizable de lo que parece al principio.

Anecdóticamente, he encontrado que los prompts de estilo Zero-shot-CoT a veces son efectivos para mejorar la longitud de las completaciones para tareas generativas. Por ejemplo, considera el prompt estándar Escribe una historia sobre una rana y un hongo que se hacen amigos. Agregar las palabras Pensemos paso a paso. al final de este prompt conduce a una completación mucho más larga.

Footnotes

  1. Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large Language Models are Zero-Shot Reasoners.

  2. Wei, J., Wang, X., Schuurmans, D., Bosma, M., Ichter, B., Xia, F., Chi, E., Le, Q., & Zhou, D. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models.

Word count: 0

Get AI Certified by Learn Prompting


Copyright © 2024 Learn Prompting.