Bienvenidos
😃 Básico
💼 Aplicaciones básicas
🧙‍♂️ Intermediate
🤖 Agentes
⚖️ Reliability
🖼️ Image Prompting
🔓 Prompt Hacking
🔨 Tooling
💪 Prompt Tuning
🎲 Miscellaneous
Models
📙 Referencia de Vocabulario
📚 Bibliography
📦 Prompted Products
🛸 Recursos adicionales
🔥 Hot Topics
✨ Créditos
🧙‍♂️ Intermediate🟦 Autoconsistencia

Autoconsistencia

🟦 This article is rated medium
Reading Time: 1 minute

Last updated on August 7, 2024

Autoconsistencia es un seguimiento de CoT que genera múltiples cadenas de pensamiento en lugar de solo una, luego toma la respuesta mayoritaria como la respuesta final.

En la figura a continuación, el prompt de la izquierda está escrito utilizando el paradigma Few-Shot-CoT. Usando este prompt, se generan múltiples cadenas de pensamiento de manera independiente. Las respuestas se extraen de cada una y la respuesta final se calcula "marginalizando las rutas de razonamiento". En la práctica, esto significa tomar la respuesta mayoritaria.

Autoconsistencia (Wang et al.)

Ejemplo

Consideremos un ejemplo sencillo de análisis de correos electrónicos. Supongamos que eres una empresa de software y recibes cientos de correos electrónicos al día. Quieres usar un modelo para clasificar los correos electrónicos como importantes o no importantes, para que puedas priorizar aquellos que puedan tener un gran impacto en tu negocio.

Aquí hay un ejemplo de correo electrónico que podrías recibir:

Hola,

He descubierto una gran vulnerabilidad de seguridad en su sistema. Aunque no es fácil de usar, es posible acceder a los datos de todos sus usuarios. He adjuntado una prueba de concepto. Por favor, solucione este problema lo antes posible.

Saludos cordiales,

Donny

Vamos a poner eso en un prompt:

Hola,

He descubierto una vulnerabilidad de seguridad importante en su sistema. Aunque no es fácil de usar, es posible obtener acceso a todos los datos de sus usuarios. Adjunto una prueba de concepto. Por favor, solucione este problema lo antes posible.

Saludos,

Donny

Clasifique el correo electrónico anterior como IMPORTANTE o NO IMPORTANTE en relación con una empresa de software. Pensemos paso a paso.

Ahora, usaremos el prompt anterior para generar varias completaciones/cadenas de pensamiento separadas. Aquí hay algunos ejemplos:

{"highlight-start"}
- El remitente ha descubierto una vulnerabilidad de seguridad importante en el sistema. Esto es importante porque podría conducir a una violación de datos. Clasificaría este correo electrónico como IMPORTANTE.
{"highlight-end"}
{"highlight-start"}

- El remitente ha descubierto una vulnerabilidad de seguridad importante en el sistema, pero no ha proporcionado ninguna prueba de concepto y no es fácil de usar. Clasificaría este correo electrónico como NO IMPORTANTE.
{"highlight-end"}
{"highlight-start"}

- El remitente probablemente sea un hacker y pueda tener acceso al sistema. Esto es importante porque podría conducir a una violación de datos. Clasificaría este correo electrónico como IMPORTANTE.
{"highlight-end"}

Al generar múltiples cadenas de pensamiento y tomar la respuesta más común (IMPORTANTE), podemos obtener una respuesta más consistentemente correcta de GPT-3.

Resultados

Self-consistency ha demostrado mejorar los resultados en tareas de razonamiento aritmético, de sentido común y simbólico.

Incluso cuando se encontró que CoT regular era ineficaz, self-consistency todavía fue capaz de mejorar los resultados.

Notas

Wang et al. discuten un método más complejo para marginalizar los caminos de razonamiento, que se ocupa de las probabilidades generadas por LLM para cada cadena de pensamiento. Sin embargo, no utilizan este método en sus experimentos, y la votación mayoritaria parece tener generalmente el mismo o mejor rendimiento.

Sander Schulhoff

Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.

Footnotes

  1. Wang, X., Wei, J., Schuurmans, D., Le, Q., Chi, E., Narang, S., Chowdhery, A., & Zhou, D. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models.

  2. Ye, X., & Durrett, G. (2022). The Unreliability of Explanations in Few-shot Prompting for Textual Reasoning.

Copyright © 2024 Learn Prompting.