Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!

Check it out →
⚖️ Reliability🟢 Introducción

🟢 Introducción

Última actualización el August 7, 2024 por Sander Schulhoff

Este capítulo cubre cómo hacer que las completaciones sean más confiables, así como cómo implementar verificaciones para asegurar que las salidas sean confiables.

Hasta cierto punto, la mayoría de las técnicas anteriores cubiertas tienen que ver con mejorar la precisión de las completaciones y, por lo tanto, la confiabilidad, en particular la autoconsistencia1. Sin embargo, hay una serie de otras técnicas que se pueden utilizar para mejorar la confiabilidad, más allá de las estrategias básicas de generación de entradas.

Los LLMs exhiben diversos problemas, incluyendo alucinaciones2, explicaciones defectuosas con los métodos de generación de entradas CoT2, y múltiples sesgos, incluyendo sesgo de la etiqueta mayoritaria, sesgo de recencia y sesgo de token común3. Además, la generación de entradas de cero disparo CoT puede ser particularmente sesgada al tratar temas sensibles4.

Las soluciones comunes para algunos de estos problemas incluyen calibradores para eliminar los sesgos a priori, y verificadores para puntuar las completaciones, así como promover la diversidad en las completaciones.

Footnotes

  1. Wang, X., Wei, J., Schuurmans, D., Le, Q., Chi, E., Narang, S., Chowdhery, A., & Zhou, D. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models.

  2. Ye, X., & Durrett, G. (2022). The Unreliability of Explanations in Few-shot Prompting for Textual Reasoning. 2

  3. Zhao, T. Z., Wallace, E., Feng, S., Klein, D., & Singh, S. (2021). Calibrate Before Use: Improving Few-Shot Performance of Language Models.

  4. Shaikh, O., Zhang, H., Held, W., Bernstein, M., & Yang, D. (2022). On Second Thought, Let’s Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning.

Word count: 0

Get AI Certified by Learn Prompting


Copyright © 2024 Learn Prompting.