⚖️ Reliability🟢 Introducción

Introducción

🟢 This article is rated easy
Reading Time: 1 minute

Last updated on August 7, 2024

Este capítulo cubre cómo hacer que las completaciones sean más confiables, así como cómo implementar verificaciones para asegurar que las salidas sean confiables.

Hasta cierto punto, la mayoría de las técnicas anteriores cubiertas tienen que ver con mejorar la precisión de las completaciones y, por lo tanto, la confiabilidad, en particular la autoconsistencia. Sin embargo, hay una serie de otras técnicas que se pueden utilizar para mejorar la confiabilidad, más allá de las estrategias básicas de generación de entradas.

Los LLMs exhiben diversos problemas, incluyendo alucinaciones, explicaciones defectuosas con los métodos de generación de entradas CoT, y múltiples sesgos, incluyendo sesgo de la etiqueta mayoritaria, sesgo de recencia y sesgo de token común. Además, la generación de entradas de cero disparo CoT puede ser particularmente sesgada al tratar temas sensibles.

Las soluciones comunes para algunos de estos problemas incluyen calibradores para eliminar los sesgos a priori, y verificadores para puntuar las completaciones, así como promover la diversidad en las completaciones.

Sander Schulhoff

Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.

Calibración de LLMs

🟢 Eliminación de sesgos

🟦 Diverse Prompts

🟦 Prompt Ensembling

🟦 Autoevaluación de LLM

🟦 Math

Footnotes

  1. Wang, X., Wei, J., Schuurmans, D., Le, Q., Chi, E., Narang, S., Chowdhery, A., & Zhou, D. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models.

  2. Ye, X., & Durrett, G. (2022). The Unreliability of Explanations in Few-shot Prompting for Textual Reasoning. 2

  3. Zhao, T. Z., Wallace, E., Feng, S., Klein, D., & Singh, S. (2021). Calibrate Before Use: Improving Few-Shot Performance of Language Models.

  4. Shaikh, O., Zhang, H., Held, W., Bernstein, M., & Yang, D. (2022). On Second Thought, Let’s Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning.

Edit this page
Word count: 0

Get AI Certified by Learn Prompting


Copyright © 2024 Learn Prompting.