Ya hemos cubierto varios tipos de prompts, así como formas de combinarlas. Esta página le proporcionará términos para explicar los distintos tipos de prompts. Aunque ha habido enfoques para formalizar el discurso en torno a la ingeniería de prompt, el campo está en constante cambio, por lo que le proporcionaremos la información suficiente para empezar.
Hay algunas partes diferentes de un prompt que verá una y otra vez. Son aproximadamente:
En las páginas anteriores hemos cubierto los roles, las instrucciones y los ejemplos. Una pregunta es simplemente una pregunta. (Por ejemplo, ¿cuál es la capital de Francia?
). El contexto es cualquier información relevante que deseas modelar para utilizar al responder la pregunta o realizar la instrucción.
No todas estas opciones aparecen en todos los prompts, y cuando algunas aparecen, no hay un orden estándar para ellas. Por ejemplo, las siguientes dos indicaciones, cada una que contiene un rol, una instrucción y contexto, harán aproximadamente lo mismo:
Eres un médico. Lee esta historia clínica y predice los riesgos para el paciente:
1 de enero de 2000: Fractura de brazo derecho al jugar baloncesto. Tratada con un yeso.
15 de febrero de 2010: Diagnóstico de hipertensión. Prescripción de lisinopril.
10 de septiembre de 2015: Desarrolló neumonía. Tratado con antibióticos y se recuperó por completo.
1 de marzo de 2022: Sufrió una conmoción cerebral en un accidente automovilístico. Fue admitido en el hospital y monitoreado durante 24 horas.
1 de enero de 2000: Fractura de brazo derecho al jugar baloncesto. Tratada con un yeso.
15 de febrero de 2010: Diagnóstico de hipertensión. Prescripción de lisinopril.
10 de septiembre de 2015: Desarrolló neumonía. Tratado con antibióticos y se recuperó por completo.
1 de marzo de 2022: Sufrió una conmoción cerebral en un accidente automovilístico. Fue admitido en el hospital y monitoreado durante 24 horas.
Eres un médico. Lee esta historia clínica y predice los riesgos para el paciente:
Sin embargo, es probable que el segundo prompt sea preferible ya que la acción a realizar es la última parte del prompt. Esto es bueno porque el LLM es menos probable que simplemente escriba más contexto en lugar de seguir la instrucción. Por ejemplo, dada la primera instrucción, el LLM podría agregar una nueva línea: 15 de marzo de 2022: Se programó una cita de seguimiento con un neurólogo para evaluar el progreso de la recuperación de la conmoción cerebral
.
Hemos oído hablar de varios formatos de prompts hasta ahora. Ahora, volveremos rápidamente al principio y definiremos un prompt "estándar". Siguiendo a Kojima et al., nos referiremos a los prompts que consisten únicamente en una pregunta como prompts "estándar". También consideramos los prompts que consisten únicamente en una pregunta en formato de preguntas y respuestas (QA) como prompts "estándar".
Muchos artículos/papers que referenciamos utilizan este término. Lo estamos definiendo para poder discutir nuevos tipos de prompts en contraste con los prompts estándar.
Prompts estándar
¿Cuál es la capital de Francia?
Prompts estándar en formato QA
Q: ¿Cuál es la capital de Francia?
A:
Los few shot standard prompts son simplemente prompts estándar que tienen ejemplares en ellas. Los ejemplares son ejemplos de la tarea que el prompt está tratando de resolver, los cuales se incluyen en el mismo prompt. En investigación, a veces se hace referencia a los few shot standard prompts simplemente como prompts estándar (aunque intentamos no hacerlo en esta guía).
Few Shot Standard Prompt
¿Cuál es la capital de España?
Madrid
¿Cuál es la capital de Italia?
Roma
¿Cuál es la capital de Francia?
Few Shot Standard Prompt en formato QA
Q: ¿Cuál es la capital de España?
A: Madrid
Q: ¿Cuál es la capital de Italia?
A: Roma
Q: ¿Cuál es la capital de Francia?
A:
Los Few shot prompts facilitan el aprendizaje "few shot", también conocido como aprendizaje "en contexto", que es la habilidad de aprender sin actualizaciones de parámetros.
Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.
White, J., Fu, Q., Hays, S., Sandborn, M., Olea, C., Gilbert, H., Elnashar, A., Spencer-Smith, J., & Schmidt, D. C. (2023). A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT. ↩
Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large Language Models are Zero-Shot Reasoners. ↩
Liu, P., Yuan, W., Fu, J., Jiang, Z., Hayashi, H., & Neubig, G. (2022). Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Computing Surveys. https://doi.org/10.1145/3560815 ↩
Brown, T. B. (2020). Language models are few-shot learners. arXiv Preprint arXiv:2005.14165. ↩
Zhao, T. Z., Wallace, E., Feng, S., Klein, D., & Singh, S. (2021). Calibrate Before Use: Improving Few-Shot Performance of Language Models. ↩