Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!
Check it out →Hasta ahora hemos escuchado sobre varios formatos de prompts. Siguiendo a Kojima et al.1, nos referimos a los prompts que consisten únicamente en una pregunta como "Standard prompts". También consideramos como "Standard prompts" a aquellos que consisten únicamente en una pregunta y que se presentan en el formato de QA.
Muchos artículos que citamos usan este término. Lo estamos definiendo para poder discutir nuevos tipos de prompts en contraste con los Standard prompts.
Standard Prompt
¿Cuál es la capital de Francia?
Standard Prompt in QA format
Q: ¿Cuál es la capital de Francia?
A:
Few shot standard prompts2 son simplemente prompts estándar que tienen ejemplos (exemplars) en ellos. Los exemplars son ejemplos de la tarea que el prompt está tratando de resolver, que se incluyen en el propio prompt3. En la investigación, few shot standard prompts a veces se refieren simplemente como standard prompts (aunque intentamos no hacerlo en esta guía).
Few Shot Standard Prompt
¿Cuál es la capital de España?
Madrid
¿Cuál es la capital de Italia?
Roma
¿Cuál es la capital de Francia?
Few Shot Standard Prompt in QA format
Q: ¿Cuál es la capital de España?
A: Madrid
Q: ¿Cuál es la capital de Italia?
A: Roma
Q: ¿Cuál es la capital de Francia?
A:
Los prompts de "few shot" facilitan el aprendizaje en contexto, que es la capacidad de aprender sin actualizaciones de parámetros4.
Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large Language Models are Zero-Shot Reasoners. ↩
Liu, P., Yuan, W., Fu, J., Jiang, Z., Hayashi, H., & Neubig, G. (2022). Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Computing Surveys. https://doi.org/10.1145/3560815 ↩
Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., Winter, C., … Amodei, D. (2020). Language Models are Few-Shot Learners. ↩
Zhao, T. Z., Wallace, E., Feng, S., Klein, D., & Singh, S. (2021). Calibrate Before Use: Improving Few-Shot Performance of Language Models. ↩
Sign up and get the latest AI news, prompts, and tools.
Join 30,000+ readers from companies like OpenAI, Microsoft, Google, Meta and more!