Last updated on August 7, 2024
Nous avons maintenant couvert plusieurs types de prompts, ainsi que des façons de les combiner. Cette page vous fournira des termes pour expliquer les différents types de prompts. Bien qu'il y ait eu des approches pour formaliser le discours autour du Prompt Engineering, le domaine est en constante évolution, nous vous fournirons donc juste assez d'informations pour commencer.
Il y a quelques parties différentes d'un prompt que vous verrez encore et encore. Ils sont approximativement :
Nous avons couvert les rôles, les instructions et les exemples dans les pages précédentes. Une question est simplement une question ! (Par exemple, quelle est la capitale de la France ?
). Le contexte est toute information pertinente que vous voulez que le modèle utilise lorsqu'il répond à la question ou effectue l'instruction.
Tous ces éléments ne se trouvent pas dans chaque prompt, et lorsqu'ils s'y trouvent, il n'y a pas d'ordre standard pour eux. Par exemple, les deux prompts suivants, qui contiennent chacun un rôle, une instruction et un contexte, feront à peu près la même chose :
Vous êtes médecin. Lisez cet historique médical et prédisez les risques pour le patient :
1 janvier 2000 : bras droit fracturé en jouant au basket. Traitement avec un plâtre.
15 février 2010 : diagnostic d'hypertension. Prescrit du lisinopril.
10 septembre 2015 : développe une pneumonie. Traitée avec des antibiotiques et récupérée complètement.
1 mars 2022 : a subi une commotion cérébrale dans un accident de voiture. Admis à l'hôpital et surveillé pendant 24 heures.
1 janvier 2000 : bras droit fracturé en jouant au basket. Traitement avec un plâtre.
15 février 2010 : diagnostic d'hypertension. Prescrit du lisinopril.
10 septembre 2015 : développe une pneumonie. Traitée avec des antibiotiques et récupérée complètement.
1 mars 2022 : a subi une commotion cérébrale dans un accident de voiture. Admis à l'hôpital et surveillé pendant 24 heures.
Vous êtes médecin. Lisez cet historique médical et prédisez les risques pour le patient :
Cependant, le deuxième prompt est probablement préférable car l'instruction est la dernière partie du prompt. C'est bien parce que le LLM est moins susceptible d'écrire simplement plus de contexte au lieu de suivre l'instruction. Par exemple, si on donne le premier prompt, le LLM pourrait ajouter une nouvelle ligne : 15 mars 2022 : rendez-vous de suivi prévu avec le neurologue pour évaluer la progression de la récupération de la commotion cérébrale.
Nous avons entendu parler de quelques formats de prompts jusqu'à présent. Maintenant, nous allons rapidement revenir au début et définir un prompt "standard". Suivant Kojima et al., nous considérons comme prompts "standard" ceux qui consistent uniquement en une question. Nous considérons également les prompts qui consistent uniquement en une question qui sont dans le format Q&R comme des prompts "standard".
De nombreux articles / papiers que nous référençons utilisent ce terme. Nous le définissons donc pour que nous puissions discuter de nouveaux types de prompts en contraste avec les prompts standard.
Prompt Standard
Quelle est la capitale de la France ?
Prompt standard dans le format Q&R
Q: Quelle est la capitale de la France ?
R:
Les prompts few-shot standards sont simplement des prompts standards qui contiennent des exemplaires. Les exemplaires sont des exemples de la tâche que le prompt essaye de résoudre, qui sont inclus dans le prompt lui-même. Dans la recherche, les prompts few-shot standards sont parfois simplement appelés prompts standards (bien que nous essayons de ne pas le faire dans ce guide).
Prompt few-shot standard
Quelle est la capitale de l'Espagne ?
Madrid
Quelle est la capitale de l'Italie ?
Rome
Quelle est la capitale de la France ?
Prompt few-shot standard dans le format Q&R
Q: Quelle est la capitale de l'Espagne ?
R: Madrid
Q: Quelle est la capitale de l'Italie ?
R: Rome
Q: Quelle est la capitale de la France ?
R:
Les prompts few-shot facilitent l'apprentissage "few-shot", alias "dans context", qui est la capacité à apprendre sans mise à jour des paramètres.
White, J., Fu, Q., Hays, S., Sandborn, M., Olea, C., Gilbert, H., Elnashar, A., Spencer-Smith, J., & Schmidt, D. C. (2023). A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT. ↩
Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large Language Models are Zero-Shot Reasoners. ↩
Liu, P., Yuan, W., Fu, J., Jiang, Z., Hayashi, H., & Neubig, G. (2022). Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Computing Surveys. https://doi.org/10.1145/3560815 ↩
Brown, T. B. (2020). Language models are few-shot learners. arXiv Preprint arXiv:2005.14165. ↩
Zhao, T. Z., Wallace, E., Feng, S., Klein, D., & Singh, S. (2021). Calibrate Before Use: Improving Few-Shot Performance of Language Models. ↩