Last updated on August 7, 2024
Wir haben nun mehrere Arten von Prompts sowie Möglichkeiten, sie zu kombinieren, behandelt. Auf dieser Seite findest du Begriffe, die die verschiedenen Arten von Prompts erklären. Obwohl es Ansätze zur Formalisierung des Diskurses über das Prompt-Engineering gibt, ist das Feld ständig im Wandel begriffen, so dass wir dir gerade genug Informationen für den Einstieg geben.
Es gibt ein paar verschiedene Teile eines Prompts, die du immer wieder sehen wirst. Die sind:
Auf den vorhergehenden Seiten haben wir Rollen, Anweisungen und Beispiele behandelt. Eine Frage ist einfach eine Frage! (z. B. Was ist die Hauptstadt von Frankreich?
). Kontext ist jede relevante Information, die das Modell bei der Beantwortung der Frage/Ausführung der Anweisung verwenden soll.
Nicht alle dieser Elemente kommen in jedem Prompt vor, und wenn einige von ihnen vorkommen, gibt es keine Standardreihenfolge für sie. Die folgenden beiden Prompts, die jeweils eine Rolle, eine Anweisung und einen Kontext enthalten, bewirken in etwa das Gleiche:
Du bist ein Arzt. Lies diese Anamnese und sag die Risiken für den Patienten voraus:
1. Januar 2000: Bruch des rechten Arms beim Basketballspielen. Wird mit einem Gips behandelt.
15. Februar 2010: Diagnose: Bluthochdruck. Verschreibung von Lisinopril.
10. September 2015: Erkrankte an einer Lungenentzündung. Wurde mit Antibiotika behandelt und erholte sich vollständig.
1. März 2022: Erlitt eine Gehirnerschütterung bei einem Autounfall. Wurde ins Krankenhaus eingeliefert und 24 Stunden lang überwacht.
1. Januar 2000: Bruch des rechten Arms beim Basketballspielen. Wird mit einem Gips behandelt.
15. Februar 2010: Diagnose: Bluthochdruck. Verschreibung von Lisinopril.
10. September 2015: Erkrankte an einer Lungenentzündung. Wurde mit Antibiotika behandelt und erholte sich vollständig.
1. März 2022: Erlitt eine Gehirnerschütterung bei einem Autounfall. Wurde ins Krankenhaus eingeliefert und 24 Stunden lang überwacht.
Du bist ein Arzt. Lies diese Anamnese und sag die Risiken für den Patienten voraus:
Der zweite Prompt ist jedoch wahrscheinlich vorzuziehen, da die Anweisung der letzte Teil des Prompts ist. Dies ist gut, da es weniger wahrscheinlich ist, dass der LLM einfach mehr Kontext schreibt, anstatt der Anweisung zu folgen. Zum Beispiel könnte der LLM bei dem ersten Prompt eine neue Zeile hinzufügen: 15. März 2022: Nachfolgetermin beim Neurologen zur Beurteilung des Genesungsfortschritts der Gehirnerschütterung angesetzt
.
Wir haben bisher von einigen verschiedenen Formaten von Prompts gehört. Nun wollen wir schnell zum Anfang zurückkehren und einen Standard Prompt definieren. In Anlehnung an Kojima et al. bezeichnen wir Prompts, die nur aus einer Frage bestehen, als Standard Prompts. Wir betrachten auch Prompts, die nur aus einer Frage bestehen, die im QA-Format verfasst wurde, als Standard Prompts.
Viele Artikel/Paper, auf die wir verweisen, verwenden diesen Begriff. Wir definieren ihn, damit wir über neue Arten von Prompts im Gegensatz zu Standard-Prompts diskutieren können.
Standard Prompt
Was ist die Hauptstadt Frankreichs?
Standard Prompt im QA Format
Q: Was ist die Hauptstadt Frankreichs?
A:
Few Shot Standard Prompts sind nur Standard Prompts, die Exemplare enthalten. Exemplare sind Beispiele für die Aufgabe, die der Prompt zu lösen versucht, die im Prompt selbst enthalten sind. In der Forschung werden die Few Shot Standard Prompts manchmal einfach als Standard Prompts bezeichnet (obwohl wir versuchen, dies in diesem Leitfaden nicht zu tun).
Few Shot Standard Prompt
Was ist die Hauptstadt von Spanien?
Madrid
Was ist die Hauptstadt Italiens?
Rom
Was ist die Hauptstadt Frankreichs?
Few Shot Standard Prompt im QA Format
Q: Was ist die Hauptstadt von Spanien?
A: Madrid
Q: Was ist die Hauptstadt Italiens?
A: Rom
Q: Was ist die Hauptstadt Frankreichs?
A:
Few Shot Prompts erleichtern das Lernen im Kontext, d.h. die Fähigkeit, ohne Parameteraktualisierungen zu lernen.
White, J., Fu, Q., Hays, S., Sandborn, M., Olea, C., Gilbert, H., Elnashar, A., Spencer-Smith, J., & Schmidt, D. C. (2023). A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT. ↩
Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large Language Models are Zero-Shot Reasoners. ↩
Liu, P., Yuan, W., Fu, J., Jiang, Z., Hayashi, H., & Neubig, G. (2022). Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Computing Surveys. https://doi.org/10.1145/3560815 ↩
Brown, T. B. (2020). Language models are few-shot learners. arXiv Preprint arXiv:2005.14165. ↩
Zhao, T. Z., Wallace, E., Feng, S., Klein, D., & Singh, S. (2021). Calibrate Before Use: Improving Few-Shot Performance of Language Models. ↩