Last updated on August 7, 2024
Eine der einfachsten Prompting-Methoden ist das Geben von Anweisungen (manchmal auch Instruction Prompting genannt). Wir haben bereits in einem früheren Abschnitt eine einfache Anweisung gesehen (Stell sicher, dass deine Antwort genau richtig ist. Was ist 965*590? Stell sicher, dass deine Antwort genau richtig ist:
). Allerdings, können moderne KIs viel komplexere Anweisungen befolgen.
Unten siehst du unsere erste Einbettung. Wenn du sie nicht siehst, stell sicher, dass du Javascript in deinem Browser aktiviert hast. Da es sich um eine interaktive Demo handelt, kannst du den Text bearbeiten und auf Generate
klicken, um die KI erneut zu starten.
Die KI ist problemlos in der Lage, dieses Problem zu lösen. Wir können sie auch mit der Lösung vieler anderer einfachen und komplexen Probleme beauftragen.
Hier ist ein komplizierteres Beispiel:
Lies die folgende Verkaufs-E-Mail. Entferne alle persönlich identifizierbaren Informationen (PII),
und ersetze sie durch den entsprechenden Platzhalter. Ersetze zum Beispiel den Namen "John Doe"
durch "[NAME]".
Hallo John,
Ich schreibe Ihnen, weil ich gesehen habe, dass Sie kürzlich ein neues Auto gekauft haben. Ich bin ein Verkäufer bei einem örtlichen Autohaus (Cheap Dealz), und ich wollte Ihnen mitteilen, dass wir ein tolles Angebot für ein neues Auto haben. Wenn Sie interessiert sind, lassen Sie es mich bitte wissen.
Danke!
Jimmy Smith
Telefon: 410-805-2345
E-Mail: [email protected]
Hier ist die Antwort der KI:
// highlight-start
Hallo [NAME],
Ich schreibe Ihnen, weil ich gesehen habe, dass Sie kürzlich ein neues Auto gekauft haben. Ich bin ein Verkäufer bei einem örtlichen Autohaus ([Autohaus]), und ich wollte Ihnen mitteilen, dass wir ein tolles Angebot für ein neues Auto haben. Wenn Sie interessiert sind, lassen Sie es mich bitte wissen.
Danke!
[Verkäufer*in]
Telefon: [Telefonnummer]
E-Mail: [E-Mail Adresse]
Es ist sehr spannend zu sehen, wie das Modell von den Anweisungen aus extrapolieren kann. Zum Beispiel weiß es, dass es Cheap Dealz
mit [Autohaus]
und Jimmy Smith
mit [Verkäufer*in]
ersetzen soll, obwohl wir ihm nicht ausdrücklich gesagt haben, dies zu tun.
Efrat, A., & Levy, O. (2020). The Turking Test: Can Language Models Understand Instructions? ↩
Mishra, S., Khashabi, D., Baral, C., Choi, Y., & Hajishirzi, H. (2022). Reframing Instructional Prompts to GPTk’s Language. Findings of the Association for Computational Linguistics: ACL 2022. https://doi.org/10.18653/v1/2022.findings-acl.50 ↩
KI zu erlauben, personenbezogene Daten aus Texten zu entfernen, ist ein vielversprechender Ansatz, sollte aber mit äußerster Vorsicht eingesetzt werden, da sie Fehler machen kann. [^*] Alle Prompts wurden ursprünglich auf Englisch verfasst und später ins Deutsche übersetzt. Die deutschen Prompts könnten andere Ausgaben zur Folge haben. ↩