Kita telah membahas beberapa tipe pertanyaan, serta cara menggabungkannya. Halaman ini akan memberikan Anda istilah-istilah untuk menjelaskan berbagai jenis prompt. Meskipun telah ada pendekatan untuk merumuskan wacana seputar teknik prompt, bidang ini terus bergerak, jadi kami akan memberi Anda informasi yang cukup untuk memulai.
Ada beberapa bagian yang berbeda dari sebuah prompt yang akan Anda lihat berulang-ulang. Mereka kurang lebih:
Kita telah membahas peran, instruksi, dan contoh pada halaman sebelumnya. Sebuah pertanyaan hanya sebuah pertanyaan! (Misalnya, apa ibukota Perancis?
). Konteks adalah informasi yang relevan yang Anda ingin model gunakan saat menjawab pertanyaan/menjalankan instruksi.
Tidak semuanya muncul di setiap prompt, dan ketika beberapa di antaranya muncul, tidak ada urutan standar untuk mereka. Misalnya, dua prompt berikut, yang masing-masing mengandung peran, instruksi, dan konteks, akan melakukan hal yang sama:
Kamu adalah seorang dokter. Baca riwayat medis ini dan prediksi risiko bagi pasien:
1 Januari 2000: Lengan kanan patah saat bermain basket. Ditangani dengan pembalut gips.
15 Februari 2010: Didiagnosis dengan hipertensi. Lisinopril yang diresepkan.
10 September 2015: Terkena pneumonia. Diperlakukan dengan antibiotik dan sembuh sepenuhnya.
1 Maret 2022: Mengalami gegar otak dalam kecelakaan mobil. Diterima di rumah sakit dan dipantau selama 24 jam.
1 Januari 2000: Lengan kanan patah saat bermain bola basket. Diperlakukan dengan gips.
15 Februari 2010: Didiagnosis dengan hipertensi. Menggunakan lisinopril.
10 September 2015: Terkena pneumonia. Diterapi dengan antibiotik dan sembuh total.
1 Maret 2022: Mengalami gegar otak dalam kecelakaan mobil. Diterima di rumah sakit dan dipantau selama 24 jam.
Anda adalah seorang dokter. Baca riwayat medis ini dan prediksi risiko bagi pasien:
Namun, prompt kedua mungkin lebih disukai karena instruksinya merupakan bagian terakhir dari prompt. Ini bagus karena LLM kemungkinan lebih sedikit menulis lebih banyak konteks daripada mengikuti instruksi. Misalnya, jika diberikan prompt pertama, LLM mungkin menambahkan baris baru: 15 Maret 2022: Janji temu tindak lanjut dengan ahli saraf untuk mengevaluasi kemajuan pemulihan gegar otak.
Kita telah mendengar beberapa format prompt yang berbeda sampai sekarang ini. Sekarang, kita akan cepat kembali ke awal dan mendefinisikan prompt "standar". Mengikuti Kojima dkk., kami akan mengacu pada perintah yang terdiri hanya dari pertanyaan sebagai prompt "standar". Kami juga mempertimbangkan desakan yang terdiri hanya dari sebuah pertanyaan yang berformat QA sebagai prompt "standar".
Banyak artikel/makalah yang kami rujuk menggunakan istilah ini. Kami mendefinisikannya agar kita dapat membahas tipe prompt baru dibandingkan dengan prompt standar.
Prompt Standar
Apa ibu kota Prancis?
Prompt Standar dalam format QA
Q: Apa ibu kota Prancis?
A:
Few shot prompt yang standar adalah prompt standar yang memiliki contoh di dalamnya. Exemplar adalah contoh dari tugas yang diusahakan oleh prompt, yang termasuk dalam prompt itu sendiri. Dalam penelitian, few shot prompts yang standar terkadang disebut sebagai prompt standar (meskipun kami mencoba tidak melakukannya dalam panduan ini).
Few Shot Standard Prompt
Apa ibu kota Spanyol?
Madrid
Apa ibu kota Italia?
Roma
Apa ibu kota Prancis?
Few Shot Standard Prompt dalam format QA
Q: Apa ibu kota Spanyol?
A: Madrid
Q: Apa ibukota Italia?
A: Roma
Q: Apa ibukota Prancis?
A:
Few shot prompts memfasilitasi pembelajaran "few shot" alias pembelajaran "in context", yaitu kemampuan untuk belajar tanpa pembaruan parameter.
Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.
White, J., Fu, Q., Hays, S., Sandborn, M., Olea, C., Gilbert, H., Elnashar, A., Spencer-Smith, J., & Schmidt, D. C. (2023). A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT. ↩
Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large Language Models are Zero-Shot Reasoners. ↩
Liu, P., Yuan, W., Fu, J., Jiang, Z., Hayashi, H., & Neubig, G. (2022). Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing. ACM Computing Surveys. https://doi.org/10.1145/3560815 ↩
Brown, T. B. (2020). Language models are few-shot learners. arXiv Preprint arXiv:2005.14165. ↩
Zhao, T. Z., Wallace, E., Feng, S., Klein, D., & Singh, S. (2021). Calibrate Before Use: Improving Few-Shot Performance of Language Models. ↩