Prompt tuning, sebuah alternatif untuk penyetelan model, membekukan bobot model, dan memperbarui parameter dari sebuah perintah. Prompt yang dihasilkan adalah 'soft prompt'.
Penyetelan Model vs Penyetelan Prompt (Lester et al.)
Gambar di atas membandingkan penyetelan model dengan penyetelan prompt. Dalam penyetelan model, Anda menyetel ulang model yang sama pada tugas yang berbeda. Hal ini memberi Anda beberapa model yang berbeda, dengan mana Anda tidak selalu dapat memproses input secara mudah.
Di sisi lain, penyetelan cepat memungkinkan Anda menggunakan model yang sama untuk semua tugas. Anda hanya perlu menambahkan prompt yang tepat pada waktu inferensi, yang membuat pengelompokan lintas tugas yang berbeda menjadi lebih mudah. Hal ini memiliki keuntungan yang cukup sama dengan apa yang dimiliki prompting biasa. Sebagai tambahan, soft prompt yang dilatih untuk satu model di beberapa tugas sering kali memiliki panjang token yang sama.
Untuk memahami logika dasar dari soft prompting, mari kita berpikir bagaimana**inferensi model ** bekerja pada prompt tertentu: Berapa 2+2?
.
Itu mungkin akan di-tokenisasi sebagai Apa, 's, 2, +, 2, ?
.
Kemudian, setiap token akan dikonversi menjadi vektor nilai.
Vektor nilai ini dapat dianggap sebagai parameter model. Model dapat dilatih lebih lanjut, hanya menyesuaikan bobot dari prompt ini.
Perhatikan bahwa segera setelah kita mulai memperbarui bobot ini, vektor token tidak lagi sesuai dengan embedding aktual dari kosa kata.
Penyetelan prompt berkinerja lebih baik dengan model yang lebih besar. Model yang lebih besar juga memerlukan sedikit token soft prompt. Terlepas dari itu, lebih dari 20 token tidak menghasilkan peningkatan kinerja yang signifikan.
Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.
Lester, B., Al-Rfou, R., & Constant, N. (2021). The Power of Scale for Parameter-Efficient Prompt Tuning. ↩
Khashabi, D., Lyu, S., Min, S., Qin, L., Richardson, K., Welleck, S., Hajishirzi, H., Khot, T., Sabharwal, A., Singh, S., & Choi, Y. (2021). Prompt Waywardness: The Curious Case of Discretized Interpretation of Continuous Prompts. ↩