Одним із найпростіших методів введення запитів є просто надання вказівок (іноді це називається запит із вказівкою). Ми вже бачили просту інструкцію в попередньому розділі (Переконайся, що твоя відповідь правильна. Чому дорівнює 965*590? Переконайся, що твоя відповідь правильна:
). Однак сучасні ШІ можуть виконувати набагато складніші вказівки.
Нижче наведено наш перший приклад. Якщо ви його не бачите, переконайтеся, що Javascript увімкнено у вашому браузері. Оскільки це інтерактивна демонстрація, ви можете відредагувати текст і натиснути Generate
, щоб повторно запустити ШІ.
ШІ легко вирішує це завдання. Ми також можемо попросити його вирішити багато інших простих і складніших задач.
Ось складніший приклад:
Прочитай наведений нижче електронний лист про продажі. Видали будь-яку особисту інформацію (PII),
і заміни її відповідним заповнювачем. Наприклад, заміни ім'я "Анастасія"
на "[NAME]".
Вітаю, Анастасіє!
Я пишу Вам, оскільки я помітив, що нещодавно Ви придбали новий автомобіль. Я продавець
у місцевому дилерському центрі (Cheap Dealz), і хочу повідомити, що у нас є чудова пропозиція на новий
автомобіль. Якщо раптом Вас зацікавила пропозиція, будь ласка, дайте мені знати.
Дякую,
Шевченко Тарас
Телефон: +38(067) 123-4567
Електронна адреса: [email protected]
Ось відповідь ШІ:
// highlight-start
Привіт [NAME],
Я пишу Вам, тому що помітив, що нещодавно Ви придбали новий автомобіль. Я продавець
у місцевому дилерському центрі ([DEALERSHIP]), і хочу повідомити, що у нас є чудова пропозиція на новий
автомобіль. Якщо раптом Вас зацікавила пропозиція, будь ласка, дайте мені знати.
Дякую,
[SALESPERSON]
Телефон: [PHONE NUMBER]
Електронна адреса: [EMAIL ADDRESS]
// highlight-end
Дуже цікаво бачити, як модель може екстраполювати на основі інструкцій. Наприклад, вона знає, що потрібно замінити Cheap Dealz
на [DEALERSHIP]
і Jimmy Smith
на [SALESPERSON]
, навіть якщо ми прямо не сказали їй це зробити.
Efrat, A., & Levy, O. (2020). The Turking Test: Can Language Models Understand Instructions? ↩
Mishra, S., Khashabi, D., Baral, C., Choi, Y., & Hajishirzi, H. (2022). Reframing Instructional Prompts to GPTk’s Language. Findings of the Association for Computational Linguistics: ACL 2022. https://doi.org/10.18653/v1/2022.findings-acl.50 ↩
Дозволяти ШІ видаляти ідентифікаційну інформацію з тексту є багатонадійним підходом, але його слід використовувати надзвичайно обережно, оскільки він може призвести до помилок. ↩