Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!

Check it out →
🧙‍♂️ Середній рівень🟦 Самоузгодженість

🟦 Самоузгодженість

Востаннє оновлено Сандер Шульхофф August 7, 2024 року

Самоузгодженість1 — це підхід, який просто задає моделі той самий запит кілька разів і приймає результат більшості як остаточну відповідь. Він є доповненням до CoT і більш ефективним при використанні разом із ним.

Наприклад

Розглянемо простий приклад аналізу електронних листів. Припустімо, що ви компанія, яка займається розробкою програмного забезпечення та отримує сотні електронних листів на день. Ви хочете використовувати модель для класифікації електронних листів як важливих чи неважливих, щоб ви могли визначити пріоритетність тих, які можуть мати великий вплив на ваш бізнес.

Ось приклад електронного листа, який ви можете отримати:

Вітаю,

Я виявив серйозну прогалину у безпеці вашої системи. Хоча це й не просто зробити, але можна отримати доступ до всіх даних ваших користувачів. Я додав доказ концепції. Будь ласка, вирішіть цю проблему якомога швидше.

Всього найкращого,

Донні

Перетворимо це на запит:

Вітаю,

Я виявив серйозну прогалину у безпеці вашої системи. Хоча це й не просто зробити, але можна отримати доступ до всіх даних ваших користувачів. Я додав доказ концепції. Будь ласка, вирішіть цю проблему якомога швидше.

Всього найкращого,

Донні

Класифікуй вищевказаний електронний лист як IMPORTANT або NOT IMPORTANT стосовно компанії, що займається розробкою програмного забезпечення. Let's think step by step.

Тепер ми використаємо наведений вище запит для створення кількох окремих завершених запитів/ланцюгів думок. Ось кілька прикладів:

{"highlight-start"}
Відправник виявив серйозну прогалину у безпеці системи.
Це важливо, оскільки це може призвести до витоку даних.
Я б класифікував цей електронний лист як IMPORTANT
{"highlight-end"}
{"highlight-start"}
Відправник виявив серйозну прогалину у безпеці системи, але не надав жодних доказів концепції, і це непросто зробити.
Я б класифікував цей електронний лист як NOT IMPORTANT
{"highlight-end"}
{"highlight-start"}
Відправник ймовірно хакер і може мати доступ до системи.
Це важливо, оскільки це може призвести до витоку даних.
Я б класифікував цей електронний лист як IMPORTANT
{"highlight-end"}

Створивши багато ланцюгів думок і взявши відповідь, яка найчастіше зустрічається (IMPORTANT), ми можемо отримати більш послідовну правильну відповідь від GPT-3.

Результати

Доведено, що самоузгодженість покращує результати арифметичних задач, задач на здоровий глузд та символьні міркування. Навіть коли звичайний CoT виявився неефективним2, самоузгодженість все одно могла покращити результати.

Примітки

  • Вонг та ін. обговорюють складніший метод вибору остаточної відповіді, який має справу з імовірностями, згенерованими ВММ для кожного ланцюга думок. Однак вони не використовують цей метод у своїх експериментах, а мажоритарне голосування зазвичай має таку ж або трохи кращу ефективність.

Footnotes

  1. Wang, X., Wei, J., Schuurmans, D., Le, Q., Chi, E., Narang, S., Chowdhery, A., & Zhou, D. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models.

  2. Ye, X., & Durrett, G. (2022). The Unreliability of Explanations in Few-shot Prompting for Textual Reasoning.

Word count: 0

Get AI Certified by Learn Prompting


Copyright © 2024 Learn Prompting.