Самоузгодженість — це підхід, який просто задає моделі той самий запит кілька разів і приймає результат більшості як остаточну відповідь. Він є доповненням до CoT і більш ефективним при використанні разом із ним.
Розглянемо простий приклад аналізу електронних листів. Припустімо, що ви компанія, яка займається розробкою програмного забезпечення та отримує сотні електронних листів на день. Ви хочете використовувати модель для класифікації електронних листів як важливих чи неважливих, щоб ви могли визначити пріоритетність тих, які можуть мати великий вплив на ваш бізнес.
Ось приклад електронного листа, який ви можете отримати:
Вітаю,
Я виявив серйозну прогалину у безпеці вашої системи. Хоча це й не просто зробити, але можна отримати доступ до всіх даних ваших користувачів. Я додав доказ концепції. Будь ласка, вирішіть цю проблему якомога швидше.
Всього найкращого,
Донні
Перетворимо це на запит:
Вітаю,
Я виявив серйозну прогалину у безпеці вашої системи. Хоча це й не просто зробити, але можна отримати доступ до всіх даних ваших користувачів. Я додав доказ концепції. Будь ласка, вирішіть цю проблему якомога швидше.
Всього найкращого,
Донні
Класифікуй вищевказаний електронний лист як IMPORTANT або NOT IMPORTANT стосовно компанії, що займається розробкою програмного забезпечення. Let's think step by step.
Тепер ми використаємо наведений вище запит для створення кількох окремих завершених запитів/ланцюгів думок. Ось кілька прикладів:
{"highlight-start"}
Відправник виявив серйозну прогалину у безпеці системи.
Це важливо, оскільки це може призвести до витоку даних.
Я б класифікував цей електронний лист як IMPORTANT
{"highlight-end"}
{"highlight-start"}
Відправник виявив серйозну прогалину у безпеці системи, але не надав жодних доказів концепції, і це непросто зробити.
Я б класифікував цей електронний лист як NOT IMPORTANT
{"highlight-end"}
{"highlight-start"}
Відправник ймовірно хакер і може мати доступ до системи.
Це важливо, оскільки це може призвести до витоку даних.
Я б класифікував цей електронний лист як IMPORTANT
{"highlight-end"}
Створивши багато ланцюгів думок і взявши відповідь, яка найчастіше зустрічається (IMPORTANT
), ми можемо отримати більш послідовну правильну відповідь від GPT-3.
Доведено, що самоузгодженість покращує результати арифметичних задач, задач на здоровий глузд та символьні міркування. Навіть коли звичайний CoT виявився неефективним, самоузгодженість все одно могла покращити результати.