Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!
Check it out →Перегляньте на цій сторінці список термінів і понять, які ми будемо використовувати впродовж цього курсу.
Усі ці терміни більш-менш стосуються того самого: великих ШІ (нейронних мереж), які зазвичай тренують на величезних обсягах тексту.
MМM – це тип моделі NLP, яка має спеціальний токен, зазвичай [MASK]
, який замінено словом зі словника. Потім модель передбачає слово, яке було замасковане. Наприклад, якщо речення має наступний вигляд: «Собака [MASK] кота», модель передбачить "переслідує" з високою ймовірністю.
Концепцію маркерів можна найкраще зрозуміти на прикладі.
Скажімо, ми хочемо класифікувати деякі твіти як злі чи не злі. Якщо у нас є список твітів і їх відповідний маркер (злий чи не злий), ми можемо навчити модель класифікувати, чи є твіти такими чи ні. Маркери зазвичай є лише можливостями для класифікаційного завдання.
Усі можливі маркери для заданого завдання («злий» та «не злий» для прикладу вище).
Аналіз тональності — це завдання класифікації тексту на предмет позитивної, негативної чи іншої тональності.
У цьому курсі ці терміни використовуються як взаємозамінні, але вони не завжди означають те саме. ВММ є типом ШІ, як зазначалося вище, але не всі ШІ є ВММ. Коли ми згадували моделі в цьому курсі, ми мали на увазі моделі ШІ. Таким чином, у цьому курсі ви можете вважати терміни «модель» та «ШІ» взаємозамінними.
MН – це галузь досліджень, яка зосереджена на алгоритмах, що можуть навчатися на основі даних. MН є підгалуззю ШІ.
У налаштуваннях класифікації вербалізатори зіставляють маркери зі словами в словнику мовної моделі2. Наприклад, розглянемо виконання класифікації тональностей із таким запитом:
Твіт: "Я люблю солодощі"
Яка тональність цього твіту? Скажи «pos» або «neg».
Тут вербалізатор є відображенням концептуальних маркерів positive
і negative
на токени pos
і neg
.
RLHF — це метод точного налаштування ВММ відповідно до даних про вподобання людини.
A text or other input to a Generative AI
Standard prompts that have exemplars in them. Exemplars are examples of the task that the prompt is trying to solve, which are included in the prompt itself.
The main idea of CoT is that by showing the LLM some few shot exemplars where the reasoning process is explained in the exemplars, the LLM will also show the reasoning process when answering the prompt.
Generating multiple chains of thought and taking the majority answer.
All of the possible labels for a given task.
The correct labels for a given task.
The concept of labels is best understood with an example.
Say we want to classify some Tweets as mean or not mean. If we have a list of Tweets and their corresponding *label* (mean or not mean), we can train a model to classify whether tweets are mean or not. Labels are generally just possibilities for the classification task.
A neural network is a group of interconnected units called neurons that send signals to one another. Neurons can be either biological cells or mathematical models.
MLMs are a type of NLP model, which have a special token, usually [MASK], which is replaced with a word from the vocabulary. The model then predicts the word that was masked. For example, if the sentence is 'The dog is [MASK] the cat', the model will predict 'chasing' with high probability.
ML is a field of study that focuses on algorithms that can learn from data. ML is a subfield of AI.
RLHF is a method for fine tuning LLMs according to human preference data.
Application Programming Interface. Enables different systems to interact with each other programmatically. Two types of APIs are REST APIs (web APIs) and native-library APIs.
Examples of the task that the prompt is trying to solve, which are included in the prompt itself.
A LLM (Large Language Model) is a model that is trained on language.
Sentiment analysis is the task of classifying text into positive, negative, or other sentiments.
Branch, H. J., Cefalu, J. R., McHugh, J., Hujer, L., Bahl, A., del Castillo Iglesias, D., Heichman, R., & Darwishi, R. (2022). Evaluating the Susceptibility of Pre-Trained Language Models via Handcrafted Adversarial Examples. ↩
Schick, T., & Schütze, H. (2020). Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference. ↩