Announcing our new Paper: The Prompt Report, with Co-authors from OpenAI & Microsoft!
Check it out →Por favor, consulte esta página para obtener una lista de términos y conceptos que utilizaremos a lo largo de este curso.
Estos términos se refieren más o menos a lo mismo: AIs grandes (redes neuronales), que por lo general se han entrenado en una gran cantidad de texto.
Los MLMs son un tipo de modelo de NLP que tienen un token especial, generalmente [MASK]
, que se sustituye por una palabra del vocabulario. El modelo luego predice la palabra que se enmascaró. Por ejemplo, si la oración es "El perro está [MASK] al gato", el modelo predecirá "persiguiendo" con alta probabilidad.
El concepto de etiquetas se comprende mejor con un ejemplo.
Digamos que queremos clasificar algunos tweets como "ofensivos" o "no ofensivos". Si tenemos una lista de tweets y su correspondiente etiqueta (ofensivo o no ofensivo), podemos entrenar un modelo para clasificar si los tweets son ofensivos o no. Las etiquetas son generalmente solo posibilidades para la tarea de clasificación.
Todas las posibles etiquetas para una tarea dada ("ofensivo" y "no ofensivo" para el ejemplo anterior).
El análisis de sentimiento es la tarea de clasificar el texto en sentimientos positivos, negativos u otros.
Estos términos se utilizan de manera algo intercambiable a lo largo de este curso, pero no siempre significan lo mismo. Los LLM son un tipo de AI, como se señaló anteriormente, pero no todas las AIs son LLM. Cuando mencionamos modelos en este curso, nos referimos a modelos de IA. Como tal, en este curso, puede considerar los términos "modelo" y "IA" como intercambiables.
En el entorno de clasificación, los verbalizadores son mapeos de etiquetas a palabras en el vocabulario del modelo de lenguaje2. Por ejemplo, considere realizar la clasificación de sentimientos con el siguiente prompt:
Tweet: "Amo los hotpockets"
¿Cuál es el sentimiento de este tweet? Diga 'pos' o 'neg'.
Aquí, el verbalizador es el mapeo de las etiquetas conceptuales de positive
y negative
a los tokens pos
y neg
.
RLHF es un método para ajustar los LLM según los datos de preferencia humana.
Branch, H. J., Cefalu, J. R., McHugh, J., Hujer, L., Bahl, A., del Castillo Iglesias, D., Heichman, R., & Darwishi, R. (2022). Evaluating the Susceptibility of Pre-Trained Language Models via Handcrafted Adversarial Examples. ↩
Schick, T., & Schütze, H. (2020). Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference. ↩
Sign up and get the latest AI news, prompts, and tools.
Join 30,000+ readers from companies like OpenAI, Microsoft, Google, Meta and more!