Bonjour cher lecteur, félicitations d'avoir franchi le chapitre d'introduction. Vous avez pris un excellent départ dans ce domaine passionnant. Avant de commencer à lire le reste du cours, il y a quelques petites choses que vous devez savoir sur les différentes IA et leur fonctionnement.
Il existe des milliers, voire des millions d'IA. Certaines sont meilleures que d'autres. Différentes IA peuvent produire des images, de la musique, du texte et même des vidéos. Il convient de noter qu'il s'agit dans tous les cas d'IA génératives, c'est-à-dire d'IA qui fabriquent des objets. Il existe également des IA discriminantes, c'est-à-dire des IA qui classent les choses. Par exemple, vous pouvez utiliser un classificateur d'images pour déterminer si une image représente un chat ou un chien. Nous n'utiliserons pas d'IA discriminante dans ce cours.
Seules quelques IA génératives sont actuellement suffisamment avancées pour être particulièrement utiles au Prompt Engineering. Nous utilisons principalement GPT-3 et ChatGPT dans ce cours. Comme nous l'avons mentionné à la dernière page, ChatGPT est un robot de conversation, alors que GPT-3 ne l'est pas. Ils produisent généralement des réponses différentes lorsqu'on leur pose la même question. Si vous êtes développeur, je vous recommande d'utiliser GPT-3, car il est plus facile à reproduire. Si vous n'êtes pas développeur, je vous recommande d'utiliser ChatGPT, car il est plus facile à utiliser. La plupart des techniques de ce cours peuvent être appliquées aux deux IA. Cependant, certaines d'entre elles ne seront applicables qu'à GPT-3, nous vous encourageons donc à utiliser GPT-3 si vous souhaitez utiliser toutes les techniques de ce cours.
Nous utiliserons également Stable Diffusion et DALL.E dans la section sur la génération d'images. Voir d'autres IA pertinentes ici.
Cette section décrit certains aspects des IA génératives de texte les plus répandues. Le cerveau de ces IA est constitué de milliards de neurones artificiels. La façon dont ces neurones sont structurés s'appelle une architecture de transformateur. Il s'agit d'un type de réseau neuronal assez complexe. Ce qu'il faut comprendre, c'est que:
Ces IA ne sont que des fonctions mathématiques. Au lieu de , elles comprennent f(milliers de variables) = milliers de résultats possibles.
Ces IA comprennent les phrases en les décomposant en mots/sous-mots appelés "tokens "(par exemple, l'IA pourrait lire "je n'aime pas"
comme "je", "n", "'aime", "pas"
). Chaque token est ensuite converti en une liste de nombres, afin que l'IA puisse le traiter.
Ces IA prédisent le mot/token suivant dans la phrase en fonction des mots/tokens précédents (par exemple, l'IA pourrait prédire des pommes
après Je n'aime pas
). Chaque token qu'elles écrivent est basé sur les tokens précédents qu'elles ont vus et écrits ; chaque fois qu'elles écrivent un nouveau token, elles font une pause pour réfléchir à ce que sera le token suivant.
Ces IA regardent tous les tokens en même temps. Elles ne lisent pas de gauche à droite ou de droite à gauche comme le font les humains.
Veuillez comprendre que les mots "penser", "cerveau" et "neurone" sont des zoomorphismes, qui sont essentiellement des métaphores de ce que le modèle fait réellement. Ces modèles ne pensent pas vraiment, ce ne sont que des fonctions mathématiques. Ce ne sont pas des cerveaux, mais des réseaux neuronaux artificiels. Ce ne sont pas des neurones biologiques, ce ne sont que des nombres.
Il s'agit d'un domaine de recherche active et de philosophie. Cette description est plutôt cynique quant à leur nature et vise à tempérer la représentation médiatique populaire des IA comme des êtres qui pensent/agissent comme des humains. Ceci étant dit, si vous voulez anthropomorphiser l'IA, allez-y ! Il semble que la plupart des gens le fassent et cela peut même être utile à l'apprentissage.
d2l.ai est une bonne ressource pour apprendre comment fonctionne l'IA
Veuillez noter que les auteurs apprécient les pommes. Elles sont délicieuses.
Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.