Parfois, les IA de génération donnent des sorties incorrectes aux prompts. Par exemple, elles ne sont pas très douées pour multiplier les nombres et vous donneront souvent une réponse incorrecte avec assurance. Essayez de donner le prompt suivant à ChatGPT :
ChatGPT a donné une réponse incorrecte (la bonne réponse est 91 377). Nous pouvons modifier notre prompt et dire à ChatGPT de réfléchir à ses étapes.
Pour multiplier 923 par 99, nous pouvons le décomposer en étapes plus petites :
Étape 1 : Écrivez le nombre complet de 0 pour chaque terme : 923 * 99 = 923 * 990
Étape 2 : Multipliez le premier terme par 9 : 923 * 9 = 8307
Étape 3 : Multipliez le premier terme par 90 (en ajoutant un 0) : 923 * 90 = 83070
Étape 4 : Additionnez les résultats des étapes 2 et 3 : 8307 + 83070 = 91377
Par conséquent, 923 multiplié par 99 font 91 377.
Étonnamment, avec ces instructions supplémentaires, ChatGPT est capable de résoudre le problème. Cela a fonctionné parce que ChatGPT a écrit tout son travail et n'a donc pas fait d'erreurs. Les capacités mathématiques des IA de génération peuvent être améliorées par le prompt engineering. Maintenant, essayons un exemple différent.
Puisque ChatGPT est
non-déterministe
, même ce prompt ne fonctionnera pas toujours. Vous pourriez voir des réponses comme 91 177 ou 91 077.
Cette fois, nous demanderons à ChatGPT d'écrire un tweet marketing sur un nouveau produit fictif d'IA que nous envisageons de créer : ArchaeologistAI. ArchaeologistAI raconte des histoires sur des archéologues célèbres.
Ce tweet n'est pas exact, car ArchaeologistAI raconte seulement des histoires et ne découvre pas de nouvelles choses. Cependant, ce n'est pas la faute de ChatGPT ! Il ne savait rien sur ArchaeologistAI. Incluons des informations pertinentes dans le prompt.
C'est bien mieux ! Maintenant, essayons de faire écrire le tweet par ChatGPT dans le style d'Indiana Jones.
Très bien, ça pourrait être le message dont nous avons besoin pour cibler les fans d'archéologie ! En testant plusieurs prompts, nous pouvons voir lequel donne la meilleure sortie.
Ce processus de raffinement de notre prompt au fil du temps est connu sous le nom de prompt engineering. Vous n'écrirez jamais le prompt parfait du premier coup, et donc il est important de s'améliorer dans le raffinement de votre prompt. Être bon en prompt engineering vient surtout de beaucoup de pratique (essais et erreurs). Le reste des articles de cette section vous présentera différentes stratégies de prompting que vous pouvez utiliser dans votre processus de prompt engineering.
Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.