Les LLM sont extrêmement puissants, mais ils ne sont en aucun cas parfaits. Il existe de nombreux pièges dont vous devez être conscient lors de leur utilisation.
Les LLM ne peuvent pour la plupart pas citer de manière précise les sources. Cela est dû au fait qu'ils n'ont pas accès à Internet et ne se souviennent pas exactement d'où viennent leurs informations. Ils génèrent souvent des sources qui semblent bonnes, mais qui sont entièrement inexactes.
Des stratégies comme les LLM augmentés par la recherche (LLM qui peuvent rechercher sur Internet et d'autres sources) peuvent souvent résoudre ce problème.
Les LLM sont souvent biaisés en faveur de la génération de réponses stéréotypées. Même avec des gardes en place, ils diront parfois des choses sexistes/racistes/homophobes. Soyez prudent lorsque vous utilisez des LLM dans des applications destinées aux consommateurs et soyez également prudent lorsque vous les utilisez dans la recherche (ils peuvent générer des résultats biaisés).
Les LLM génèrent fréquemment des faussetés lorsqu'on leur pose une question à laquelle ils ne connaissent pas la réponse. Parfois, ils indiqueront qu'ils ne connaissent pas la réponse, mais la plupart du temps, ils donneront avec confiance une réponse fausse.
Les LLM sont souvent mauvais en mathématiques. Ils ont des difficultés à résoudre des problèmes mathématiques simples et sont souvent incapables de résoudre des problèmes mathématiques plus complexes.
Ce problème peut être résolu dans une certaine mesure en utilisant un LLM augmenté d'outils.
Les utilisateurs peuvent souvent tromper les LLM pour générer n'importe quel contenu qu'ils veulent. En savoir plus à ce sujet ici.
Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.