Prompt Engineering Guide
😃 Grundlagen
💼 Einfache Anwendungen
🧙‍♂️ Weiterführendes
🤖 Agenten
⚖️ Zuverlässigkeit
🖼️ Bild Prompting
🔓 Prompt Hacking
🔨 Werkzeuge
💪 Prompt Tuning
🎲 Diverses
📙 Vocabulary Reference
📚 Bibliography
📦 Prompted Products
🛸 Additional Resources
🔥 Hot Topics
✨ Credits
😃 Grundlagen🟢 Fallen der LLMs

Fallen der LLMs

🟢 This article is rated easy
Reading Time: 2 minutes
Last updated on August 7, 2024

Sander Schulhoff

LLMs sind extrem leistungsfähig, aber sie sind keineswegs perfekt. Es gibt viele Fallstricke, auf die du achten solltest, wenn du sie nutzt.

Citing Sources

LLMs können in den meisten Fällen keine genauen Quellenangaben machen. Das liegt daran, dass sie keinen Zugang zum Internet haben und nicht genau wissen, woher ihre Informationen stammen. Sie erstellen häufig Quellen, die gut aussehen, aber völlig ungenau sind.

Notice

Strategien wie sucherweiterte LLMs (LLMs, die das Internet und andere Quellen durchsuchen können) können dieses Problem oft lösen

Bias

LLMs sind oft geneigt, stereotype Antworten zu geben. Selbst mit Sicherheitsvorkehrungen werden sie manchmal sexistische/rassistische/homophobe Dinge sagen. Sei vorsichtig, wenn du LLMs in verbraucherorientierten Anwendungen verwendest, und sei auch vorsichtig, wenn du sie in der Forschung einsetzt (sie können verzerrte Ergebnisse liefern).

Halluzinationen

LLMs können Unwahrheiten produzieren, wenn ihnen eine Frage gestellt wird, deren Antwort sie nicht kennen. Manchmal geben sie an, dass sie die Antwort nicht wissen, aber meistens werden sie selbstbewusst eine falsche Antwort geben.

Mathematik

LLMs sind oft schlecht in Mathe. Sie haben Schwierigkeiten, einfache mathematische Probleme zu lösen. Bei komplexen Aufgaben sind sie oft gar nicht in der Lage diese zu lösen.

Notice

Dieses Problem lässt sich bis zu einem gewissen Grad durch die Verwendung einer Werkzeug-erweiterter LLM.

Prompt Hacking

Benutzer können LLMs dazu bringen, beliebige Inhalte zu erstellen. Mehr darüber kannst du hier lesen.

Sander Schulhoff

Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.