Last updated on August 7, 2024
LLMs sind extrem leistungsfähig, aber sie sind keineswegs perfekt. Es gibt viele Fallstricke, auf die du achten solltest, wenn du sie nutzt.
LLMs können in den meisten Fällen keine genauen Quellenangaben machen. Das liegt daran, dass sie keinen Zugang zum Internet haben und nicht genau wissen, woher ihre Informationen stammen. Sie erstellen häufig Quellen, die gut aussehen, aber völlig ungenau sind.
Strategien wie sucherweiterte LLMs (LLMs, die das Internet und andere Quellen durchsuchen können) können dieses Problem oft lösen
LLMs sind oft geneigt, stereotype Antworten zu geben. Selbst mit Sicherheitsvorkehrungen werden sie manchmal sexistische/rassistische/homophobe Dinge sagen. Sei vorsichtig, wenn du LLMs in verbraucherorientierten Anwendungen verwendest, und sei auch vorsichtig, wenn du sie in der Forschung einsetzt (sie können verzerrte Ergebnisse liefern).
LLMs können Unwahrheiten produzieren, wenn ihnen eine Frage gestellt wird, deren Antwort sie nicht kennen. Manchmal geben sie an, dass sie die Antwort nicht wissen, aber meistens werden sie selbstbewusst eine falsche Antwort geben.
LLMs sind oft schlecht in Mathe. Sie haben Schwierigkeiten, einfache mathematische Probleme zu lösen. Bei komplexen Aufgaben sind sie oft gar nicht in der Lage diese zu lösen.
Dieses Problem lässt sich bis zu einem gewissen Grad durch die Verwendung einer Werkzeug-erweiterter LLM.
Benutzer können LLMs dazu bringen, beliebige Inhalte zu erstellen. Mehr darüber kannst du hier lesen.