Los LLMs son extremadamente poderosos, pero no son perfectos. Hay muchos aspectos que debes tener en cuenta a la hora de utilizarlos.
La mayoría de los LLM no pueden citar las fuentes con precisión. Esto se debe a que no tienen acceso a Internet y no recuerdan exactamente de dónde procede su información. A menudo generan fuentes que parecen buenas, pero que son totalmente inexactas.
Estrategias como LLMs con búsqueda aumentada (LLMs que pueden buscar en Internet y otras fuentes) a menudo pueden solucionar este problema.
Los LLM suelen estar predispuestos a generar respuestas estereotipadas. Incluso con medidas de seguridad, a veces dicen cosas sexistas, racistas y homófobas. Ten cuidado cuando utilices LLM en aplicaciones orientadas al consumidor, y también ten cuidado cuando los utilices en investigación (pueden generar resultados sesgados).
Los LLM suelen decir falsedades cuando se les hace una pregunta cuya respuesta desconocen. A veces dirán que no saben la respuesta, pero la mayoría de las veces darán con seguridad una respuesta incorrecta.
Los LLM suelen ser malos en matemáticas. Les cuesta resolver problemas matemáticos sencillos y a menudo son incapaces de resolver problemas matemáticos más complejos.
Este problema puede solucionarse hasta cierto punto utilizando una herramienta LLM aumentada.
A menudo, los usuarios pueden engañar a los LLM para que generen el contenido que deseen. Lee más sobre esto aquí.
Sander Schulhoff is the Founder of Learn Prompting and an ML Researcher at the University of Maryland. He created the first open-source Prompt Engineering guide, reaching 3M+ people and teaching them to use tools like ChatGPT. Sander also led a team behind Prompt Report, the most comprehensive study of prompting ever done, co-authored with researchers from the University of Maryland, OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions. This 76-page survey analyzed 1,500+ academic papers and covered 200+ prompting techniques.