Last updated on August 7, 2024
从 GPT-3 和 ChatGPT 等大型语言模型 (LLM) 的最新进展中可以看出,在技术行业引起了很大的关注。这些模型对内容生成非常强大,但它们也有一些缺点,例如偏差 和幻象。LLM在聊天机器人开发方面特别有用。
传统聊天机器人通常是基于意图的,这意味着它们被设计为响应特定的用户意图。每个意图由一组样本问题和相应的响应组成。例如,“天气”意图可能包括类似“今天天气如何?”或“今天会下雨吗?”这样的样本问题,并且可能输出“今天将是晴天”的响应。当用户提出问题时,聊天机器人将其与最相似的样本问题匹配意图,并返回相应的响应。
传统基于意图的聊天机器人的工作原理。图像由作者制作。
然而,基于意图的聊天机器人也有自己的问题。其中一个问题是,它们需要大量特定的意图才能给出特定的答案。例如,用户说“我无法登录”、“我忘记了密码”或“登录错误”等话语可能需要三个不同的答案和三个不同的意图,尽管它们都非常相似。
这就是GPT-3可以发挥的特别用处。每个意图可以更广泛,利用您的知识库文档。知识库 Knowledge Base 是存储为结构化和非结构化数据的信息,可用于分析或推断。您的知识库可能由一系列文档组成,解释如何使用您的产品。
因此,每个意图与文档相关联,而不是一组问题和特定答案,例如,一个“登录问题”的意图,一个“如何订阅”的意图等等。当用户询问有关登录的问题时,我们可以将“登录问题”文档传递给 GPT-3 作为上下文信息,并为用户的问题生成特定的响应。
利用GPT-3的聊天机器人工作原理。作者提供的图片。
这种方法减少了需要处理的意图数量,并允许更好地适应每个问题的答案。此外,如果与意图关联的文档描述了不同的流程(例如“在网站上登录”的流程和“在移动应用程序上登录”的流程),GPT-3可以在给出最终答案之前自动询问用户以获得更多的上下文信息。
今天,像GPT-3这样的LLM模型的最大提示的长度约为4k令牌(对于text-davinci-003
模型),这很多,但不足以将整个知识库馈入单个提示中。 LLM由于计算原因具有最大提示的限制,因为使用它们生成文本涉及多个计算,随着提示大小的增加,计算量也会迅速增加。
未来的LLM可能不会有这种限制,同时保留文本生成能力。然而,就目前而言,我们需要一个设计解决方案来解决这个问题。
聊天机器人的流程可以分为以下两个步骤:
首先,我们需要为用户的问题选择适当的意图,即我们需要从知识库中检索正确的文档。 然后,一旦我们有了正确的文档,我们就可以利用GPT-3为用户生成适当的答案。在这样做的过程中,我们需要精心制作一个良好的提示。
第一步可以使用语义搜索semantic search解决。我们可以使用sentence-transformers
库中的预训练模型,轻松地为每个文档分配一个分数。分数最高的文档将用于生成聊天机器人答案。
如何利用GPT-3让聊天机器人工作。GPT-3可以利用知识库文档中的信息生成适当的答案。图片由作者提供。
一旦我们有了正确的文档,我们需要创建一个好的提示,以便将其用于GPT-3生成答案。在以下实验中,我们将始终使用temperature
为0.7的text-davinci-003
模型。
为了制作提示,我们将尝试使用以下内容
Information used to craft our GPT-3 prompt. Image by the author.
让我们使用
角色提示 技术开始我们的提示。
作为一名高级聊天机器人Skippy,您的主要目标是尽力帮助用户。
然后,假设语义搜索步骤从我们的知识库中提取了以下文档。所有文档都描述了类似于Instagram的虚构产品VideoGram的工作方式,但仅用于视频。
解释VideoGram登录方式的文档。作者提供的图像。
我们可以在提示中这样添加
它的内容。
作为一款名为Skippy的高级聊天机器人,您的主要目标是尽力帮助用户。
开始上下文
从网站登录到VideoGram
- 打开您的网络浏览器并前往VideoGram网站。
- 单击页面右上角的“登录”按钮。
- 在登录页面上,输入您的VideoGram用户名和密码。
- 输入凭据后,单击“登录”按钮。
- 您现在应该已经登录到您的VideoGram帐户中。
从移动应用登录到VideoGram
- 在您的移动设备上打开VideoGram应用。
- 在主页面上,点击位于右下角的“登录”按钮。3. 在登录页面上,输入您的VideoGram用户名和密码。
- 输入凭据后,点击“登录”按钮。
- 您现在应该已经登录到您的VideoGram帐户中。
结束上下文
最后,我们需要将
对话和用户问题 添加到提示的末尾,就像以下示例中那样。
作为一款名为Skippy的高级聊天机器人,您的主要目标是尽力帮助用户。
开始上下文
从网站登录到VideoGram
- 打开您的网络浏览器并前往VideoGram网站。
- 单击页面右上角的“登录”按钮。
- 在登录页面上,输入您的VideoGram用户名和密码。
- 输入凭据后,单击“登录”按钮。
- 您现在应该已经登录到您的VideoGram帐户中。
从移动应用登录到VideoGram
- 在您的移动设备上打开VideoGram应用。
- 在主页面上,点击位于右下角的“登录”按钮。3. 在登录页面上,输入您的VideoGram用户名和密码。
- 输入凭据后,点击“登录”按钮。
- 您现在应该已经登录到您的VideoGram帐户中。
结束上下文
SKIPPY:您好,我是Skippy!我能为您做些什么?
用户:我找不到登录按钮。
SKIPPY:
将此提示传递给GPT-3,我得到了以下生成的答案。
没问题! 在网站上,登录按钮位于页面右上角。
在移动应用程序上,登录按钮位于页面右下角。如果您需要进一步的帮助,请告诉我!
请注意,生成的答案中的信息来自知识库文档。
我们来试试更模糊的用户输入,比如
“无法登录” 。这是完整的提示。
作为一个名叫Skippy的高级聊天机器人,您的主要目标是尽力帮助用户。
START CONTEXT
从网站登录到VideoGram
- 打开您的Web浏览器,然后转到VideoGram网站。
- 点击页面右上角的“登录”按钮。
- 在登录页面上,输入您的VideoGram用户名和密码。
- 输入您的凭据后,单击“登录”按钮。
- 您现在应该已经登录到VideoGram帐户。
从移动应用程序登录到VideoGram
- 打开您的移动设备上的VideoGram应用程序。
- 在主页面上,点击右下角的“登录”按钮。 3. 在登录页面上,输入您的VideoGram用户名和密码。
- 输入您的凭据后,点击“登录”按钮。
- 您现在应该已经登录到VideoGram帐户。
END CONTEXT
SKIPPY: 你好,我是Skippy!我能帮你什么忙?
USER: 无法登录
SKIPPY:
GPT-3试图更好地理解用户的问题,给出了以下回答。
很抱歉听到这个消息。您能告诉我您是在尝试通过VideoGram网站还是移动应用程序登录吗?
接下来,这是完整的对话内容。为了方便查看,这里省略了提示的其他部分。
USER: 无法登录
SKIPPY: 很抱歉听到这个消息。您能告诉我您是在尝试通过VideoGram网站还是移动应用程序登录吗?
USER: 移动应用程序
SKIPPY: 好的,没问题。要通过移动应用程序登录,请打开您的移动设备上的VideoGram应用程序。在主页面上,点击右下角的“登录”按钮。在登录页面上,输入您的VideoGram用户名和密码。输入您的凭据后,点击“登录”按钮。您现在应该已经登录到VideoGram帐户。如果您需要进一步的帮助,请告诉我。
只要有正确的上下文信息,GPT-3就可以进行消歧义。
前面的例子都很正常运行。然而,这种聊天机器人可能会失败的几种方式。
如果我们询问“移动应用程序是否免费?”,将登录文档作为上下文传递给GPT-3,你通常会得到一个答案,比如“是的,VideoGram移动应用程序是免费下载和使用的”,即使这样的信息并没有包含在上下文信息中。生成虚假信息对于客户服务聊天机器人来说非常糟糕!
当用户问题可以在上下文中找到答案时,GPT-3很少生成虚假信息。由于用户问题通常是短小模糊的文本,我们不能总是依赖语义搜索步骤来检索正确的文档,因此我们总是容易受到虚假信息生成的影响。
GPT-3非常适用于创建对话式聊天机器人,并能够根据插入的上下文信息回答一系列具体问题。然而,仅依靠上下文信息使模型产生答案很困难,因为模型往往会产生幻象(即生成新信息,可能是错误的)。生成虚假信息是一个不同严重程度的问题,这取决于使用情况。
Written by Fabio Chiusano.
Nadeem, M., Bethke, A., & Reddy, S. (2021). StereoSet: Measuring stereotypical bias in pretrained language models. Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), 5356–5371. https://doi.org/10.18653/v1/2021.acl-long.416 ↩
Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, Y., Madotto, A., & Fung, P. (2022). Survey of Hallucination in Natural Language Generation. ACM Computing Surveys. https://doi.org/10.1145/3571730 ↩