查看原文
其他

How?大型语言模型(LLMs)落地对话系统,该从哪些方面入手?

ShuYini AINLPer 2023-07-10
点击上方AINLPer,设为星标
更多干货,第一时间送达
|源自知乎HeptaAI

引言

  如何才能将最新的技术应用到具体业务场景呢?关于大型自然语言模型(LLMs)在对话系统方面的落地,相信很多企业公司都在研究探索。尤其在对客业务方面,如何保障LLM输出稳定可控,并针对具体业务场景给出合适的回复,这是目前LLM应用面对的最大问题。今天给大家分享的这几篇文章「从LLM落地对话系统出发给出了一些新方法」,希望能给大家带来一些启发。相关论文已打包,如需要拉到最后获取

LLM落地对话系统

对于LLM落地对话系统,主要有两个方向:综合常识和综合外部知识。常识就是大家普遍认同的知识,例如玫瑰是一种花;外部知识是大模型往往不能直接学到并记到参数里的知识,例如啤酒的发源地。一般来说,常识是内嵌在模型中的,而外部知识可以在互联网或者语料库中搜索到。在知识方面,对话系统一般从模型、数据集获取综合常识,然后增加一些retrieve或者query的模组来综合外部知识。

 ChatGPT出来以后,传统的Seq2Seq对话模型的常识可以通过ChatGPT蒸馏出的知识得到,因为ChatGPT具有较多常识知识。例如,我们可以让ChatGPT生成一个常识数据集,然后让对话模型在这个常识数据集上finetune。这个数据集可以被各种定制,例如合成增强道德感的数据集,合成增强流畅度的数据集等等。另外也有一些比较fancy的方法,比如让ChatGPT显式地输出隐含在utterance中的常识,来提示对话模型要注意某些常识。

 对于外部知识的获取,对话模型可以使用retrieve的方法去knowledge base里面找到相应的文档拼到对话模型里面,也可以使用GPT生成search query到knowledge base甚至internet上去搜索相应文档。文档里面都是与当前对话相关的知识,因此可以极大提升对话的factuality和robustness。接下来本文分享一下自己整理的LLM与对话系统结合的有关知识的几篇典型论文,希望对你有用。

论文分享

 对于LLM落地对话系统,主要有两个方向:综合常识和综合外部知识。

综合常识的对话系统

1、「PLACES:社交对话合成的提示语言模型」 收集高质量的对话数据对于大多数应用程序来说可能非常昂贵,并且由于隐私、道德或类似问题而对其他应用程序来说是不可行的。解决这个问题的一个有前途的方向是通过提示大型语言模型来生成合成对话。 在这项工作中,「我们使用一小组专家编写的对话作为上下文示例,以使用提示合成社交对话数据集」。与人工收集的对话相比,我们对合成对话进行了多次全面评估。这包括直接对合成对话进行人工评估的对话质量的各个方面,以及对合成生成的数据集进行微调的聊天机器人的交互式人工评估。我们还证明了这种提示方法可推广到多方对话,为多方任务创建新的综合数据提供了潜力。「与从人工收集的多方数据集中抽取的对话摘录相比,我们的合成多方对话在所有测量维度上的评分都更高」

2、「说话前三思:显式生成用于生成响应的隐式常识性知识」 隐性知识,例如常识,是流畅的人类对话的关键。当前的神经反应生成 (RG) 模型被训练为直接生成response,忽略未说明的隐性知识。 在本文中,「我们提出了先思考后说话 (TBS) 的方法。这是一种生成方法,首先将隐含的常识知识外化(思考),然后使用这些知识生成响应(说话)。我们期望外化隐性知识可以实现更有效的学习,产生更多信息丰富的响应,并启用更多可解释的模型」。我们分析不同的选择来收集知识对齐的对话,代表隐性知识,以及知识和对话之间的转换。实证结果表明,TBS 模型在大多数自动指标上优于端到端和知识增强的 RG 基线,并生成更多信息、具体和符合常识的响应,正如人工注释者所评估的那样。TBS 还会生成有意义的知识,并且在大约 85% 的时间里与对话相关。

3、「PROSOCIALDIALOG:对话代理的亲社会骨干(道德常识)」 大多数现有的对话系统无法通过忽略或被动同意它们来正确响应潜在的不安全用户话语。为了解决这个问题,我们引入了 PROSOCIALDIALOG,这是第一个大规模多轮对话数据集,「用于教导会话代理根据社会规范对有问题的内容做出反应」。PROSOCIALDIALOG 涵盖各种不道德、有问题、有偏见和有害的情况,包含鼓励亲社会行为的回应,这些回应基于常识性社会规则(即,经验法则,RoTs)。PROSOCIALDIALOG 通过人机协作框架创建,包含 58K 对话、331K 话语、160K 独特 RoT 和 497K 对话安全标签以及自由形式的基本原理。有了这个数据集,我们引入了一个对话安全检测模块 Canary,它能够在给定的对话上下文中生成 RoT,以及一个具有社交信息的对话代理 Prost。 实证结果表明,与域内和域外设置中的其他最先进的语言和对话模型相比,Prost 产生了更多社会可接受的对话。此外,Canary 有效地指导现成的语言模型产生更多的亲社会反应。我们的工作强调了创建和引导对话式 AI 对社会负责的承诺和重要性。

综合外部知识的系统

1、「端到端面向文档的对话系统的外部知识获取(隐式外部知识获取)」 用于对话式 AI 的端到端神经模型通常假设可以通过仅考虑模型在训练期间获得的知识来生成响应。面向文档的对话模型通过调节文档的输入并假设模型的权重中捕获了任何其他知识来做出类似的假设。但是,对话可能会引用外部知识源。 在这项工作中,我们「提出了EKo-DoC,这是一种面向文档的对话架构,可以访问外部知识:我们假设对话以主题文档为中心,并且需要外部知识来产生响应」。EKo-DoC 包括密集通道检索器、重新排序器和响应生成模型。我们通过使用银标签对我们从响应生成模型的注意力信号中自动获取的检索和重新排序组件进行端到端训练。我们通过自动和人工评估证明,结合外部知识可以改善面向文档的对话中的响应生成。我们的架构在维基百科向导数据集上取得了新的最先进的结果,在 Recall@1 和 ROUGE-L 中分别比竞争基线高出 10.3% 和 7.4%。

2、「对话和提示完成的模块化搜索和生成(显式外部知识获取)」 语言模型 (LM) 最近被证明可以通过结合使用模块化和检索来生成更多的事实响应。我们扩展了Adolphs等人最近的方法将互联网搜索作为一个模块。 因此,「我们的 SeeKeR(搜索引擎→知识→响应)方法将单个 LM 连续应用于三个模块化任务:搜索、生成知识和生成最终响应」。我们表明,当使用 SeeKeR 作为对话模型时,它在一致性方面优于最先进的模型 BlenderBot2对于相同数量的参数的开放领域知识基础对话 、知识和参与度。尽管GPT3 是一个更大的模型,但SeeKeR作为标准语言模型在真实性和话题性方面优于GPT2和GPT3,因此适用于主题提示补全。

论文获取回复:20230504

推荐阅读

[1]LaMini-LM(开源)可将模型大小减少10倍且保证性能

[2]MiniGPT-4 发布,代码模型开源,支持在线体验!

[3]中文命名实体识别(NER)数据集大盘点(全)

[4]一个用于「大型语言模型个性化」研究的基准LaMP

[5]中文通用开源指令数据集(COIG):数据多样,质量高

[6]OpenAGI:一个开源的通用人工智能(AGI)研究平台

点击下方链接🔗关注我们

「资料整理不易,点个再看吧」

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存