其他
IDEA郭健团队Think-on-Graph,研发「思维图谱」提升大模型性能
大模型“一本正经地胡说八道”的幻觉(Hallucination)问题,一直是制约其广泛应用的瓶颈。由碎片化语料训练而来的大模型,不仅在深度推理方面表现不佳,也存在推理过程不透明、难以自我纠错的短板。
近日,粤港澳大湾区数字经济研究院(简称“IDEA研究院”)人工智能金融与深度学习研究中心研发 Think-on-Graph(思维图谱)技术,让大模型(LLM)与知识谱图(KG)的紧耦合交互,驱动LLM智能体在KG的关联实体上一步一步搜索推理出最优答案。
实验结果表明,Think-on-Graph在深度推理问题上的表现较ChatGPT最多可提升253%,并将知识推理过程透明化,实现知识的可追溯、可纠错与可修正。与此同时,Think-on-Graph还具备免训练即插即用、低算力消耗、实时知识更新等特性,在众多实际场景中有广泛的应用潜力。
我们先通过一个案例,来认识Think-on-Graph的不同之处。
问:“金庸小说中段誉和洪七公谁的武功更高”?
► 根据KG中“六脉神剑是大理段氏最强武功”而“一阳指是大理段氏常用武功”的信息,LLM可以推理出“六脉神剑”强于“一阳指”,从而推理出段誉的武功强于一灯大师;
► 继而又根据KG上的“一灯大师和洪七公同属‘华山四绝’”,推理出两人武功相当,最后得出段誉的武功高于洪七公的结论。
紧耦合LLM与KG实现深度推理
第一类方法是在模型预训练阶段融合二者。这类方法又细分为:1.在LLM模型输入层融合,利用KG扩充输入层特征;2.在LLM模型网络层融合,利用图表示等技术将KG嵌入到LLM网络架构中;3.在LLM模型输出层融合,利用KG来约束模型训练任务。此类方法在知识层面融合了LLM与KG,但需要额外的训练时间,且牺牲掉KG的实时知识更新能力与可解释性等天然优势。
第二种方法则是利用KG的知识结构,通过适当的自动化提示工程(prompt engineering)来实现融合。这其中又分为两种范式:松耦合范式和紧耦合范式。本文提出的Think-on-Graph算法就属于后者,通过将LLM与KG的优势深度融合,实现推理能力的突破。
松耦合范式
紧耦合范式
在紧耦合中,大模型充当Agent(智能体)“跑腿”角色,在KG的实体结点上一步一步地搜索与推理,直到推出最终答案。在此范式下,大模型亲自参与到KG的每一步推理中,与KG紧密互动,信息互补,从而提升整体的推理能力。
以下,我们用一个例子来解释紧耦合范式的优势。
问:“堪培拉所在国家当前的多数党是哪个党派”?
► ChatGPT由于信息只更新至2021年,生成错误答案“自由党”。
► 松耦合范式虽然引入了具有最新信息的知识图谱,但由于其中缺少了“多数党”这一信息,导致推理卡在中间步骤,无法完成。
► 紧耦合范式中,大模型通过猜测“议会制国家的政府首脑(总理)通常也是多数党领袖”,弥补了知识图谱在“多数党”信息上的缺失,从而绕道推理出正确答案。
Think-on-Graph,
高效实现紧耦合
搜索剪枝的目的是找出最有希望成为正确答案的推理路径—— 以当前KG实体为中心,去遍历搜索与其相邻的每一个实体,再用LLM计算出相对打分(分值高低代表此新实体加入已有推理路径后,可以正确回答原问题的能力),并将得分最高的N个(N=搜索宽度) “邻居”实体所引出的N条候选推理路径保留下来。
推理决策任务则用LLM来判断已有的候选推理路径是否足以回答问题,如果判断为否,则继续迭代到下一次循环,直到找出满意答案。
我们依然借用上述例子来解释Think-on-Graph算法的思路。
问:“堪培拉所在国家当前的多数党是哪个党派”?
让推理可解释,
让知识可追溯,让错误可修正
在多个问答数据集上
取得SOTA,表现超越ChatGPT
Think-on-Graph优势总结
研究团队介绍
► 论文下载链接:https://arxiv.org/abs/2307.07697
► GitHub链接:https://github.com/IDEA-FinAI/ToG