理论模型的构建 与 自动推理系统【2023Q4】
副标题:我们能从学科的理论框架中学到哪些“构建理论模型”的经验
0、导言
本文的主题是:如何构建一个相对复杂和强大的理论模型去预测未来和我们所未探索的区域。
灵感和讨论素材的来源是我过去一段时间看的一些偏理论性的学科的理论框架。
0.1、思考的起点
今年下半年由于某些原因触发我去找了一些高校理论学科的完整授课视频来看,例如小波分析、随机过程、高等量子力学。
在这个过程中我发现它们使用的方式与我毕业后10年中使用的各种方式都有很大差异,最大的特点是:它们都会“凭空”进行很多步的推导,得到一些很难从最初的起点直接联想到的结论,然后再去验证这些结论。而在工业界工作中和生活中,即使是我之前的算法工作也很少有这种“在思维中进行长途推理思考,然后再验证”的方式,几乎每步推理都要寻找验证,还经常得不到符合最初预期的验证结果。
同样都是对于未知或未来的预测方式,我并不认为工作生活中遇到的问题与这些理论化较深的学科有什么本质的差异,这促使我思考我是否应该尝试将这种理论推导的方式应用于象牙塔之外的环境。
0.2、本文的价值
虽然我在这条线的思考尚未完成,但我仍然选择在现在先写出我已有的思考,因为:
我认为这种不是完全基于人的直觉经验,而是包含很多“逻辑推理”的方式会更适合于现在这个快速变化的世界。
我认为基于LLM的自动推理系统是可以有效提升科研效率的,本文也试图讨论这类系统应该着眼于什么样的具体功能,希望能给做相关方向的团队一些启发。
目前我并未看到与我的视角和观点很相似的想法,本文的大部分观点和结论都是我目前的个人看法,不再一一标识。如有雷同,不胜荣幸,烦请留言说明同类内容的来源,我会去研究。
1、理论框架 被误解的特性
1.1、形式化
很多理论体系相对完善的学科都会使用形式化的方式进行描述,也就是定义各种符号、术语,以一个类似数学的方式来进行重新表述和描述。我也一度怀疑某些地方的形式化是否必要,因为好像凭空了一层抽象而没有太多好处。目前在我看来形式化的作用如下:
明确被忽略的因素。大部分理论框架都只考虑某些方面的因素,这意味着它们要舍弃一些它们认为次要的因素。在形式化描述的过程中,只保留了被认为主要的因素。形式化的方式也帮助人脑更自然地按照这个框架进行思考。
减少歧义。自然语言也可以进行很多表述,但改用形式化方式可以降低被错误理解的概率。
加速思考。选用合适的符号,可以减少表达所使用的“文字量”,并借用使用同类符号的领域的知识经验,可以优化人脑的推理速度和直觉的预测准确性。这对于LLM来说也是有有效的。
1.2、不必要的严格性
教育系统给人灌输的认知是“这种形式化的方式是很严格/严密的,没有漏洞”。
但如果我们回顾自然科学发展史,就会发现很多看似严格的理论后续也被发现有问题。甚至很多当时人们就知道不严格的框架/工具在被搞定严格化之前仍然不妨碍它被大量使用。
虽然一些完成了公理化体系的理论看起来十分的完美和严格,但那是人类认知发展的结晶。不代表说人类建立它们的过程一直都是毫无瑕疵的,也不代表说不足够严格的理论框架就是无用的。
无论是理论框架、还是形式化、还是严格的推导等等都是帮助我们更好地到达【正确结论】的工具,它们只是手段而不是目的,“严格的推导”也并非银弹:
哥德尔不完备定理已经告诉我们:在一个有用的理论体系内,总有一些正确的结论无法仅通过严格的推理实现证明。
从效率上来说,严格的推导也未必是效率最高的方式。很多时候人的直觉就可以帮助我们更快的到达正确的结论。
本节的相关内容可以参见 我劝你放下对 完全理性的崇拜【2023H2】
1.3、科学只是【目前】人类对于自然的最佳预测模型
自然科学并非绝对真理,自然科学只是追求“解释一切实验结果,并能够正确预测未探知的情况”。
如果科学家发现了与他们的理论预测部分的实验结果,这才是最让人高兴的,因为它们能够有机会改进已有的理论了。正如广为人知的物理学的两朵乌云最终发展成了相对论和量子力学体系。
探知世界(实验),构建新模型来解释一切现象,尝试预测未知;不断重复这个循环。这是科学的改进方式,也是我们试图预测未来和未知时应该采取的思路。
2、值得学习的经验
既然科学在过程上是一个不断改进已有模型的过程,且是人类目前最好的预测模型,那么它的一些经验肯定值得我们学习。
前面的1.1节和1.2节在这里也适用,不再赘述。
2.1、无矛盾性验证
如果并不追求严格的推导,那么该如何避免引入错误呢?
一种学界常用而其他人经常忽略的方式是:自洽性验证,也就是尝试从已有的基础进行推导,看是否会从不同方向对一个问题得出不同的结论。
从实用的角度上来说,并非有矛盾的系统就没有用,如果有矛盾的命题并不影响我们关注的实际问题的预测结果,且它的预测准确率可以接受,那么这个理论框架也是很有用的。
只不过一般情况下,如果框架中出现了矛盾,则往往导致对于很多问题都能从不同的方向得出不同甚至完全相反的预测,一般也没有好的方式来选择该相信哪个路径得到的结论,这就显著削弱了这个理论框架的价值。
学科中的理论体系一般都很在意确保是没有矛盾的。但在本文期望讨论的很多场景下,实际操作的人一般并没有这样的认知,他也没有足够的精力来局部验证他的理论框架是否是有明显矛盾的。
但LLM让自动推理有了希望,虽然现在还无法做可靠的多步推理。但随着这方面的技术的发展,让基于LLM的应用帮我们去做大范围的推导和无矛盾性验证是可行的。
2.2、概念抽象
在学科的理论体系中,经常会引入新的概念。概念抽象的作用是:
可以简化一些复杂的表述
忽略一部分细节因素,在框架内构建更抽象一层的形式化方式。
帮助人的直观理解。例如将地面分成:山脉、平原、湖泊、海滩、海等,其实地形是连续变化的,但将其划分成这些概念可以帮助我们形成直观理解和提升抽象层次。
无论是人脑还是LLM,都不擅长处理复杂的体系;传统的算法虽然可能能处理但时间也往往无法接受。不断地对问题进行抽象,保留主要因素,忽略次要因素,屏蔽细节等等可以有效地简化问题。
虽然现在LLM无法抽象新概念,但可能概念的抽象本质上应该是在复杂系统/框架中进行的一个抽象层次提升。从这个角度上来说,概念的抽象方式可能跟我们原本想象的不同。
我目前也无法枚举所有主要的概念抽象的模式,这似乎是一个好问题。
2.3、从其他体系中借用工具
像是复数、极限、线性代数等等经常在一些其他理论体系内出现。在我看来它们是被借用到新领域的工具,拓展了目标理论框架中推理可达的空间。
并不是说复数存在于各种各样的场景中,而是复数这个工具有用,加入到新框架中也没有导致冲突,并且扩展了目标体系,能够得出更多有用的结果,所以才被纳入的。
这种可以被借用的工具其实还不足够多,随着后面自动化推理系统的成熟,应该会发现更多这类的理论工具。
2.4、推导的模式
在这些学科的理论框架中,推导过程经常会有一些常用的模式,而且这些模式是跟具体框架/领域有关的,不同领域之间并不一致。
这些模式也需要有意识地去发现和利用。
3、总体感受和预测
3.1、理论框架的具象形象
如果把所有符号的序列看成是整个空间,那么一个理论体系中能够触达的结论在这个空间是是一个类似于分形的形式,可能是树状的感觉。
整个可达范围是分形的,使得很难有高效的方式快速的在这个分形空间中进行大范围跳跃,一般只能靠逐步进行推理才能确认。
当把一个理论工具加入到该理论体系中的时候,就是扩展了这个分形的树,让它多了一类枝杈,只要这些枝杈跟原有的枝杈不会产生冲突(并不是说重叠),那么就没有问题。
3.2、自动推理系统
在我看来,这些领域中自动推理系统的需求是很强的,因为:
人脑不擅长做大量的这种逻辑推理,而程序化推理的效率可以做到比人脑更高。
发现矛盾这种任务相对于有明确目标指向的推理,更接近于暴力枚举一些,更加适合于没有单个人视角bias的程序化推理。
传统的自动化推理更多在于严格的形式化推理,但实际上只能做严格化推理并不必要,我们需要LLM的类人的直觉推理才能做出更有用的自动推理系统。
新一代自动推理系统的场景特点:
整个系统是长时间运行的,除非发现影响了很多数据的矛盾需要重置,否则应该一直延续运行,推理结果持续积累。
推理过程需要直觉,这个直觉可以靠LLM提供,但训练/微调它的数据需要用已经推理出的部分。这是一个不断迭代前进的过程。
当某个领域的自动推理系统成本较高时,需要全世界或全国范围内研究该领域的人共用一个系统来均摊成本和交流在这个系统中的进展。
虽然现在不确定这种自动推理系统在商业上有多大市场,但在科学界我觉得应该会对加速科学发展很有用。人类的科研工作者应该更多关注于它们擅长的方面,纯推理和验证的工作可以跟自动推理系统一同完成。
结语
我在整体写完之后感觉内容还不够完整,不过发出来方便后面引用和进一步讨论应该好过不发。所以就这样吧。
交流与合作
如果希望和我交流讨论,或参与相关的讨论群,或者建立合作,请私信联系,见 联系方式。
读者交流群见 公众号读者交流群 11.8
希望留言可以到知乎对应文章下留言。
本文于2023.11.16首发于微信公众号与知乎。
知乎链接 https://zhuanlan.zhihu.com/p/667220025