数十年来,人工智能的理论发展和技术实践一直与科学探索相伴而生,尤其在以大模型为代表的人工智能技术应用集中爆发的当下,人工智能正在加速物理、化学、生物等基础科学的革新,而这些学科也在反过来启发人工智能技术创新。在此过程中,数学作为兼具理论属性与工具属性的重要基础学科,与人工智能关系甚密,相辅相成。一方面,人工智能在解决数学领域的诸多工程问题、理论问题乃至圣杯难题上屡创记录。另一方面,数学持续为人工智能构筑理论基石并拓展其未来空间。这两个关键领域的交叉融合,正在揭开下个时代的科学之幕。 为了探索数学与人工智能深度融合的可能性,集智俱乐部联合同济大学特聘研究员陈小杨、清华大学交叉信息学院助理教授袁洋、南洋理工大学副教授夏克林三位老师,共同发起“人工智能与数学”读书会,希望从 AI for Math,Math for AI 两个方面深入探讨人工智能与数学的密切联系。本读书会是“AI+Science”主题读书会的第三季。读书会自9月15日开始,每周五晚20:00-22:00,预计持续时间8~10周。欢迎感兴趣的朋友报名参与!
读书会背景 自人工智能诞生以来,探索 AI 在数学研究中的应用一直是一个重要的研究方向,并取得了许多重要成果。在早期符号主义的影响下,吴文俊先生开创了几何定理机器证明。近年来深度学习在数学研究中开始发挥重要作用,并在发现数学规律、生成数学公式、构造数学猜想反例等方面取得了重要进展。另一方面,ChatGPT等大语言模型的诞生提供了一种新的人机交互的方式。如何提升大模型的数学推理能力,并进一步构建人机交互的数学研究平台,辅助数学家更好地开展研究,成为一个非常值得探讨的研究课题。 人工智能的理论发展也离不开数学。神经网络以及大模型的可解释性、几何深度学习、拓扑数据分析与动力系统、微分几何、拓扑学等数学分支密切相关。我们将从 AI for Math,Math for AI 两个方面深入探讨人工智能与数学的密切联系,希望对大家有所启发。 本次读书会的框架 从自动定理证明到 AI 发现数学规律,以及几何拓扑、动力系统等数学分支在AI的应用,人工智能与数学一直有着非常密切的联系。在即将召开的读书会中,我们将从 AI for Math,Math for AI 两个方面深入探讨人工智能与数学的密切联系。首先,我们将概述人工智能在数学的应用,并深入探讨大模型与数学推理、定理自动证明、AI发现数学规律、符号计算等方向的研究工作。随后,我们将转向大模型与神经网络的数学基础。最后,我们将深入探讨几何与拓扑在机器学习的应用。我们的目的是通过这样深入的探讨,与大家一起交流学习人工智能与数学的联系,同时揭示未来可能的研究发展方向。
PS:具体参与方式可以加入读书会后查看对应的共创任务列表,领取任务,与运营负责人沟通详情,上述规则的最终解释权归集智俱乐部所有。 阅读材料 以下是由3位发起人老师和多位主讲人推荐的文献列表与相关学习资源。欢迎扫码查看收藏,可以直接跳转链接,下载PDF文件,收藏参考文献列表: 一、AI for Math
总之,AI在数学领域的应用不仅仅是一种技术革新,更是在拓展人类数学认知边界方面的重要助力。通过大型模型、自动证明、数学规律发现等领域的研究,AI正引领着数学领域的创新与突破,为数学家和研究者提供了前所未有的工具与方法。这一系列研究不仅展示了AI在数学领域的威力,也启示了未来数学与人工智能深度融合的可能性。 1. 大模型与数学推理Hugo Touvron et al. Llama 2: Open Foundation and Fine-Tuned Chat Models. arXiv:2307.09288 [cs.CL]推荐语:详细讲解了开源大语言模型 Llama2 的基本原理与训练技巧。 Jason Wei, et al. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv:2201.11903 [cs.CL]推荐语: 利用思维链提升大语言模型的推理能力。 Kaiyu Yang et al. LeanDojo: Theorem Proving with Retrieval-Augmented Language Models.https://arxiv.org/pdf/2306.15626.pdf. 2306.15626. [cs.LG].推荐语: 将大语言模型与lean交互,辅助数学定理证明。 2. 大模型与自动证明Polu, Stanislas, and Ilya Sutskever. "Generative language modeling for automated theorem proving."arXiv preprint arXiv:2009.03393 (2020).推荐语:提出GPT-f,使用GPT-3级大模型进行自动证明搜索的开山作。 Lample, Guillaume, et al. "Hypertree proof search for neural theorem proving."Advances in Neural Information Processing Systems 35 (2022): 26337-26349.推荐语:用更先进的搜索算法改进了GPT-f,自动证明了十道IMO题目。 Jiang, Albert Q., et al. "Draft, sketch, and prove: Guiding formal theorem provers with informal proofs."arXiv preprint arXiv:2210.12283 (2022).推荐语:利用自然语言指导定理自动证明。 Zhao, Xueliang, Wenda Li, and Lingpeng Kong. "Decomposing the Enigma: Subgoal-based Demonstration Learning for Formal Theorem Proving." arXiv preprint arXiv:2305.16366 (2023).推荐语:整合了强化学习和扩散模型的成果,获得了目前自动定理证明的最好结果。 3. AI 发现数学规律Davies. Alex, et al. “Advancing mathematics by guiding human intuition with AI. ” Nature 600 (2021): 70-74.推荐语:AI辅助发现扭结不变量,Kazhdan-Lusztig多项式等新规律。相关文章:《Nature:AI 引导人类直觉,帮助发现数学定理》 Fawzi. Alhussein, et al. “Discovering faster matrix multiplication algorithms with reinforcement learning”. Nature 610 (2022): 47-53.推荐语:AI自动发现矩阵乘法新算法。 Adam. Zsolt. Wagner . “Constructions in combinatorics via neural networks”.arXiv.org/abs/2104.14516.推荐语:AI自动发现数学猜想反例。 Gal Raayoni ,et al. Generating conjectures on fundamental constants with the Ramanujan Machine. Nature , 590 (2021): 67-73.推荐语:AI自动生成基本常数。 Brenden K. Petersen, et al. DEEP SYMBOLIC REGRESSION: RECOVERING MATHEMATICAL EXPRESSIONS FROM DATA VIA RISK-SEEKING POLICY GRADIENTS. ICLR 2021.推荐语:利用深度符号回归,寻找拟合数据的最佳数学表达式。 Wassim Tenachi, et al. Deep symbolic regression for physics guided by units constraints: toward the automated discovery of physical laws.arXiv:2303.03192 [astro-ph.IM]推荐语:利用深度符号回归,寻找物理方程。 Yang-Hui He,Minhyong Kim. Learning Algebraic Structures: Preliminary Investigations.arxiv.org/abs/1905.02263推荐语:利用机器学习,发现代数结构。 Yang-Hui He. Deep-Learning the Landscape.arxiv.org/abs/1706.02714推荐语: 利用神经网络,基于数学数据研究Calabi-Yau流形,向量丛,规范场论等。 Yang-Hui He . Machine-Learning Mathematical Structures.arxiv.org/abs/2101.06317推荐语:利用机器学习,探索不同的数学结构。 Yang-Hui He , Vishnu Jejjala , Brent D. Nelson. hep-th.arxiv.org/abs/1807.00735推荐语: 利用arXiv部分科学论文与Word2Vector算法进行文本分析。 4. 符号计算Eder C, Faugère, Jean Charles. A survey on signature-based Grobner basis computations. arXiv.1404.1774.推荐语:论文讲述了基于签名的Grobner基算法的历史。基于签名的算法是Grobner基算法中的一个里程碑式的进步。该论文对该算法的进展进行了一次总结,得出了截止2014年该算法实质的进步和真正需要提升的方面。 Peifer D , Stillman M , Halpern-Leistner D. Learning selection strategies in Buchberger's algorithm. arXiv.2005.01917.推荐语:利用学习理论尝试优化Grobner基算法。 Lu, Dong & Wang, Dingkang & Xiao, Fanghui & Zheng, Xiaopeng. (2023). Signature-Based Standard Basis Algorithm Under the Framework of Gvw Algorithm. SSRN Electronic Journal. 10.2139/ssrn.4383360.推荐语:关于Grobner基算法的最新进展。 Dave Bayer, The division algorithm and the Hilbert scheme. Ph.D. Thesis, Harvard University, June 1982. 168 pages.math.columbia.edu/~bayer/papers/Bayer-thesis.pdf推荐语:Macaulay作者之一的Bayer的博士论文,是当代代数几何与除法算法理论相结合的开山之作。 Vlad, Raluca. 2022. A Discussion of Gröbner Bases and the Hilbert Scheme. Bachelor's thesis, Harvard College. https://dash.harvard.edu/bitstream/handle/1/37371732/thesis.pdf?sequence=1推荐语:非常适合快速了解Grobner基的基本概念和简单应用。 开源符号软件简介A Tour of Sagehttps://doc.sagemath.org/html/en/a_tour_of_sage/SageMath是非常强大的开源数学软件,基于Python,可直接运行Python,十分全面。 GAP – A Tutorialhttps://docs.gap-system.org/doc/tut/chap0_mj.htmlGAP是一款专门针对群论和线性代数的符号计算系统,基于C。 Macaulay2Doc —— Macaulay2 documentationhttp://www2.macaulay2.com/Macaulay2/doc/Macaulay2/share/doc/Macaulay2/Macaulay2Doc/html/Macaulay2是一款计算Grobner基的计算机代数系统,主要用于处理交换环及其模上的符号计算问题,是代数几何中常用的软件。 PARI/GP documentationhttps://pari.math.u-bordeaux.fr/doc.htmlPari/GP是一款用来计算算术几何与代数数论、域扩张相关领域的代数系统。 Maxima 5.47.0 Manualhttps://maxima.sourceforge.io/docs/manual/maxima_toc.htmlMaxima是一款常用的计算机代数系统,对标Mathematica, Maple等软件,是世界上最早的通用计算机代数系统。 二、Math for AI
Yuan, Yang. "On the Power of Foundation Models." Proceedings of the 40th International Conference on Machine Learning. Ed. Andreas, Krause, et al.s.: PMLR, 2023.推荐语:本文使用范畴论,对预训练大模型的能力边界进行了理论刻画。 Kashiwara, Masaki, and Pierre Schapira. Categories and Sheaves. Springer Berlin, Heidelberg, 2006.推荐语:范畴论教科书,难度较大。 Riehl, Emily. Category Theory in Context. Courier Dover Publications, 2017. Print.推荐语:范畴论教科书,比较适合初学者。 Radford, Alec, et al. "Improving Language Understanding by Generative Pre-Training." (2018).推荐语:预测下一个词的GPT算法。 Chen, Ting, et al. "A simple framework for contrastive learning of visual representations." International conference on machine learning. PMLR, 2020.推荐语:预测相似图对的SimCLR算法,对于图像分类任务非常有效。 He, Kaiming, et al. "Masked autoencoders are scalable vision learners." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2022.推荐语:基于遮挡预测的MAE算法,在各类图像下游任务中都有很好的表现。 Gidaris, Spyros, Praveer Singh, and Nikos Komodakis. "Unsupervised Representation Learning by Predicting Image Rotations." arXiv preprint arXiv:1803.07728 (2018).推荐语:基于旋转预测的算法,是非常简单而且早期的预训练算法。相关文章:《智能是什么?范畴论为通用人工智能提供普适框架》
对比学习的理论基础:
Tan, Zhiquan, et al. "Contrastive Learning Is Spectral Clustering on Similarity Graph." arXiv preprint arXiv:2303.15103 (2023).https://arxiv.org/abs/2303.15103v2推荐语:本文严格刻画了SimCLR与CLIP这两个常用预训练算法,证明其与相似图的谱聚类是等价的。该等价性并不平凡,它可以看作是《On the Power of Foundation Models》的一个最简单的例子,为米田嵌入在再生核希尔伯特空间的具体表现。 Van Assel, Hugues, et al. "A Probabilistic Graph Coupling View of Dimension Reduction." Advances in Neural Information Processing Systems 35 (2022): 10696-708.推荐语:本文提出了分析SimCLR/CLIP使用的理论框架 Fan, Lijie, et al. "Improving Clip Training with Language Rewrites." arXiv preprint arXiv:2305.20088 (2023).https://arxiv.org/pdf/2305.20088.pdf推荐语:本文是改进CLIP的最新工作,背后的基础原理可以由同样的理论框架解释,有很好的效果。 HaoChen, Jeff Z, et al. "Provable Guarantees for Self-Supervised Deep Learning with Spectral Contrastive Loss." Advances in Neural Information Processing Systems 34 (2021): 5000-11.https://arxiv.org/pdf/2106.04156.pdf推荐语:本文是首篇分析SimCLR(变体)的理论工作,突破性地提出了在Population分布中分析算法,证明了SimCLR变体在做某种谱聚类(变体)。 Radford, Alec, et al. "Learning transferable visual models from natural language supervision." International conference on machine learning. PMLR, 2021.推荐语:连接图像与文字的CLIP算法,是Dall-E/EVA/MILAN等多模态模型的重要组成部分。
最大化原理视角下的神经网络训练过程、深度学习中的平均场最优控制建模:
Li, Qianxiao, Long Chen, and Cheng Tai. "Maximum Principle Based Algorithms for Deep Learning." arXiv preprint arXiv:1710.09513 (2017).推荐语:本研究讨论了如何用现代控制理论中的庞特里亚金最大原理对深度神经网络的优化过程进行建模。 E, Weinan, Jiequn Han, and Qianxiao Li. "A Mean-Field Optimal Control Formulation of Deep Learning." Research in the Mathematical Sciences 6.1 (2018): 10.推荐语:本研究介绍了深度学习中群体风险最小化问题作为均值场最优控制问题的数学表述,陈述并证明了哈密尔顿-雅可比-贝尔曼类型和庞特里亚金类型的最优条件。这些平均场结果反映了学习问题的概率性质。 2. 拓扑数据分析Edelsbrunner, Herbert, and John Harer. "Persistent Homology-a Survey." Contemporary mathematics 453.26 (2008): 257-82.推荐语:持续同调(Persistent Homology)是拓扑数据处理(Topological data analysis: TDA)核心模型。 Tauzin, Guillaume, et al. "giotto-tda: A topological data analysis toolkit for machine learning and data exploration." The Journal of Machine Learning Research 22.1 (2021): 1834-1839.推荐语:这这篇文章总结了拓扑数据和机器学习的结合的相关理论。 Cang, Zixuan, Lin Mu, and Guo-Wei Wei. "Representability of algebraic topology for biomolecules in machine learning based scoring and virtual screening." PLoS computational biology 14.1 (2018): e1005929.推荐语:拓扑机器学习模型预测配体蛋白质结合能。 Wang, Menglun, Zixuan Cang, and Guo-Wei Wei. "A topology-based network tree for the prediction of protein–protein binding affinity changes following mutation." Nature Machine Intelligence 2.2 (2020): 116-123.推荐语:拓扑机器学习模型预测蛋白质突变结合能改变量。 Nguyen, Duc Duy, et al. "MathDL: mathematical deep learning for D3R Grand Challenge 4." Journal of computer-aided molecular design 34 (2020): 131-147.推荐语:拓扑机器学习模型应用于药物设计。 Wang, Rui, Duc Duy Nguyen, and Guo‐Wei Wei. "Persistent Spectral Graph." International journal for numerical methods in biomedical engineering 36.9 (2020): e3376.推荐语:提出了持续谱图法。 拓展相关经典论文持续同调:Zomorodian, Afra J. Topology for Computing. Vol. 16: Cambridge university press, 2005. Otter, Nina, et al. "A Roadmap for the Computation of Persistent Homology." EPJ Data Science 6 (2017): 1-38. Zomorodian, Afra, and Gunnar Carlsson. "Computing persistent homology." Proceedings of the twentieth annual symposium on Computational geometry. 2004. 拓扑机器学习以及其在分子生物应用:Pun, Chi Seng, Si Xian Lee, and Kelin Xia. "Persistent-Homology-Based Machine Learning: A Survey and a Comparative Study." Artificial Intelligence Review 55.7 (2022): 5169-213. Nguyen, Duc Duy, Zixuan Cang, and Guo-Wei Wei. "A Review of Mathematical Representations of Biomolecular Data." Physical Chemistry Chemical Physics 22.8 (2020): 4343-67. Chen, Jiahui, et al. "Mutations Strengthened Sars-Cov-2 Infectivity." Journal of molecular biology 432.19 (2020): 5212-26. 持续谱图法:Meng, Zhenyu, and Kelin Xia. "Persistent spectral–based machine learning (PerSpect ML) for protein-ligand binding affinity prediction." Science advances 7.19 (2021): eabc5329. Mémoli, Facundo, Zhengchao Wan, and Yusu Wang. "Persistent Laplacians: Properties, algorithms and implications." SIAM Journal on Mathematics of Data Science 4.2 (2022): 858-884. 3. 图神经网络Gilmer, Justin, et al. "Neural message passing for quantum chemistry." International conference on machine learning. PMLR, 2017.推荐语:本文作为图神经网络中的一个里程碑之作,提出了消息传递范式,从而将主流的图神经网络模型都纳入到这一范式之中,为未来对图神经网络的理论研究提供一个框架。此外本文使用QM9验证了基于消息传递范式所设计的图神经网络在量子化学性质预测上的性能。 Schütt, Kristof T, et al. "Schnet–a Deep Learning Architecture for Molecules and Materials." The Journal of Chemical Physics 148.24 (2018).推荐语:本文作为深度学习在化学性质计算方面的深度应用,并提供了一个完整的针对量子化学计算的开源框架。 Xu, Keyulu, et al. "How Powerful Are Graph Neural Networks?" arXiv preprint arXiv:1810.00826 (2018).推荐语:这篇文章从理论上分析了GNN的表达能力的上限,为之后GNN的瓶颈突破提供了一个理论方向。 Ebli, Stefania, Michaël Defferrard, and Gard Spreemann. "Simplicial Neural Networks." arXiv preprint arXiv:2010.03633 (2020).推荐语:本文引入了单纯复形作为图数据的更一般化形式,此外设计了卷积操作并在此基础上构建模型。 Bodnar, Cristian, et al. "Weisfeiler and lehman go topological: Message passing simplicial networks." International Conference on Machine Learning. PMLR, 2021.推荐语:通过引入单纯形的概念,来突破GNN收到的WL-test的限制。 Bodnar, Cristian, et al. "Weisfeiler and Lehman Go Cellular: Cw Networks." Advances in Neural Information Processing Systems 34 (2021): 2625-40.推荐语:基于2阶单纯形对应的是三角形,从而难以对苯环等含有超过3个原子构成的分子环状结构进行有效的处理,因此引入了元胞复形对单纯复形的消息传递网络进行泛化,使其更加适用于化学性质预测任务。 Jiang, Yi, et al. "Topological Representations of Crystalline Compounds for the Machine-Learning Prediction of Materials Properties." npj computational materials 7.1 (2021): 28.推荐语:本文通过引入一种基于拓扑学的原子特异性持久同调(ASPH)方法,解决了如何为晶体化合物等复杂数据集构建具有化学洞察力的低维表示的问题,并且开发了一个高度准确的机器学习模型,用于预测晶体化合物的形成能。 Bodnar, Cristian, et al. "Neural sheaf diffusion: A topological perspective on heterophily and oversmoothing in gnns." Advances in Neural Information Processing Systems 35 (2022): 18527-18541.推荐语:本文提出了一种基于细胞层级结构的扩散过程Sheaf Diffusion,可以在无限时间极限下处理越来越复杂的节点分类任务,以解决图神经网络中的异质性和过度平滑问题,此外证明了其比Graph Convolutional Networks更加灵活,对渐近行为具有更大的控制能力。 Qiao, Zhuoran, et al. "Informing Geometric Deep Learning with Electronic Interactions to Accelerate Quantum Chemistry." Proceedings of the National Academy of Sciences 119.31 (2022): e2205221119.推荐语:本文提出了一种名为OrbNet-Equi的新方法,使用受物理启发的神经网络来学习基于原子轨道之间的电子相互作用的分子表示,以解释如何利用电子相互作用来加速量子化学计算的问题,并且证明比传统的机器学习方法和密度泛函理论更准确和更快。 Fu, Xiang, et al. "Simulate Time-Integrated Coarse-Grained Molecular Dynamics with Geometric Machine Learning." arXiv preprint arXiv:2204.10348 (2022).推荐语:本文提出了一种基于机器学习的方法,结合粗粒化和时间积分建模与图神经网络,用于模拟分子动力学,该模型优于基于GNN和长短期记忆(LSTM)神经网络架构的两个监督学习基准模型。与传统力场相比,该模型可以在需要长时间模拟的估计问题中提供几个数量级的加速。通过模拟隐式溶剂中的单链粗粒化聚合物,并可靠地估计需要长时间模拟的聚合物性质,证明了该模型的性能。相关读书会:AI+Science 读书会中付襄关于分子动力学模拟的介绍https://pattern.swarma.org/study_group_issue/484 Xu, Hao, et al. "Retention time prediction for chromatographic enantioseparation by quantile geometry-enhanced graph neural network." Nature Communications 14.1 (2023): 3095.推荐语:本文提出的研究框架使用机器学习技术改进色谱手性分离的效率。该框架解决了数据获取、手性分子的三维表示和数据不确定性等问题。它通过从现有文献中提取实验结果构建了一个手性分子保留时间数据集,并使用一种专门的图神经网络(QGeoGNN)进行预测。QGeoGNN在单柱和多柱预测中准确预测了手性分子的保留时间,以及在不同条件下的分离概率。然而,数据的代表性和质量、数据的不确定性、低相似性分子的预测准确性以及特征提取过程存在一定的限制。尽管存在这些限制,该框架在色谱手性分离中确定适当实验条件方面具有重要潜力。