查看原文
其他

自旋玻璃模型简介和空腔法 | 周六直播·神经网络的统计力学课程第二讲

集智小编 集智学园 2022-12-11


导语


统计物理方法是一座架起微观作用到宏观涌现的桥梁,2021年诺贝尔物理学奖得主帕里西在无序系统方面作出开创之举,他提出复本对称破缺方法解决自旋玻璃问题,这一方法也对神经网络等交叉学科产生深厚影响,激发未来对人工智能和人脑等复杂系统的进一步研究。本节课程是系列课程的第二节课程,将介绍什么是自旋玻璃、自旋玻璃应用的几个经典例子、为什么需要空腔方法、空腔方法的基本思想和具体推导以及消息传递算法等内容,搭建从统计物理到神经网络重要的桥梁,帮助大家更好理解神经网络的基本原理。


中山大学教授黄海平老师将根据他的书籍内容开展神经网络的统计力学】课程,介绍统计力学的基本原理及其在理解神经网络内部工作原理的应用。课程自9月17日开始,每周六14:00-16:00(节假日除外)进行,课程从2022年9月持续到2023年6月,欢迎想要在神经网络理论深耕的朋友扫描文中二维码报名加入课程,详情见文末。






课程简介




本节课程是系列课程的第二节。本节课主要包括两部分:


第一部分会对自旋玻璃系统进行一个简单的介绍,帮助没有统计物理背景的朋友快速了解自旋玻璃模型的基本定义、解决问题的基本框架、和与现实生活中问题的对应。自旋玻璃模型是从统计物理的角度理解神经网络最为重要的桥梁之一,同时也是现代神经网络的起源,在后续的课程中会对自旋玻璃进行更详尽的介绍。


第二部分会以一个信息编码中的一个例子讲解空腔方法的基本思想,具体过程和应用方法。空腔方法是复杂系统研究中一种很重要的方法,能让我们能以较低的计算代价得到系统的自由能,从而推断出系统的各种性质,在优化组合,信息编码和神经网络中都有很多应用。这节课主要了解它的基本思想,将在后续的课程里看到它在神经网络中的应用。





本节课程大纲




1. 什么是自旋玻璃&统计物理基础
2. 自旋玻璃应用的几个经典例子
3. 为什么需要空腔方法&空腔方法的基本思想和具体推导
4. 从空腔方法到消息传递算法

5. 延伸阅读





负责人介绍




黄海平,中山大学物理学院教授。本科毕业于中山大学理工学院,博士毕业于中国科学院理论物理研究所,随后在香港科技大学物理系、东京工业大学计算智能系  (2012年获日本学术振兴会资助) 以及日本理化学研究所 (RIKEN) 脑科学中心从事统计物理与机器学习、  神经计算交叉的基础理论研究,2017年因在无监督学习方面的研究获得 RIKEN  杰出研究奖。于2018年入选中山大学百人计划,在物理学院组建了“物理、机器与智能”  (PMI)研究小组,专注于各种神经计算的理论基础,长期目标是使用基于物理的近似来揭示机器及大脑智能的基本原理。曾主持国家自然科学基金青年基金、优秀青年基金等国家级项目。

PMI Lab:https://www.labxing.com/hphuang2018





直播信息




直播时间:

2022年9月24日(周六)下午14:00-16:00


参与方式一:视频号预约直播


参与方式二:付费加入课程,查看课程回放
付费后,可参与集智学园平台直播并加入交流群获得视频回放权限。欢迎对统计力学的基本原理感兴趣的你,加入【神经网络的统计力学】课程!
课程定价:499
课程时间:从2022年9月17日起,每周六 14:00-16:00(节假日除外)

扫码付费报名课程


付费流程:
第一步:扫码付费
第二步:在课程详情页面,填写“学员信息登记表”
第三步:扫码添加助教微信,入群
本课程可开发票。



神经网络的统计力学

每周更新,持续报名中


系列课程大纲

课程主要目的是培养一批有望在神经网络理论深耕的青年学者(侧重学生),课程涉及黄海平老师最新出版的书籍《Statistical Mechanics of Neural Networks》的大部分内容,目标是学习统计力学的基本原理及其在理解神经网络内部工作原理的应用。书籍涵盖了用于理解神经网络原理的必要统计力学知识,包括复本方法、空腔方法、平均场近似、变分法、随机能量模型、Nishimori条件、动力学平均场理论、对称性破缺、随机矩阵理论等,同时详细描述了监督学习、无监督学习、联想记忆网络、感知器网络、随机循环网络等神经网络及其功能的物理模型以及解析理论。本书通过简洁的模型展示了神经网络原理的数学美和物理深度,并介绍了相关历史和展望未来研究的重要课题,可供对神经网络原理感兴趣的学生、研究人员以及工程师阅读参考。


书籍目录(详版):

Chapter 1:  Introduction

Chapter 2:  Spin Glass Models and Cavity Method

  • 2.1 Multi-spin Interaction Models

  • 2.2 Cavity Method

  • 2.3 From Cavity Method to Message Passing Algorithms

Chapter 3:  Variational Mean-Field Theory and Belief Propagation

  • 3.1 Variational Method

  • 3.2 Variational Free Energy

  • 3.3 Mean-Field Inverse Ising Problem

Chapter 4:  Monte Carlo Simulation Methods

  • 4.1 Monte Carlo Method

  • 4.2 Importance Sampling

  • 4.3 Markov Chain Sampling

  • 4.4 Monte Carlo Simulations in Statistical Physics

Chapter 5:  High-Temperature Expansion

  • 5.1 Statistical Physics Setting

  • 5.2 High-Temperature Expansion

  • 5.3 Properties of the TAP Equation

Chapter 6:  Nishimori Line

  • 6.1 Model Setting

  • 6.2 Exact Result for Internal Energy

  • 6.3 Proof of No RSB Effects on the Nishimori Line

Chapter 7:  Random Energy Model

  • 7.1 Model Setting

  • 7.2 Phase Diagram

Chapter 8:  Statistical Mechanical Theory of Hopfifield Model

  • 8.1 Hopfifield Model

  • 8.2 Replica Method

  • 8.3 Phase Diagram

  • 8.4 Hopfifield Model with Arbitrary Hebbian Length

Chapter 9:  Replica Symmetry and Replica Symmetry Breaking

  • 9.1 Generalized Free Energy and Complexity of States

  • 9.2 Applications to Constraint Satisfaction Problems

  • 9.3 More Steps of Replica Symmetry Breaking

Chapter 10:  Statistical Mechanics of Restricted Boltzmann Machine

  • 10.1 Boltzmann Machine

  • 10.2 Restricted Boltzmann Machine

  • 10.3 Free Energy Calculation

  • 10.4 Thermodynamic Quantities Related to Learning

  • 10.5 Stability Analysis

  • 10.6 Variational Mean-Field Theory for Training Binary RBMs

Chapter 11:  Simplest Model of Unsupervised Learning with Binary

  • 11.1 Model Setting

  • 11.2 Derivation of sMP and AMP Equations

  • 11.3 Replica Computation

  • 11.4 Phase Transitions

  • 11.5 Measuring the Temperature of Dataset

Chapter 12:  Inherent-Symmetry Breaking in Unsupervised Learning

  • 12.1 Model Setting

  • 12.2 Phase Diagram

  • 12.3 Hyper-Parameters Inference

Chapter 13:  Mean-Field Theory of Ising Perceptron

  • 13.1 Ising Perceptron model

  • 13.2 Message-Passing-Based Learning

  • 13.3 Replica Analysis

Chapter 14:  Mean-Field Model of Multi-layered Perceptron

  • 14.1 Random Active Path Model

  • 14.2 Mean-Field Training Algorithms

  • 14.3 Spike and Slab Model

Chapter 15:  Mean-Field Theory of Dimension Reduction in Neural Networks

  • 15.1 Mean-Field Model

  • 15.2 Linear Dimensionality and Correlation Strength

  • 15.3 Dimension Reduction with Correlated Synapses

Chapter 16:  Chaos Theory of Random Recurrent Neural Networks

  • 16.1 Spiking and Rate Models

  • 16.2 Dynamical Mean-Field Theory

  • 16.3 Lyapunov Exponent and Chaos

  • 16.4 Excitation-Inhibition Balance Theory

  • 16.5 Training Recurrent Neural Networks

Chapter 17:  Statistical Mechanics of Random Matrices

  • 17.1 Spectral Density

  • 17.2 Replica Method and Semi-circle Law

  • 17.3 Cavity Approach and Marchenko

  • 17.4 Spectral Densities of Random Asymmetric Matrices

Chapter 18:  Perspectives


报名加入课程

欢迎对统计力学的基本原理感兴趣的你,加入【神经网络的统计力学】课程!

课程价格:499元

扫码付费报名课程
第一步:扫码付费
第二步:在课程详情页面,填写“学员信息登记表”
第三步:扫码添加助教微信,入群

本课程可开发票。


课程负责人黄海平的评论文章:

统计物理、无序系统和神经网络

点击了解系列课程详情:

黄海平:神经网络的统计力学课程 | 50人免费名额



点击“阅读原文”,报名课程

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存