计算神经科学读书会启动:从复杂神经动力学到类脑人工智能
导语
境自远尘皆入咏,物含妙理总堪寻。
人类大脑是一个由数以百亿计的神经元相互连接所构成的复杂系统,被认为是「已知宇宙中最复杂的物体」。本着促进来自神经科学、系统科学、信息科学、物理学、数学以及计算机科学等不同领域,对脑科学、类脑智能与计算、人工智能感兴趣的学术工作者的交流与合作,集智俱乐部联合国内外多所知名高校的专家学者发起神经、认知、智能系列读书会第三季——「计算神经科学」读书会,涵盖复杂神经动力学、神经元建模与计算、跨尺度神经动力学、计算神经科学与AI的融合四大模块,并希望探讨计算神经科学对类脑智能和人工智能的启发。读书会从2024年2月22日开始,每周四19:00-21:00进行,持续时间预计10-15周,欢迎感兴趣的朋友报名参与,深入梳理相关文献、激发跨学科的学术火花!
读书会背景
读书会背景
读书会简介
读书会简介
读书会框架
读书会框架
分享预告:复杂神经动力学的全景与基础
分享预告:复杂神经动力学的全景与基础
1. 周昌松:机器学习与神经科学(Machine Learning: from and in Neuroscience)
生物神经网络对机器学习中人工神经网络(ANNs)的启发已经得到了广泛的认识。然而,大脑中的生物神经网络在网络结构和活动模式上要复杂得多,可以将其视为通过演化和学习来训练以支持人类的自然智能的网络。另一方面,人工神经网络和机器学习作为强大的数据分析工具被越来越多地应用于神经科学的诸多研究中。更有趣的是,人工神经网络提供了一种新的方法来研究复杂行为背后的计算原理。
本讲座将对上述内容进行简要概述:首先介绍大脑网络的结构连接和动力学的复杂性,及其与认知能力和自然智能的复杂关系;然后总结在神经科学中用于复杂数据分析和复杂行为计算原理探索的机器学习技术。希望这样的总结能给大家提供一个俯瞰领域的视角,激发大家对开发大脑启发的,特别是利用了大脑的网络连接结构和动力复杂性的机器学习和人工智能系统的兴趣。
2. 弭元元:神经计算建模基础与入门
大脑的高级认知功能,如感知、运动、学习与记忆等,都是由海量神经元所构成的复杂神经网络来实现的。网络中的神经元接收外部输入信息,通过突触连接相互作用,在记忆、注意、情感等因素调控下,使得网络状态发生改变,进而实现了对信息的编码、存储、整合等操作。破解神经系统的信息处理机制,不仅是阐明大脑高级认知功能的基础,也是发展人工智能的重要思想源泉。
本讲座将简要介绍单神经元、神经突触、神经网络三个不同层面的神经计算建模相关知识。
3. 唐乾元:Sloppiness模型简介与理论基础
复杂系统不仅在变量空间有着极高的自由度,其在参数空间同样也有非常高的自由度。在大量参数不确定的情况下,我们是否仍然可以对系统的动力学情况进行预测?如果错误地估计了某个参数,我们所预测的动力学会跟原来的动力学产生怎样的差异?有趣的是,许多复杂系统的工作状态似乎不会由于少数参数的改变而发生剧烈的变化,例如一个深度学习网络,其中可能包含上千万个参数,但一个能够有较好泛化能力的网络,往往不会因为参数的扰动影响其表现。Sloppy 模型所描述的就是这样一类多参数模型,这类模型的行为只取决于几个参数的严格组合,而其它许多参数方向对模型预测来说并不重要。这样的模型在生命科学、物理学和人工智能等领域中无处不在。
这一讲,讲者将介绍有关sloppy模型和sloppiness分析的有关理论基础。
发起人
发起人
周昌松,物理学博士,香港浸会大学物理系教授、系主任,浸会大学非线性研究中心主任,计算及理论研究所副所长, 生命科学影像中心主任。
弭元元,清华大学心理学系长聘副教授。2012年于北京师范大学获得理论物理专业博士学位,先后在以色列Weizmann Institute of Science和美国Columbia University作博士后研究。
傅渥成(唐乾元),香港浸会大学助理教授,集智科学家,集智-凯风研读营学者。南京大学物理学博士,曾是是日本理化学研究所博士后。
臧蕴亮,天津大学医学工程与转化医学研究院英才教授,博士毕业于浙江大学生物医学工程专业,先后在日本冲绳科学技术研究院大学的Erik De Schutter教授以及美国布兰迪斯大学的Eve Marder教授(美国科学院院士)课题组从事科学研究。
冯志聪(Alan Fung),香港城市大学神经科学系助理教授。2006 年开始研究连续吸引子神经网络(CANN)模型。
杜凯,北京大学人工智能研究院助理研究员。杜凯博士于2002年在北京航空航天大学飞行器动力工程系获得学士学位,并于2016年在瑞典卡罗琳斯卡医学院神经科学系取得博士学位,随后在该院进行了博士后研究至2020年。在2013至2016年间,他是欧盟脑计划“大脑仿真平台”瑞典团队的主要成员。2020年,加入了北京大学人工智能研究院,并参与创建了北京智源人工智能研究院的生命模拟部门。
李松挺,上海交通大学自然科学研究院、数学科学学院教授。2010年和2014年于上海交通大学分别取得数学本科和博士学位,2015-2018年于纽约大学柯朗研究所任博士后。
胡禹,香港科技大学数学系和生命科学学部助理教授。2014年在华盛顿大学取得应用数学博士学位,并曾在哈佛大学和以色利希伯来大学从事博士后研究。
张铁林,中科院自动化所复杂系统认知与决策实验室副研究员,智能机制机理研究部PI。
刘健,伯明翰大学神经计算实验室副教授。
刘泉影,南方科技大学生物医学工程系助理教授,博士生导师,神经计算与控制实验室PI。本科和硕士毕业于兰州大学信息学院,博士毕业于瑞士苏黎世联邦理工大学生物医学工程方向,在美国加州理工学院进行计算与数学科学方向的博士后训练。
邀请报告
邀请报告
龚璞林(Pulin Gong),悉尼大学物理学院副教授,理论计算研究组主任。在加入悉尼大学之前,他是日本RIKEN脑科学研究所的一名研究员。希望能更好地理解大脑时空动态的自组织机制以及这些动态如何实现神经计算的基本原理。
报名参与读书会
报名参与读书会
本读书会适合参与的对象
基于复杂系统相关学科研究,对从多尺度与动力学角度理解大脑的信息处理机制及其对类脑智能、人工智能启发相关研究有浓厚兴趣的科研工作者;
具有一定神经科学、系统科学、信息科学、物理学、数学以及计算机科学的学科背景,在领域内有一定的研究基础,想进一步进行交叉学科研究与交流的学者、研究生、本科生。
对复杂科学充满激情,对世界,特别是生命与大脑的本质充满好奇的探索者,且具备一定的英文文献阅读能力的探索者。
想锻炼自己科研能力或者有出国留学计划的高年级本科生及研究生。
本读书会谢绝参与的对象
运行模式
举办时间
参与方式
报名方式
共学共研模式与退费机制
加入社区后可以获得的资源:
在线会议室沉浸式讨论:与主讲人即时讨论交流
交互式播放器高效回看:快速定位主讲人提到的术语、论文、大纲、讨论等重要时间点(详情请见:解放科研时间,轻松掌握学术分享:集智斑图推出可交互式播放器)
高质量的主题微信社群:硕博比例超过80%的成员微信社区,闭门夜谈和交流
超多学习资源随手可得:从不同尺度记录主题下的路径、词条、前沿解读、算法、学者等
参与社区内容共创任务:读书会笔记、百科词条、公众号文章、论文解读分享等不同难度共创任务,在学习中贡献,在付出中收获。
共享追踪主题前沿进展:在群内和公众号分享最新进展,领域论文速递
参与共创任务,共建学术社区:
读书会笔记:在交互式播放器上记录术语和参考文献
集智百科词条:围绕读书会主题中重要且前沿的知识概念梳理成词条。例如:
论文解读分享:认领待读列表中的论文,以主题报告的形式在社区分享
论文摘要翻译:翻译社区推荐论文中的摘要和图注
公众号文章:以翻译整理或者原创生产形式生产公众号文章,以介绍前沿进展。例如:
论文翻译
- 诺奖之后的复杂科学:18位学者勾勒未来20年复杂系统研究图景
科普文章翻译
讲座整理
- AI何以涌现:复杂适应系统视角的ChatGPT和大语言模型
阅读资料
阅读资料
阅读材料较长,为了更好的阅读体验,建议您前往集智斑图沉浸式阅读,并可收藏感兴趣的论文。
1. 复杂神经动力学:全景与基础
周昌松:机器学习与神经科学(Machine Learning: from and in Neuroscience)
Glaser, J. I., Benjamin, A. S., Farhoodi, R., & Kording, K. P. (2019). The roles of supervised machine learning in systems neuroscience. Progress in Neurobiology, 175, 126–137.
HJ Cole, K Franke, Predicting Aging Using Neuroimaging: Innovative Brain Ageing Biomarkers, Trends in Neuroscience 2017.
Devereux, B. J., Clarke, A., & Tyler, L. K. (2018). Integrated deep visual and semantic attractor neural networks predict fMRI pattern-information along the ventral object processing pathway. Scientific reports, 8(1), 10636.
Guangyu Robert Yang, Madhura R. Joglekar, H. Francis Song, William T. Newsome and Xiao-Jing Wang, Task representations in neural networks trained to perform many cognitive tasks.Nature neuroscience, 2019.
Song HF, Yang GR, Wang XJ (2016) Training Excitatory-Inhibitory Recurrent Neural Networks for Cognitive Tasks: A Simple and Flexible Framework. PLOS Computational Biology 12(2): e1004792
Guangyu Robert Yang, Xiao-Jing Wang.Artificial neural networks for neuroscientists: A primer. Neuron. 2020.
弭元元:神经计算建模基础与入门
唐乾元:Sloppiness模型简介与理论基础
2. 神经元建模与计算:鲁棒性与非线性
臧蕴亮:神经高效计算及鲁棒性机制
Zang, Y., S. Dieudonne and E. De Schutter (2018). "Voltage- and Branch-Specific Climbing Fiber Responses in Purkinje Cells." Cell Rep 24(6): 1536-1549.
Zang, Y., E. Marder and S. Marom (2023). "Sodium channel slow inactivation normalizes firing in axons with uneven conductance distributions." Curr Biol 33(9): 1818-1824 e1813.
冯志聪:突触动力学对于神经网络中模式分离的启示
Tsodyks, Misha V., and Henry Markram. "The neural code between neocortical pyramidal neurons depends on neurotransmitter release probability." Proceedings of the national academy of sciences 94.2 (1997): 719-723.
Fung, CC Alan, et al. "Dynamical synapses enhance neural information processing: gracefulness, accuracy, and mobility." Neural computation 24.5 (2012): 1147-1185.
杜凯 :大脑精细模拟:时序信息处理模型的规模与泛化
London M, Häusser M. Dendritic computation. Annu Rev Neurosci. 2005;28:503-32. doi: 10.1146/annurev.neuro.28.061604.135703. PMID: 16033324.
Poirazi, Panayiota, and Athanasia Papoutsi. "Illuminating dendritic function with computational models." Nature Reviews Neuroscience 21.6 (2020): 303-321.
李松挺:树突计算的数学理论与模型
London, M. and Häusser, M. "Dendritic computation." Annu. Rev. Neurosci. 28: 503-532. (2005)
Poirazi, P., Papoutsi, A. Illuminating dendritic function with computational models. Nat Rev Neurosci 21, 303–321 (2020).
3. 跨尺度神经动力学:计算及应用
唐乾元:Sloppiness在网络科学和脑科学中的应用
Gutenkunst, Ryan N., Joshua J. Waterfall, Fergal P. Casey, Kevin S. Brown, Christopher R. Myers, and James P. Sethna. “Universally Sloppy Parameter Sensitivities in Systems Biology Models.” PLoS Computational Biology 3, no. 10 (2007): e189.
Machta, B. B., R. Chachra, M. K. Transtrum, and J. P. Sethna. “Parameter Space Compression Underlies Emergent Theories and Predictive Models.” Science 342, no. 6158 (November 1, 2013): 604–7.
Qian-Yuan Tang, Testsuhiro S. Hatakeyama, Kunihiko Kaneko, Functional Sensitivity and Mutational Robustness of Proteins, Physical Review Research 2(3), 033452 (2020).
胡禹:循环连接和模体(motif)结构对和神经群体活动的维数和协方差谱的影响(Dimension and covariance spectrum of neural activity shaped by recurrent interactions and motifs)
Ocker et al, From the statistics of connectivity to the statistics of spike times in neuronal networks, Current Opinion in Neurobiology, 2017
Hu & Sompolinsky, The spectrum of covariance matrices of randomly connected recurrent neuronal networks with linear dynamics, PLOS CB 2022
Clark et al, Dimension of Activity in Random Neural Networks, PRL 2023
Dahmen et al, Strong and localized recurrentce controls dimensionality of neural activity across brain areas, Biorxiv 2023
周昌松:最优神经表征的响应可靠性与灵敏度的协调
弭元元:时序信息加工的神经计算机制及其类脑算法研究
https://openreview.net/forum?id=eeeqORvJbf
李松挺:大尺度脑网络结构与动力学的建模与分析
Chaudhuri, R., Knoblauch, K., Gariel, M. A., Kennedy, H., & Wang, X. J. A large-scale circuit mechanism for hierarchical dynamical processing in the primate cortex. Neuron, 88(2), 419-431. (2015)
Li, S., & Wang, X. J. Hierarchical timescales in the neocortex: Mathematical mechanism and biological insights. Proceedings of the National Academy of Sciences, 119(6), e2110274119. (2022)
Wang, X. J. Theory of the multiregional neocortex: large-scale neural dynamics and distributed cognition. Annual review of neuroscience, 45, 533-560. (2022)
龚璞林:大脑时空活动模式的动态原理与计算机制(Spatiotemporal activity patterns in the brain: dynamical principles and functional roles)
Yang Qi and Pulin Gong. Fractional neural sampling as a theory of spatiotemporal probabilistic computations in neural circuits. Nature Communications, 13: 4572 (2022).
Guozhang Chen and Pulin Gong. A spatiotemporal mechanism of visual attention: Superdiffusive motion and theta oscillations of neural population activity patterns. Science Advances, eabl4995 (2022).
Yiben Xu, Xian Long, Jianfeng Feng and Pulin Gong. Interacting spiral wave patterns underlie complex brain dynamics and are related to cognitive processing. Nature Human Behaviour volume 7, 1196–1215 (2023).
Rory Townsend, Pulin Gong. Detection and analysis of spatiotemporal patterns in brain activity. PLoS Computational Biology, 14: e1006643 (2018).
Asem Wardak and Pulin Gong. Extended Anderson Criticality in Heavy-Tailed Neural Networks. Physical Review Letters, 129: 048103 (2022)
Guozhang Chen & Pulin Gong. Computing by modulating spontaneous cortical activity patterns as a mechanism of active visual processing. Nature Communications. 10: 4915 (2019).
4. 计算神经科学和AI的融合
张铁林:面向脑机接口的类脑脉冲神经网络软硬件
Zhang TL, Cheng X, Jia S, Li CT, Poo MM, Xu B. A brain-inspired algorithm that mitigates catastrophic forgetting of artificial and spiking neural networks with low computational cost. Science Advances. 2023;9(34)
Zhang TL*, Cheng X, Jia SC, Poo MM, Zeng Y, Xu B*. Self-backpropagation of synaptic modifications elevates the efficiency of spiking and artificial neural networks. Science Advances. 2021.
Zhang TL*, Jia SC, Cheng X, Xu B*. Tuning Convolutional Spiking Neural Network With Biologically Plausible Reward Propagation. IEEE Transactions on Neural Networks and Learning Systems (IEEE-TNNLS). 2021.
Zhao XL, Zhang DZ, Han LY, Zhang TL*, Xu B. ODE-based Recurrent Model-free Reinforcement Learning for POMDPs. Thirty-seventh Conference on Neural Information Processing Systems (NeurIPS), 2023.
Wang QY, Zhang TL*, Han ML, Wang Y, Xu B. Complex dynamic neurons improved spiking transformer network for efficient automatic speech recognition. Thirty-Seventh AAAI Conference on Artificial Intelligence (AAAI), 2023.
Zhang DZ, Zhang TL*, Jia SC, Xu B*. Multiscale Dynamic Coding improved Spiking Actor Network for Reinforcement Learning. Thirty-Sixth AAAI Conference on Artificial Intelligence (AAAI), 2022.
Wei QL, Han LY, Zhang TL*. Learning and Controlling Multi-scale Dynamics in Spiking Neural Networks using Recursive Least Square Modifications. IEEE Transactions on Cybernetics (IEEE-TCYB), 2023.
Jiang, ZW, Xu JM, Zhang TL, Poo MM*, Xu B*. "Origin of the efficiency of spike timing-based neural computation for processing temporal information." Neural Networks, 160 (2023): 84-96.
刘健:跨尺度大脑动力学的神经编解码AI计算模型
Zhang, Y., Yu, Z., Liu, J. K., Huang T., Neural Decoding of Visual Information Across Different Neural Recording Modalities and Approaches. Machine Intelligence Research. 19: 350-365 (2022) DOI: 10.1007/s11633-022-1335-2
Jia S., Xing D., Yu Z., Liu, J. K., Dissecting cascade computational components in spiking neural networks, PLoS Comput Biol 17(11): e1009640 (2021) DOI: 10.1371/journal.pcbi.1009640
Jia S, Yu Z, Onken A, Tian Y, Huang T, Liu J. K. Neural System Identification with Spike-triggered Non-negative Matrix Factorization. IEEE Transactions on Cybernetics 52(6): 4772-4783 (2022) DOI: 10.1109/TCYB.2020.3042513
Zhang, Y., Bu, T., Zhang, Y., Tang, S., Yu, Z., Liu, J. K. Huang, T., Decoding Pixel-Level Image Features from Two-Photon Calcium Signals of Macaque Visual Cortex. Neural Computation 34 (6): 1369–1397 (2022) DOI: 10.1162/neco_a_01498
Liu, J. K., Karamanlis, D., Gollisch, T., Simple model for encoding natural images by retinal ganglion cells with nonlinear spatial integration. PLoS Comput Biol 18(3): e1009925 (2022) DOI: 10.1101/2021.08.29.458067
Zhang Y, Jia S, Zheng Y, Yu Z, Tian Y., Ma S., Huang T, Liu J.K. Reconstruction of Natural Visual Scenes from Neural Spikes with Deep Neural Networks. Neural Networks. 125:19-30 (2020) DOI: 10.1016/j.neunet.2020.01.033
刘泉影:基于模型驱动及数据驱动的全脑网络建模
Durstewitz, Daniel, Georgia Koppe, and Max Ingo Thurm. "Reconstructing computational system dynamics from neural data with recurrent neural networks." Nature Reviews Neuroscience 24.11 (2023): 693-710.
Zhang, Xiaohan, et al. "Excitatory-inhibitory recurrent dynamics produce robust visual grids and stable attractors." Cell reports 41.11 (2022).
Bashivan, Pouya, Kohitij Kar, and James J. DiCarlo. "Neural population control via deep image synthesis." Science 364.6439 (2019): eaav9436.
Liang, Zhichao, et al. "Online Learning Koopman operator for closed-loop electrical neurostimulation in epilepsy." IEEE Journal of Biomedical and Health Informatics 27.1 (2022): 492-503.
Ye, Ziyuan, et al. "Explainable fMRI‐based brain decoding via spatial temporal‐pyramid graph convolutional network." Human Brain Mapping 44.7 (2023): 2921-2935.
https://www.youtube.com/watch?v=AKMuA_TVz3A
关于集智俱乐部读书会和主办方
关于集智俱乐部读书会和主办方
集智俱乐部读书会是面向广大科研工作者的系列论文研读活动,其目的是共同深入学习探讨某个科学议题,了解前沿进展,激发科研灵感,促进科研合作,降低科研门槛。
读书会活动始于 2008 年,至今已经有 50 余个主题,内容涵盖复杂系统、人工智能、脑与意识、生命科学、因果科学、高阶网络等。凝聚了众多优秀科研工作者,促进了科研合作发表论文,孵化了许多科研产品。如:2013 年的“深度学习”读书会孕育了彩云天气 APP,2015 年的“集体注意力流”读书会产生了众包书籍《走近2050》,2020年的开始因果科学读书会孕育了全国最大的因果科学社区等。
主办方:集智俱乐部
协办方:集智学园
集智俱乐部成立于 2003 年,是一个从事学术研究、享受科学乐趣的探索者的团体,也是国内最早的研究人工智能、复杂系统的科学社区。它倡导以平等开放的态度、科学实证的精神,进行跨学科的研究与交流,力图搭建一个中国的 “没有围墙的研究所”。
神经、认知、智能社区
神经、认知、智能社区
理解大脑的工作机制,能够促进人工智能的发展,人工智能也为大脑的研究提供新的以数据和模型为基础的范式。「神经、认知、智能」共创社区主要从跨学科与复杂科学的视角,探讨大脑编解码的机制与计算模型,以及视觉、语言、学习、运动、决策、记忆、情绪、社会交互等高级认知功能的组织。目前社区已经组织策划了「神经动力学模型」和「NeuroAI」读书会,此次「计算神经科学」读书会是系列读书会的第三季。
计算神经科学读书会
神经动力学模型读书会
NeuroAI读书会
点击“阅读原文”,报名读书会