Nature Neuro:人类复杂行为背后存在基本的数学和计算原理吗?计算认知神经科学在寻找答案
公元前6世纪的古希腊先贤毕达哥拉斯(Pythagoras)提出“万物皆数”,认为数是宇宙万物的本原。那么是否跟物理规律类似,人类复杂的行为和认知背后,也存在某些基本的数学和计算原理?计算认知神经科学致力于回答这个问题。
图1 计算认知神经科学的目标是通过生物学上可信的计算模型来解释动物和人类神经元活动和行为,从历史上看,每个学科(圆圈)都解决了这些挑战的一个子集(白色标签),计算认知神经科学力求同时应对所有挑战。
从实验到理论
从计算层面理解大脑活动的另外一种途径是揭示每个脑区呈现了什么信息。简而言之,解码模型能够检测出两种刺激中的哪一种产生了我们所测量到的激活模式3。表征的内容可以是识别感觉刺激(从一组备选的刺激中识别)、感知刺激的属性(如光栅的朝向)或者是认知操作和行为过程中所需要的抽象变量4。
解码模型和其他类型的多变量模式分析方法有助于揭示区域所表征的具体内容5–8。然而,解码特定信息的能力并不代表解释了完整的神经编码过程:它没有指定表示格式(线性解码之外)或可能出现的其他信息。最重要的是,解码器通常不构成大脑计算的模型。
表征模型(Representational Models)
相较于解码模型,该模型希望更详尽的描述脑区的表征,解释其对任意刺激的响应。当然,一个完整的解释也依赖于可解码的变量范围,表征模型试图做关于表征空间的综合预测,因此该模型比解码模型更多的受到计算理论的约束9,10。
目前有三种类型的表征模型:编码模型(EM)11–13,模式成分模型(PCM)14和表征相似性分析(RSA)15–17,这三种方法都用于检验表征空间的假设。编码模型,刺激间每个体素的激活被预测为模型中特征的线性组合;模式成分模型,描述表征空间的激活分布被模拟成一个多变量正态分布;表征相似性分析模型,表征空间被描述为由刺激诱发的激活模式的表征相异性。
从理论到实验
为了建立理论和实验间更好的桥梁,我们首先需要一个明确的理论,这可以通过定义一个数学理论以及在计算模型中执行它们来实现。计算模型可以存在于不同的描述级别,在认知保真性和生物保真性间权衡(图2)。
如果模型仅考虑神经元成分和动态性,则可能难以解释认知加工过程(水平轴);相反,如果模型仅考虑认知功能,则可能很难和大脑活动联系起来(垂直轴)。为了连接认知和大脑,模型的建立必须同时考虑行为数据(反应认知过程)和神经动态两个层面18,19。
图2 大脑信息加工过程的模型可以在不同描述层次上定义,它们的参数复杂度(点大小)、生物(水平轴)和认知(垂直轴)保真度也可能不同。自下而上建模方法(蓝色箭头)首先捕捉生物神经网络的特征,如动作电位和单个神经元之间的相互作用,但这种方法忽略了认知功能。自上而下方法(红色箭头)的目标首先是在算法级捕获认知功能,这种方法不考虑生物实现,而是将信息处理底层任务性能分解为算法组件。这两种方法形成了通往解释大脑如何产生思维这一共同目标的两个极端。总的来说,认知和生物保真度之间存在权衡(负相关)。由于智力需要丰富的外部世界知识,因而人脑信息处理模型的参数复杂度较高(右上角的大点)。 该图是概念图,并不是基于对认知保真度、生物保真度和模型复杂性的定量测量,目前还没有确定的方法来衡量这三个变量,但可以帮助我们理解模型之间的关系,并理解它们的互补贡献。
在这个部分,我们来集中讨论近期执行任务计算模型上的成功,这些模型能够在表征和算法上解释人类认知功能。执行任务模型一直是心理物理学和认知科学的核心,它们通常在行为数据上验证,最近也开始用脑活动数据来验证。我们将依次考虑这两大类模型,神经网络模型和认知模型。
神经网络模型(Neural network models)
和大脑一样,神经网络模型可以执行前馈和循环计算,包括多层的线性-非线性信号变换,一般有数百万个参数(连接权重),通过调参不断优化任务执行表现20,21。
近期的研究已经开始将神经网络模型作为脑信息处理模型来进行验证20,22。这些研究利用训练有素的深度卷积神经网络模型来识别图像中物体,预测了灵长类动物的腹侧视觉区在面对新异图像时的大脑表征,结果表明,深度神经网络的内部表征是当前符合人类和猴子颞下回视觉图像表征的最佳模型23–25。
认知模型(Cognitive Models)
目前有三类认知模型:产生式系统,强化学习模型和贝叶斯认知模型。
产生式系统(production systems)提供了用于解释推理和问题解决的早期模型。一个“产生式系统”(production)是根据if-then规则促发的认知行为,一组规则指定了某种条件下(“if”)对应该执行的动作(“then”)。特定的条件涉及当前的目标及记忆中知识,对应的动作能够修改目标和知识的内部状态26。
强化学习模型(Reinforcement learning models)捕获agent如何通过与环境互动来学习最大化累积奖励,选择某种行动,观察环境的结果状态,在这个过程中获得奖励进而学习如何提高该行为的发生率,该agent可能学习了每种状态与其期待的累积奖励相关联的“价值函数”27。强化学习理论根源于心理学和神经科学,目前已经是机器学习和人工智能的重要理论,包括动态规划(DP),蒙特卡罗学习(Monte-Carlo learning)和穷举搜索(Exhaustive Search)等算法 28。
贝叶斯模型(Bayesian models),指的是根据概率规则将当前数据与先前经验相结合的推理模型,它有助于我们理解基本的感知觉和运动加工过程29–31,也提供了对判断和决策等更高的认知过程的见解,将经典认知偏差解释为先前假设的产物32,从贝叶斯认知的视角来看,人类思维从婴儿时期开始构建关于世界的心智模型33。这些模型不仅可以是概率意义上的生成模型,而且可能是有因果性和组合性的,能够通过重新组合元素来将这种模拟推广到新的假设的场景33–35,这种建模方法已经应用于我们对物理34,36,37乃至社会世界38的推理。
展望未来
Marr提出理解复杂生物系统需要经过三层分析:计算水平;表征和算法水平;神经生物学水平。认知科学开始于计算水平,将认知功能分解各个成分,进而从自上而下的角度发展算法和表征。计算神经科学从自下而上的角度出发,将神经元构建块组合成表征和算法。人工智能通过建立表征和算法来将简单的成分组合成复杂的智能。这三个学科汇聚在大脑和认知的算法和表征上,进而产生了互补约束。
在20瓦的电力预算下,大脑的算法将统计和计算效率结合起来,其方式超出了当前的人工智能,无论是贝叶斯算法还是神经网络算法。不过最近在人工智能和机器学习领域已经开始探索贝叶斯推理和神经网络模型之间的交叉路口,将前者的统计优势(不确定性表征、概率推理、统计效率)与后者的计算优势(表征学习、万能近似定理、计算效率)相结合39–41。
对心智和大脑的研究正进入一个特别令人兴奋的阶段,如果认知科学、计算神经科学和人工智能能够结合起来,我们或许能够用神经生物学上可信的计算模型来解释人类的认知,这不仅有助于我们更深刻的理解人脑信息加工的具体过程,也能在一定程度上为人工智能算法的发展提供有益启示。
Nikolaus Kriegeskorte & Pamela K. Douglas. Cognitive computational neuroscience.Nature Neuroscience volume 21, pages1148–1160 (2018)
1. Biswal B, Zerrin Yetkin F, Haughton VM, Hyde JS. Functional connectivity in the motor cortex of resting human brain using echo‐planar MRI. Magn Reson Med. 1995;34(4):537-541.
2. Friston K. Dynamic causal modeling and Granger causality Comments on: The identification of interacting networks in the brain using fMRI: Model selection, causality and deconvolution. Neuroimage. 2011;58(2-2):303.
3. Dayan P, Abbott LF, Abbott L. Theoretical neuroscience: computational and mathematical modeling of neural systems. 2001.
4. Jin X, Costa RM. Shaping action sequences in basal ganglia circuits. Curr Opin Neurobiol. 2015;33:188-196.
5. Norman KA, Polyn SM, Detre GJ, Haxby J V. Beyond mind-reading: multi-voxel pattern analysis of fMRI data. Trends Cogn Sci. 2006;10(9):424-430.
6. Tong F, Pratte MS. Decoding patterns of human brain activity. Annu Rev Psychol. 2012;63:483-509.
7. Haxby J V, Connolly AC, Guntupalli JS. Decoding neural representational spaces using multivariate pattern analysis. Annu Rev Neurosci. 2014;37:435-456.
8. Haynes J-D. A primer on pattern-based approaches to fMRI: principles, pitfalls, and perspectives. Neuron. 2015;87(2):257-270.
9. Naselaris T, Kay KN. Resolving ambiguities of MVPA using explicit models of representation. Trends Cogn Sci. 2015;19(10):551-554.
10. Diedrichsen J, Kriegeskorte N. Representational models: A common framework for understanding encoding, pattern-component, and representational-similarity analysis. PLoS Comput Biol. 2017;13(4):e1005508.
11. Dumoulin SO, Wandell BA. Population receptive field estimates in human visual cortex. Neuroimage. 2008;39(2):647-660.
12. Kay KN, Naselaris T, Prenger RJ, Gallant JL. Identifying natural images from human brain activity. Nature. 2008;452(7185):352.
13. Mitchell TM, Shinkareva S V, Carlson A, et al. Predicting human brain activity associated with the meanings of nouns. Science (80- ). 2008;320(5880):1191-1195.
14. Diedrichsen J, Ridgway GR, Friston KJ, Wiestler T. Comparing the similarity and spatial structure of neural representations: a pattern-component model. Neuroimage. 2011;55(4):1665-1678.
15. Nili H, Wingfield C, Walther A, Su L, Marslen-Wilson W, Kriegeskorte N. A toolbox for representational similarity analysis. PLoS Comput Biol. 2014;10(4):e1003553.
16. Kriegeskorte N, Mur M, Bandettini PA. Representational similarity analysis-connecting the branches of systems neuroscience. Front Syst Neurosci. 2008;2:4.
17. Kriegeskorte N, Kievit RA. Representational geometry: integrating cognition, computation, and the brain. Trends Cogn Sci. 2013;17(8):401-412.
18. Eliasmith C, Trujillo O. The use and abuse of large-scale brain models. Curr Opin Neurobiol. 2014;25:1-6.
19. Markram H. The blue brain project. Nat Rev Neurosci. 2006;7(2):153.
20. Kriegeskorte N. Deep neural networks: a new framework for modeling biological vision and brain information processing. Annu Rev Vis Sci. 2015;1:417-446.
21. Goodfellow I, Bengio Y, Courville A. Deep Learning. MIT press; 2016.
22. Yamins DLK, DiCarlo JJ. Using goal-driven deep learning models to understand sensory cortex. Nat Neurosci. 2016;19(3):356.
23. Cadieu CF, Hong H, Yamins DLK, et al. Deep neural networks rival the representation of primate IT cortex for core visual object recognition. PLoS Comput Biol. 2014;10(12):e1003963.
24. Khaligh-Razavi S-M, Kriegeskorte N. Deep supervised, but not unsupervised, models may explain IT cortical representation. PLoS Comput Biol. 2014;10(11):e1003915.
25. Yamins DLK, Hong H, Cadieu CF, Solomon EA, Seibert D, DiCarlo JJ. Performance-optimized hierarchical models predict neural responses in higher visual cortex. Proc Natl Acad Sci. 2014;111(23):8619-8624.
26. Moore C, Mertens S. The Nature of Computation. OUP Oxford; 2011.
27. Sutton RS, Barto AG. Reinforcement Learning: An Introduction. MIT press; 2018.
28. O’Doherty JP, Cockburn J, Pauli WM. Learning, Reward, and Decision Making. Annu Rev Psychol. 2017;68:73-100. doi:10.1146/annurev-psych-010416-044216
29. Ernst MO, Banks MS. Humans integrate visual and haptic information in a statistically optimal fashion. Nature. 2002;415(6870):429.
30. Weiss Y, Simoncelli EP, Adelson EH. Motion illusions as optimal percepts. Nat Neurosci. 2002;5(6):598.
31. Körding KP, Wolpert DM. Bayesian integration in sensorimotor learning. Nature. 2004;427(6971):244.
32. Tversky A, Kahneman D. Judgment under uncertainty: Heuristics and biases. Science (80- ). 1974;185(4157):1124-1131.
33. Lake BM, Ullman TD, Tenenbaum JB, Gershman SJ. Building machines that learn and think like people. Behav Brain Sci. 2017;40.
34. Ullman TD, Spelke E, Battaglia P, Tenenbaum JB. Mind games: Game engines as an architecture for intuitive physics. Trends Cogn Sci. 2017;21(9):649-665.
35. Tenenbaum JB, Kemp C, Griffiths TL, Goodman ND. How to grow a mind: Statistics, structure, and abstraction. Science (80- ). 2011;331(6022):1279-1285.
36. Battaglia PW, Hamrick JB, Tenenbaum JB. Simulation as an engine of physical scene understanding. Proc Natl Acad Sci. 2013;110(45):18327-18332.
37. Kubricht JR, Holyoak KJ, Lu H. Intuitive physics: Current research and controversies. Trends Cogn Sci. 2017;21(10):749-759.
38. Pantelis PC, Baker CL, Cholewiak SA, et al. Inferring the intentional states of autonomous virtual agents. Cognition. 2014;130(3):360-379.
39. Gal Y, Ghahramani Z. Dropout as a bayesian approximation: Representing model uncertainty in deep learning. In: International Conference on Machine Learning. ; 2016:1050-1059.
40. Rezende DJ, Mohamed S, Danihelka I, Gregor K, Wierstra D. One-shot generalization in deep generative models. arXiv Prepr arXiv160305106. 2016.
41. Kingma DP, Welling M. Auto-encoding variational bayes. arXiv Prepr arXiv13126114. 2013.
作者信息
编译作者:汤晴(brainnews创作团队)
校对:Simon(brainnews编辑部)
题图:timeshighereducation.com
前 文 阅 读
1,厉害了:脑科学领域获批国自然2个千万级项目,23个300万的重点项目!