[完整版]AI和生物意识之间有联系吗?
The following article is from Life博士 Author Lucy Chen
自20世纪50年代以来,人工智能就已经存在,是现代社会所有技术的基础。从监控亚马逊(Amazon)交易到自动驾驶汽车,如今使用的几乎所有产品都在智能机器上运行。
人工智能中最知名的系统之一是人工神经网络(ANN),它大体上模仿了动物的新皮质(一种负责决策、情景记忆和意识等高级过程的结构)[1]。新皮质是大脑的最外层,厚度约为2.5mm(见图1)。由于其高度折叠的几何形状,新皮层的表面积能够最大化,它占人类大脑总重量的80%[2]。
图 1:新皮层和其他与记忆和感知相关的结构的解剖表示[3]。
最外层进一步可分为六个水平子层,编号为 I 至 XI。这些子层的特点是神经元形态(主要是金字塔形、梭形和颗粒状)和神经元连接;例如,V 层和 VI 层投射到丘脑、脑干和脊髓,而 IV 层接收来自丘脑的大部分突触连接,并将短程轴突投射到其他皮质层(图2)。因此,第 V 层和第 VI 层可被视为负责处理输出,而第 IV 层接收输入[4,5]。大脑区域之间的新皮层结构大体一致,但与从这些区域接收到的输入信息量相关的例外情况除外[4]。因此,新皮层的结构反映了其识别和分配传入感官信息的能力,并随后调节对高度敏感性的反应。
图2:皮质下层的图形表示,包括输入和输出
值得注意的是,具有如此复杂神经功能的结构在其基本组织中保持了一致性;它被排列在直径大约为 0.5 mm的垂直柱中,跨越所有六个子层。
1957 年,约翰·霍普金斯大学的神经心理学家 Vernon Mountcastle 首次观察到这一点,他假设新皮层由一个基本的重复单元组成,通过共同的功能原理运作[6]。这一点一直备受争议,在解剖学和功能上缺乏共识[7]。然而,为了讨论生物新皮质和计算神经网络之间的联系,有必要使用皮质柱理论来可视化它们之间的相似性。Mountcastle后来详细阐述了这一观点,提出了列中存在子列的观点,最初由于缺乏可视分区作为证据而受到强烈反对,但后来被证明是正确的[8]。
因此,新皮质包含重复的列,这些列进一步由另一个较小的基本单元组成。这个想法后来成为未来学家雷·库兹韦尔(Ray Kurzweil) 将大脑视为计算机的假设的中心焦点。库兹韦尔认为,这些子列是模式识别器,为语言和记忆奠定了基础,作为形成特定层次结构的模式序列,将用于执行基本过程,例如日常工作或写信。这就是著名的“心理模式识别理论”[8]。
什么是模式识别,
它是如何在新皮质中执行的?
“模式识别”一词最常与统计处理和机器学习联系在一起,机器学习是人工智能的一个子集,它基于训练数据建立数学模型,以便对测试数据进行预测,而无需专门为预测编写程序[8]。模式识别是利用计算机算法自动识别数据中的共性;然后使用这些共同特征对数据进行分类并确定输出。这主要是通过定位数据中“最有可能”的匹配项或不精确的相似性来实现的,同时也考虑了统计差异。
但是这个概念和人类大脑有什么关系呢?在他2012年的非小说类著作《How to Create a Mind》中,Kurzweil通过将构成新皮层子列的数百个神经元建模为输入、权重和输出的单一模块,讨论了这种联系[8]。为了说明模式识别器在新皮质中的工作原理,这里将用一个例子来说明大脑如何在一系列不同的单词中识别字母“A”。
每个模式都由三个部分组成。第一个是输入,在输入中,主模式被划分为一组较低级别的模式。这些由来自树突的信号表示;从图 3 中可以看出,发送到模块中的信号表明已确认存在低级模式,而通过树突从模块中发出的信号表明预期存在低级模式。
第二部分是模式的“名称”;大脑作出结论的能力;“我刚刚看到字母A。”从生物学角度讲,这个名字是由识别模块中出现的轴突的放电决定的。由于动作电位是以恒定幅度且高于特定阈值发生的全有或全无过程,因此,将轴突的放电比作一个开关或一个值为“真”或“假”的布尔变量是合理的。
图3:模式识别模块的表示,包含在皮层列内的新皮层子列。
模式的最后一部分是它可以输入的一组更高级别的模式。例如,字母“A”的一组高级模式由至少一次包含字母“A”的所有单词组成。这可以更进一步;所有单词本身都是模式,然后可以输入更高层次的句子、段落等模式。这些级别的模式通过树突连接。构成每个模块的神经元的组织可以被认为与具有多对一映射的函数相当——一个神经元接收许多树突,但仅通过一个轴突输出,然后可以传输到多个树突到更高的层次,如图所示在图 4 中。
这种层次结构不是通过将神经元物理堆叠在彼此之上而建立的;相反,上一段中定义的概念在生物学上由模块之间的连接来表示——树突和轴突之间的突触相互作用。这些模块有几个不同的特性,它们会影响它们之间的信息处理方式。它们是冗余的,这就确保了有不止一个模式识别器可用来处理字母“A”,而且这些多个模块中的任何一个都可以从它们的轴突向更高层次发出相同的输出信号。
该系统不仅适用于语言处理,也适用于图像和声音处理。模式识别器的区别在于它们所识别的模式类型,以及它们在大脑视觉和听觉皮层的位置。因此,大脑可以利用这种冗余,通过增加正确识别的可能性,并能够识别其变体;阅读字母“A”,大声地说出它,或者听别人说出它,都构成了这个字母的信息的一部分,并且都被一系列不同的模式编码[8]。
图 4:字母“A”的三个冗余模式示例。第一层矩形中的符号代表组合形成字母的较低级别的模式。第二层矩形是包含字母“A”(单词)的更高级别的模式。
一旦接收到较低级别的模式输入,模块如何识别它们?例如,字母“R”和“P”共享一些较低级别的模式(图 5)。大脑是如何区分它们的?
这是通过对每个单独的输入加权来实现的;权重越高,该模式对整体模式的识别越重要。如前所述,输出轴突有一个触发阈值,所有输入的权重都对这个阈值有贡献。即使缺少其中一个输入,模块仍可能最终触发——例如,如果只看到半个字母,则可能缺少某些相应的模式,但仍可能正确识别整个字母;一个称为自动关联的过程[7]。但是,如果丢失的输入具有更高的权重,则轴突不太可能触发。
图 5:用字母“R”(左侧)和“P”(右侧)描述较低级别的模式,每个较低级别的模式都以红色突出显示。这些模式只是示例。
此外,每个输入的大小也很重要。一个很好的例子是大声说话时辅音之间的差异;“meet”中的“e”音比“met”中的长,它们的元音是由于不同的共振频率而产生的。因此,虽然字母“e”仍然相同,但通过“e”音的持续时间来识别这两个词;它在" met "里比在" meet "里短。这被定义为输入的大小,尽管大小参数的性质取决于识别的模式类型。例如,对于声音,有一个时间维度,但是对于阅读印刷的字母,有一个空间维度。因此,每个输入都对模式及其观察到的大小进行编码,然后将其与模块中的大小参数进行比较。
因此,模式识别模块的功能是根据不同加权的输入模式和由之前经验确定的大小参数来计算总模式存在的概率。这种生物过程可以建模为隐马尔可夫模型 (HMM),其中模式以分层方式识别。HMM 现在应用于各个领域,例如强化学习和生物信息学,并且是 Siri 语音识别软件的一部分[8]。
单层感知器和模拟新皮层
1958 年,弗兰克·罗森布拉特 (Frank Rosenblatt) 创建了 Mark 1 感知器——一种以神经元的电子特性为模型的机器,也是今天广泛使用的人工神经网络的第一个主要前身。
与模式识别模块模型中描述的类似,输入是二维值。例如,对于图像,输入将是由一组坐标定义的每个像素。然后这些输入将进入第一层,称为输入层,它由一系列节点组成(在图 6 中用彩色圆圈表示),其中每个节点代表一个神经元。节点通过图 6 中箭头表示的加权连接接收所有输入。为了计算节点的输出,计算所有输入的加权和,并添加进一步的偏置项来考虑可能的均值偏移。该节点封装了一个激活函数,它是将加权和转换为输出所必需的。
图 6:以不同颜色显示的单层感知器层。橙色箭头代表通过前馈网络的一种可能途径。
然后将输入层每个节点的输出传递到下一层,在那里它们充当下一组节点的输入,由传播函数计算,该函数本质上计算另一个加权和。在Mark 1感知器(Mark 1 Perceptron)中,只有一个隐藏层;该系统的进一步改进增加了隐藏层的数量,以更好地表示输入数据的变化,从而产生更好的预测[10]。
最后一层是输出层。这种整体架构被称为前馈网络,因为节点和连接形成一个有向非循环图。可以看出,神经元和神经网络之间有很多相似之处。
进一步发展:计算机可以模拟大脑吗?
数学家约翰·冯·诺伊曼(Johnvon Neumann)将大脑描述为执行低精度的模拟机制,可以通过数字计算来模拟。大脑也有可塑性,细胞和皮质水平的变化与特定的经验相对应,比如学习。通过重新编程软件,这种可塑性在计算机中更为明显。因此,从理论上讲,计算机可能能够成功地模拟新皮层功能的某些方面[7]。
脑机接口和医疗保健领域的新工程创新进一步强调了对大脑和编程软件的理解之间的密切联系。科学家们现在能够将信号从中枢神经系统传输到假肢,埃隆马斯克的 NeuraLink 正在开发一种芯片,该芯片将通过从头骨到特定大脑区域的电极线帮助治疗脑损伤和抑郁症,以及允许患者直接下载音乐到大脑[11,12]。
意识是什么?
机器可以有意识吗?在过去的几十年里,许多科学家试图更好地理解人类意识的生物学基础。然而,虽然它是一个概念,几个世纪以来一直是哲学讨论的焦点,并且由于话题的内在主观性而没有得到严格的定义。如何将大脑的科学表征应用于难以捉摸的自我内部体验?
一个值得注意的例子是 MaxTegmark 的理论,该理论认为意识是由一个存储和检索信息的系统产生的,并涉及到潜在的量子力学。Tegmark假设意识可以被定义为一种独立于固体、液体或气体的物质状态;一种被他称为“知觉”的状态,一种不可分割的连续物质,用他的话说,感觉是“主观的自我意识”[13]。
然而,Tegmark 未能定义什么可能导致意识。一个普遍但不太令人满意的答案可能是来自大脑不同区域的输出被整合到一个单一的体验中。乔治华盛顿大学的研究人员进行的一项研究发现,新皮层下方的一种薄层结构可能是原因之一。用电极刺激这个区域后,意识就消失了;患者停止了他们正在做的任何事情,茫然地盯着太空,这个过程仍然完全清醒。当刺激结束时,患者恢复活动,但无法回忆在刺激下花费的时间[14]。然而,这项研究存在一些局限性。样本量仅限于一名患有癫痫病的患者,因此无法代表健康的大脑功能。
然而,当讨论人工智能获得意识的含义时,考虑到决策的生物和数字计算的相似性,围绕意识的参数变得更加模糊。众所周知,人工意识很难定义,一些科学家将其与自我意识联系起来,另一些科学家则假设它是系统级适应的功能[15, 16]。
科学家们提出了不同的标准来定义智能,其中最著名的是数学家艾伦·图灵在1950年提出的图灵测试。这项测试的目的是看看所展示的机器的假想智能是否能与人类的智能区分开来。在测试里,一个人通过文本与一台机器进行对话,这台机器被设计成以类似于人的方式进行响应。该对话由人工评估员监控,他看到输入的对话,但不知道哪个是机器,哪个是人。如果评估者无法分辨出差异,则机器通过测试,表明它具有人类水平的智能[7]。
随后,美国哲学家约翰·塞尔开始了关于意识的讨论,他在图灵测试原理的基础上发展了一个思想实验,称为“中国房间”(图7)。
图7:“中国房间”思维实验的视觉表现[20]
假设一个人坐在一个房间里。他被问到中文问题,并使用规则手册来回答。有人可能会说,此人对语言没有真正的理解,因为他没有真正理解问题或答案,因为他被动地遵循规则手册的指导原则,即使他能够正确地回答这些问题。
再想象一次,但是用计算机:如果机器回答的问题足够准确,能够通过一个说中文的人的图灵测试,那么它真的能听懂中文吗,还是只是在模拟听懂中文的能力?满足第一个标准的机器称为“强AI”,第二个称为“弱AI” [17]。因此,即使图灵测试是机器智能的基准,也不能证明这样的机器有意识。
那么,意识的哪个定义最适用于假设的人工意识呢?哲学家和认知科学家NedBlock区分了现象性意识和通达性意识,其中现象性意识与处于有意识精神状态的体验有关,而通达意识是指有机体可以使用一种精神状态来执行任务涉及推理[18]。因此,通达意识似乎是人工意识的最佳概念代表。
目前的技术还不够先进,无法构建 Searle 提出的强大的人工智能。然而,正如生物学在过去告诉 AI 的那样,对人类意识的更好的神经学理解可能为创建超越大脑生物学限制的智能系统铺平道路。Ray Kurzweil 说得最好:“我们的技术,我们的机器,是我们人性的一部分。我们创造它们是为了扩展我们自己,这就是人类的独特之处。”[19]
作者:Lucy Chen
翻译:Tina;审校:Gmamp;排版:Tina
原文:https://ysjournal.com/ai-and-biological-consciousness-is-there-a-connection/
参考文献
[1] Strange, B. A., Menno P. Witter, Edward S. Lien, and Edvard I. Moser. “Functional organisation of the hippocampal longitudinal axis.” Nature Reviews Neuroscience 15 (2014): 655-669. doi:10.1038/nrn3785
[2] Mack, S. Eric R. Kandel, Thomas M. Jessell. Principles of Neural Science. 5. New York: McGraw-Hill Professional, 2013. Isbn:9780071390118
[3] Efe, L. “Where are memories stored in the brain?” Accessed July 20, 2020. https://qbi.uq.edu.au/brain-basics/memory/where-are-memories-stored
[4] Noback, C. R., David A. Ruggiero, Robert J. Demarest. The Human Nervous System: Structure and Function. 6. New Jersey: Humana Press, 2007. Isbn:1592597300
[5] Moerel, M., Federico De Martino, Elia Formisano. “An anatomical and functional topography of human auditory cortical areas.” Frontiers in Neuroscience 8, 225. (2014) doi:10.3389/fnins.2014.00225
[6] Mountcastle, V. B. “Modality and topographic properties of single neurons of cat’s somatic sensory cortex.” Journal of Neurophysiology 20, 4. (1956): 408-434. doi:10.1152/jn.1957.20.4.408
[7] Horton, J. C. and Daniel L. Adams. “The cortical column: a structure without a function.” Philosophical Transactions of the Royal Society B: Biological Sciences 360, 1456. (2005): 837-862. doi:10.1098/rstb.2005.1623
[8] Kurzweil, R. How to Create a Mind: The Secret of Human Thought Revealed. New York: Viking Penguin. Isbn:978-0670025299
[9] Koza, J. R., Forrest H. Bennett III, David Andre, Martin A. Keane. Automated Design of both the Topology and Sizing of Analog Electrical Circuits using Genetic Programming. Berlin: Springer. https://link.springer.com/chapter/10.1007%2F978-94-009-0279-4_9
[10] Schmidhuber, J. “Deep learning in neural networks: an overview.” Neural Networks 61. (2015): 85-117. doi: 10.1016/j.neunet.2014.09.003
[11] Ramirez, V. B. “What would it mean for AI to become conscious?” March 26, 2019. https://singularityhub.com/2019/03/26/what-would-it-mean-for-ai-to-become-conscious/
[12] Eadicicco, L. “Elon Musk says there’s a chance his AI-brain-chip company will be putting implants in humans within a year.” May 7, 2020. https://www.businessinsider.com/elon-musk-neuralink-brain-chip-put-in-human-within-year-2020-5?r=US&IR=T
[13] Tegmark, M. “Consciousness as a state of matter.” Chaos, Solitons & Fractals 76. (2015): 238-270. doi:10.1016/j.chaos.2015.03.014
[14] Koubeissi, M. Z., Fabrice Bartolomei, Abdelrahman Beltagy, Fabienne Picard. “Electrical stimulation of a small brain area reversibly disrupts consciousness.” Epilepsy & Behaviour 37. (2014): 32-35. doi:10.1016/j.yebeh.2014.05.027
[15] Chatila, R., Erwan Renaudo, Mihai Andries, Ricardo-Omar Chavez-Garcia, Pierre Luce-Vayrac, Raphael Gottstein, Rachid Alami, Aurelie Clodic, Sandra Devin, Benoit Girard, Mehdi Khamassi. “Toward Self-Aware Robots.” Frontiers in Robotics and AI 1. (2018). doi:10.3389/frobt.2018.00088
[16] Kinouchi, Y. and Kenneth James Mackin. “A Basic Architecture of an Autonomous Adaptive System with Conscious-Like Function for a Humanoid Robot.” Frontiers in Robotics and AI 1. (2018). doi:10.3389/frobt.2018.00030
[17] Hildt, E. “Artificial Intelligence: Does Consciousness Matter?” Frontiers in Psychology 1. (2019). doi:0.3389/fpsyg.2019.01535
[18] Block, N. “On a confusion about a function of consciousness.” Behavioural and Brain Sciences 18, 2. (1995): 227-247. doi:10.1017/S0140525X00038188
[19] Sahota, N. “Human 2.0 is coming faster than you think. Will you evolve with the times?” October 1,2018.
https://www.forbes.com/sites/cognitiveworld/2018/10/01/human-2-0-is-coming-faster-than-you-think-will-you-evolve-with-the-times/#5cadb27a4284
[20] Novella, S. “AI and the Chinese Room Argument.” October 23, 2015.
https://theness.com/neurologicablog/index.php/ai-and-the-chinese-room-argument/
本文来自公众号“Life博士”,仅用于学术交流,不用于商业行为,若有侵权及疑问,请后台留言,管理员即时删侵!本文谢绝转载到其他平台,如需转载,请后台留言“转载”,查看转载规范。
更多阅读
中科院DeepMind联手,用深度学习揭示大脑如何识别人脸|Nature子刊
Nature子刊:利用GAN来“深度伪造大脑数据”可以改善残疾人的脑机接口
人的情绪岂止6种?Google发布大规模数据集GoEmotions