查看原文
其他

曾毅入选《时代周刊(TIME)》人工智能领域最具影响力100人(TIME100/AI)

点击“蓝字”关注我们

转载自公众号:“智能的本质与未来”

《时代周刊(TIME)》在有关这份百人名单的说明中说到:“这100人在许多方面形成了一张代表推进人工智能发展的关系和力量中心的地图。他们是竞争对手和监管者、科学家和艺术家、倡导者和高管——这些竞争和合作的人类的见解、愿望和缺点将塑造这一日益具有影响力的技术的发展方向”。


2023年9月7日,创刊百年的《时代周刊(TIME)》发布人工智能领域最具影响力100人(TIME100/AI)。这份榜单包括“领导者(Leaders)”、“创新者(Innovators)”、“塑造者(Shapers)”、“思想者(Thinkers)”。中国科学院自动化研究所研究员、中国科学院哲学研究所博士生导师曾毅入选其中全球25位“思想者(Thinker)”,创新工场董事长兼CEO李开复博士、百度董事长兼CEO李彦宏入选其中全球25位“领袖(Leader)”。


在这份榜单的“思想者(Thinkers)”列表中,还包括多伦多大学Geoffrey Hinton教授、麻省理工大学Max Tegmark教授、Meta首席人工智能科学家Yann LeCun、蒙特利尔大学Yoshua Bengio教授、加州伯克利大学Stuart Russell教授、斯坦福大学Fei-Fei Li教授等。


在这份榜单的“领导者(Leaders)” 列表中,还包括Sam Altman(OpenAI CEO)、Demis Hassabis(Google DeepMind CEO) 、Elon Musk(特斯拉及xAI CEO) 、黄仁勋(Jensen Huang,Nvidia创始人兼CEO) 、吴恩达( Andrew Ng, DeepLearning.AI创始人)。


《时代周刊(TIME)》人工智能领域最具影响力100人(TIME100/AI)完整列表

https://time.com/collection/time100-ai/

《时代周刊(TIME)》人工智能领域最具影响力100人(TIME100/AI)完整列表:

https://time.com/collection/time100-ai/


下附《时代周刊(TIME)》TIME100/AI对曾毅研究员专访主要内容翻译:
作者:Will Henshall (《时代周刊(TIME)》Aditorial Fellow)

史蒂文·斯皮尔伯格(Steven Spielberg)2001年的电影《人工智能(Artificial Intelligence)》中,两名研究人员正在讨论模拟人脑以构建具有爱的机器人。这一场景激发了当时正在北京读大学的曾毅的灵感。“这就是我想要[用我的]一生去做的事情。也就是说,构建能够爱人类的机器人”他告诉《时代周刊(TIME)》,此时他正在中国首都北京与我对谈。曾毅,41岁,一直在中国科学院自动化所担任研究员,致力于构建“类脑人工智能”——尽可能与人脑相似的人工智能系统,希望它们拥有道德。


大约在2016年,曾毅对人工智能系统带来的风险更加担忧,他开始花更多时间与政策制定者合作,以发展有益的人工智能(Beneficial AI)。三年后,曾毅领导的团队撰写了《人工智能北京共识(Beijing AI Principles)》。他告诉《时代周刊(TIME)》,他“通过国家新一代人工智能治理专委会深度参与政策制定”。


曾毅还推动了诸多国际合作。“我觉得我有责任让世界知道,来自中国的科学家和政策制定者真的有着类似的想法”他说。他参与制定了《联合国教科文组织人工智能伦理建议书》,并参与了许多非正式的国际科技外交倡议,如跨文化人工智能伦理与治理国际研讨会,并最近在联合国安全理事会(UN Security Council)的会议上发表讲话。


紧张的地缘政治局势限制了中国与美国之间的合作。但曾毅认为,就对人工智能风险的态度而言,这两个国家有很多共同之处。最近的一项民意调查发现,62%的美国选民担心人工智能,而只有21%对其感到兴奋。作为他在北京的远期人工智能中心(Center for Long-term AI)的部分工作,曾毅对中国公众进行了调查,发现91%的受访者支持对人工智能模型实施强制性的安全和伦理框架。他说:“我们没有选择,我们必须合作”。


文章内容相关链接:

类脑认知智能引擎“智脉(BrainCog)”

https://brain-cog.network/cn

人工智能北京共识(Beijing AI Principles)

https://ai-ethics-and-governance.institute/beijing-artificial-intelligence-principles/

曾毅在联合国安全理事会人工智能会议发言

https://press.un.org/en/2023/sc15359.doc.htm

https://www.globaltimes.cn/page/202307/1294665.shtml?id=11

跨文化人工智能伦理与治理系列国际研讨会

https://www.ai-for-sdgs.academy/cross-cultural-cooperation-of-ai

关于“暂停人工智能巨模型实验公开信”来自中国的声音

https://long-term-ai.center/research/f/voices-from-china-on-pause-giant-ai-experiments-an-open-letter



类脑认知智能实验室

类脑认知智能实验室(BrainCog Lab)隶属于中国科学院自动化研究所,实验室成立于2013年,是从事类脑人工智能前沿理论和脑与智能交叉创新的研究团队。由中国科学院自动化研究所脑图谱与类脑智能实验室副主任、中国科学院哲学研究所博士生导师曾毅担任团队负责人。

类脑认知智能实验室以构建面向通用人工智能的类脑认知智能模型与应用为主要研究内容,特别是在类脑脉冲神经网络学习、发育与演化机理、类脑可塑性理论体系、类脑知识表征与推理、类脑决策理论、意识计算模型、情感与伦理道德的类脑模型等方面开展研究。

实验室研制的类脑认知智能引擎“智脉(BrainCog)”致力于为新一代人工智能前沿探索打造基于脉冲神经网络的通用人工智能引擎,服务于人类与人工智能的和谐共生。

类脑认知智能实验室(BrainCog Lab)主页:http://www.braincog.ai

类脑认知智能引擎“智脉(BrainCog)”主页:http://www.brain-cog.netwo

远智观点(Views on Long-term AI)关注人工智能伦理与治理近期与长远发展的理论研究、观点分析与实践,旨在培育领域前瞻思想,促进国内、国际观点对话与交流,助力领域共识、规范与政策的形成。主要涉及近期与长远人工智能的风险与挑战、人工智能伦理与治理理论与实践、通用人工智能与超级智能的发展途经及其社会影响、国防人工智能与军控、人工智能促进世界和平、人工智能助力可持续发展。


更多信息请参考 https://long-term-ai.center/

研究中心

https://www.ai-ethics-and-governance.institute/




中国科学院自动化研究所人工智能伦理与治理研究中心是从事人工智能伦理与治理,符合伦理道德的人工智能模型与应用、人工智能可持续发展与治理研究的智库与科技创新深度融合的综合性研究中心。中心作为代表性机构参与国内外人工智能伦理与治理原则、规范的形成与实施;开展人工智能内生安全、符合伦理道德的人工智能模型与应用研究;对人工智能伦理、治理与可持续发展的近期与长远科学挑战开展前瞻研究。
中心长期参与国家有关部委、国际组织的人工智能伦理与治理相关研究工作,参与编写《国家新一代人工智能治理原则》、《国家新一代人工智能伦理规范》、《联合国教科文组织(UNESCO)人工智能伦理问题建议书》、《世界卫生组织(WHO)健康领域人工智能伦理指南》。研制并发布了“链接人工智能准则平台”、“人工智能治理公共服务平台”、“面向可持续发展的人工智能智库平台”等一系列人工智能可持续发展与伦理治理交叉研究与服务平台。
中心与国内外相关机构及各国学者、产业代表共同发起的面向可持续发展的人工智能协作网络(AI for SDGs Cooperation Network)是促进人工智能赋能实现可持续发展目标,以及人工智能的发展与治理深度融合创新的国际合作网络。
往期回顾:1. 第六届“科学与哲学青年学者工作坊”科学与哲学Science and Philosophy2. “科学与哲学”论坛 | 先有光,然后有苹果坠落3. 讲座回顾 | How to unify grounding and causation4. 讲座回顾|The Indispensability of Representation to Machine Learning


编辑 / 朱琳琳

审核 / 范   杰


继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存