查看原文
其他

Google DeepMind CEO:超人工智能来了的话 人类怎么办?

创新工场 2017-02-09

如今,人类开发的人工智能被分为弱、强、超三级。其中,超人工智能指的是“无论是科学创造力、一般智慧、还是关于社会技能的智力,都优于每个领域最顶尖人类的人工智能”,这也是最让一般公众担心可能威胁人类的人工智能类型。

虽然如今,我们离开发出超人工智能,在技术上还有很大差距,但Google DeepMind首席执行官杰米斯·哈萨比斯已经开始担心,人类能否控制住超人工智能这一庞然大物了。我们应该怎么办?

本文编译自 Business Insider
作者:Sam Shead

人工智能企业Google DeepMind首席执行官杰米斯·哈萨比斯,日前表达了他对技术型企业与个人无法协调超人工智能发展的担忧。

按照牛津大学哲学家尼克·博斯特罗姆的定义,超人工智能指的是“无论是科学创造力、一般智慧、还是关于社会技能的智力,都优于每个领域最顶尖人类的人工智能”。

作为全球最顶尖的人工智能研发企业之一的领导者,哈萨比斯在今年1月生命未来研究所(FLI)主办的“有益AI大会”上表示,他希望并期待着有朝一日人类能创造出超人工智能。但他同时表示,技术型企业与个人开展的人工智能研究能否公开透明,将会对超人工智能的发展产生重大影响。

身为剑桥大学毕业生和国际象棋大师,杰米斯·哈萨比斯指出,当超人工智能即将开发完成时,AI开发竞赛的几大领军派系之间可能会最终需要“最终减缓竞争速度”。这将为全社会提供一个逐渐适应超人工智能的机会,同时为科学家提供开展进一步研究的机会,这可以有效降低研究出有害AI的风险。

哈萨比斯在与另外8名AI领袖座谈时指出:“如何控制AI和其他很多问题,解决起来都非常困难,但我认为我们可以解决这些。麻烦之处就在于如何协调各方,确保我们有充足的时间缓慢刹车。”

在座谈中,哈萨比斯还设想了这样一种AI发展的图景:AI研发大战中的某一方决定降低研发速度、让专家持续思考约五年的当前状况;而另一方则不放慢研发速度。“就算你自己愿意停下来好好思考一下前景,其他人呢?其他所有的研究团队愿意一起停下来思考吗?所以这就是我最担心的问题,进行协调太困难了。”

在“有益AI大会”之外,哈萨比斯还与特斯拉、SpaceX和贝宝创始人埃隆·马斯克、以及宇宙学家斯蒂芬·霍金共同签署了一份《AI安全发展23条准则》。

去年9月,Facebook、微软、亚马逊和DeepMind等技术公司合作设立了人工智能联盟“Partnership on AI”,其主要目的就是确保超人工智能的开发不仅安全,而且合乎伦理道德。曾经对自己包括AI在内的各方面研究三缄其口的苹果,上个月也宣布加入了这一组织。

哈萨比斯建议“Partnership on AI”的参与各方协商制定一系列关于人工智能发展的议定书或路线图。但未来几年内,参与研究人工智能的机构和个人将不再限于当今的行业巨头们。

哈萨比斯警告说,如果硬件性能的发展按照当前速度持续下去,那么可能在某一时间点之后,人们在自家院子里都可能造出一个超人工智能。哈萨比斯认为,“大概50到100年后吧,一个小孩子在自家车库里,都可能搞出一个‘种子AI’来,这样的话协调的难度就会大得多。”

哈萨比斯没有给出具体的超人工智能开发时间表,但他认为,机器在未来几年内就将达到人类的智能水平。AI作家雷·库日韦尔则认为这将于2029年发生。结合这两个预测来看,超人工智能大约会在2040年之前出现。

埃隆·马斯克认为,机器一旦达到了单个人类的智力水平,那可能几天之后,这一机器的智慧就能超越全人类的智慧总和了。

机器超越人类智能并实现超人工智能的这个过渡时期这可能是人类历史上最重要、最令人揪心的一个节点。人类大脑神经元的传输带宽有限,但随着硬件的改善,机器可以继续变得越来越聪明。

扩展阅读

李开复与MIT实验室负责人焦点对谈:AI时代的变革比每一次工业革命都快
有了AI,人生还有意义吗?

创新工场重仓人工智能 李开复:“给我一打数学天才”
保住饭碗的机会在这里!

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存