查看原文
其他

朱巍:我们真的需要人工智能这个上帝吗?

2017-11-18 学术之路

 

  中国政法大学副教授朱巍


  人工智能在扮演上帝的角色。

  战争。拿无人机来说,新闻工作者用无人机来拍照,但是有人却用无人机来杀人。过去上过战场的人,几乎都有战场创伤症。人们把战争看作最大的惩罚,只有到了天理不容的时候才会有战争。但是在现代社会发生了变化,有了无人机之后,遥控无人机杀人,那种感觉可能类似玩网络游戏,看屏幕、摁按钮,完全没有杀人的负罪感。人工智能让战争的负罪感和成本急剧下降,在战争期间取人性命,杀人于无形。

  人不应该有这种权利。人有怜悯之心,恐惧之心,如果连生命尊严的最后界限都抹杀掉了,那么人就没有廉耻了,人变得无情了。这是人工智能带来的一个不好的地方。

  基因。我前一段时间看了几个法官写的一篇文章,核心观点是通过大数据和人工智能来预测一个人是否会犯罪,来判断一个人是不是应当缓刑、保释、假释。但是大数据是不应当用来做这种事情的。怎么可以做有罪推论呢?你怎么能在一个人没有犯罪之前预测到他要犯罪呢?我们为什么要在隐私权中把基因放到最需要保护的位置?就是因为基因可以决定一个人的性格和特征,比如是不是同性恋等,这些东西是上天注定的,一旦公开,被公开的人就很容易会被定性。比如基因中有暴力倾向,但可能他完全没有暴力的行为。技术是有界限的,有一些东西不能发展。

  生死。如果2045年人工智能超过人类,人的记忆可以储存,那么人可能从某种意义上说获得了永生,肉体没有了,精神还在,就像U盘一样。一个人临死亡前把他的U盘拷一下,拷到另外一个人的身上,他就是你的亲人吗?他就是你的孩子吗?他就是你的父母吗?人活在这个世界上,生命有限,是为了让你珍惜每一天,珍惜你身边的每一个人。如果没有时间和空间概念的话,我们又何必要这么争分夺秒的学习呢?我们的生活还会变成这样吗?不会的。就是因为生命的短暂,我们才会觉得生在其中,要快乐每一天,珍惜身边的人。如果生命真的无限,每个人的快乐不会增加。

  伦理。无人车现在很多地方开始上路了,它有一个特别大的伦理问题。无人车是机器,没有自己的判断能力,遇到紧急情况怎么办?在美国相关的法律政策中说的很清楚,伦理责任的事情交给政府来审核,并且征求政府的同意,也就是说需紧急情况下牺牲谁。可是人类的伦理都难以一致,服从你的伦理道德还是服从我的伦理道德?所以政府必须加强伦理责任的审核。

  我看电影《银翼杀手》的时候感慨颇深。比如机器人造出来之后没有名字,就叫一个序列号。为什么不给他名字?因为不能承认他是一个人。如果承认他是一个人,他各方面都比人类强,他如果没有自卑感的话,这个世界会很可怕。人会在不断学习的过程中不断强化自我意识,机器在学习过程中你怎么知道他学习不到这一点?一旦机器有了自我意识,他会有回避意识、自我保护意识,然后最高等级的会出现一种情感意识。

  我为什么觉得机器永远代替不了人呢?因为机器即便有情感意识的话,也不会有国家意识。国家意识就是一个人明知道需要牺牲,他依然会去牺牲。为什么?这是他的职责所在。他有更高的荣誉感。机器有荣誉感吗?没有。在人工智能这个未知的领域,有许多不可预测的事情,但是不管怎么样,我们应该有行动的禁区。

  人永远不可能变成上帝。当人想变成上帝的时候,就到了毁灭自己的时候。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存