查看原文
其他

清华大学薛澜第九作者发表Science文章AI的极端风险管理纯属瞎担心

阳民 良知天下
2024-08-24

清华大学薛澜第九作者发表Science文章AI的极端风险管理纯属瞎担心

清华大学薛澜教授以第九作者身份于2024年5月20日发表于美国《科学》杂志的论文“Managing extreme AI risks amid rapid progress”(《人工智能飞速进步背景下的极端风险管理》) 引发了圈内热议,阳民认为纯属瞎担心,阳民认为,面对强大的发展越来越快的AI,人类只有两步:第一步,真正把权力关进制度的笼子里;第二步,把AI关进笼子里的“权力”里。如果AI掌握在暴君手里肯定是灾难,但如果AI掌握在良知人手里肯定是福报!要识别暴君还是良知人,“权力在不在笼子里”是唯一判断依据。不过,目前来说,ChatGPT在中国、俄罗斯、伊朗、委内瑞拉、叙利亚、古巴和白俄罗斯这七个国家是被严格禁用的,不信各位可以试试看看能否打得开?!呵呵,薛澜教授完全是瞎担心,中国领导人目前的认知水平跟俄罗斯、伊朗、委内瑞拉、叙利亚、古巴和白俄罗斯这六个国家的认知水平是完全一致的,而中国本土的AI也完全讲党性,不信各位可以用用国内的AI如文心大模型等等试试看看中国的AI能否给出真正科学的完全公正独立客观的答卷!呵呵。所以,薛澜完全是瞎担心!。

具体来说,主要有三点:

第一,随着AI技术的迅猛发展,我们必须认真思考如何确保AI技术的健康、安全和可控发展。我们必须考虑如何将AI置于适当的监管之下,以确保其符合人类的价值观和利益,而,而谁来监管却是天大的问题,如果无法无天的权力来监管AI,AI发展必然违背人类利益,所以,这必然要求我们必须将权力置于制度的制约之下,确保AI技术不会滥用或被恶意利用。

第二,AI的掌握者可以简单地划分为“暴君”或“良知人”,显然,如果AI掌握在良知人手里是福报,但掌握在暴君手里则会变成危害人类的工具,因此,AI的掌握者的意图和动机确实将对AI的使用产生深远影响。因此,我们需要确保AI的掌握者具备高度的责任感和道德意识,以确保AI技术的合理使用,这就回到第一条,高度责任感和道德意识不是嘴上说的,而必须以制度框架进行限制。如果掌握AI的人凌驾于制度之上,AI一定会祸害人类的罪魁祸首。

第三,我们天天高喊以开放、包容、理性的态度面对AI技术的发展和应用,天天高喊我们建立了法治国家,但是却昨天禁用GOOGLE,今天禁用ChatGPT,明天禁用世界一切文明成果,这是不是本身就有违最基本的良知和道德?!


个人观点,仅供参考
继续滑动看下一个
良知天下
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存