查看原文
其他

芯片短缺?风险难控?听安全专家如何解读生成式AI | 专访方滨兴

凤凰卫视 2023-09-19


专访方滨兴中国工程院院士 网络空间安全专家

2023年5月18日,第七届世界智能大会在天津举办,千余位院士专家与企业家共聚。随着ChatGPT的出现,生成式人工智能进入大众视野,也成为本届大会与会嘉宾们探讨的焦点话题。


自然语言模型ChatGPT,掀起了生成式人工智能浪潮,有人称赞其诞生价值不亚于个人电脑与互联网;还有人将其等同于一场工业革命;当然也有人对其不屑一顾;更多的人则是担忧其所带来的风险与安全问题。


基辛格在他的新书《人工智能时代与人类未来》中预测,人工智能这项具有颠覆性潜力的技术,可能在五年之内成为影响全球安全的关键因素。

方滨兴:人工智能上世纪五十年代就有了,那个时候它叫自然语言理解,到了九十年代开始引入深度学习,这是一个比较重要的环节,没有深度学习,自然语言理解更多的还是从规则,那确实非常麻烦。

吴小莉:我当时印象很深的是人工智能打败了围棋高手。

方滨兴:对,就是因为它可以训练大量的数据。其实深度学习在我看来,不是一个知识体系,而是个数据体系,它利用的是大量的数据。比方说下棋,它见过有多少个人走了这一步。

吴小莉:成功率最高的。

方滨兴:对,它把这个规律找出来,然后就这么走。它不知道为什么,也不需要知道为什么,所以我们把这叫做概率。那么既然讨论概率,就是纯数据,所以研究人工智能的人,不认为这里是有知识的。

吴小莉:几年前我去浙江大学的人工智能研究所,他们给我看了AI作的曲,还有AI拉提琴,那时候AI已经开始识别一些图像了。为什么这次ChatGPT问世,会如此的火爆?

方滨兴:我们知道人工智能有三个核心,算法、算力和数据,现在就是算力的问题。你想要有大量的数据来做,要训练,那就得有足够大的算力。

中国发展人工智能 芯片短缺问题只是暂时 

人工智能技术持续突破,全球算力进入“军备竞赛”。有评论指出,要训练出GPT-3.5至少需要1万张A100的芯片集群,而目前中国内地可用作大模型训练的A100芯片总共只有4万张左右。


美国商务部从2022年10月出台高端GPU出口限令,中国只可以向英伟达购买与A100算力一致,但传输速率只有A100三分之二的特供版芯片A800,而且此后算力更强的GPU芯片都会被限制出口到中国。


近日,处于人工智能浪潮中心的半导体公司英伟达,其CEO黄仁勋在接受采访的时候表示,对华芯片战将会对美国科技造成“巨大损失”。

吴小莉:我们的芯片是不足的,这会不会影响我们未来发展这方面的事情?

方滨兴:客观上,算力是有问题,但情况没有那么悲观,当我们的需求很确切的时候,这种芯片就可以做了。比如说A100,它实际上是一种更通用的芯片,它不是为了模型生成生产的,它是为了图像处理,为了更多的事情生产的,那当我知道要为模型生成生产芯片,我就可以把很多不需要的部分去掉,我就可以做专门服务于模型生成的这种GPU,所以现在芯片问题不是说不能解决,而且现在社会上有很多边缘计算,各种云计算,我算法调整一下,不调用GPU我来做,也是可以的。我不知道您听说过“挖矿”没?“挖矿”搞个木马,谁一中毒了之后,它就到谁那占用点资源去“挖矿”,“挖矿”都能做,我为什么不能做?所以想做总是能做的。

现在最大的问题是什么呢?大家都在训练,浪费极大。其实我们国家,第一,人多,成本低;第二,我们的组织能力极强,其它国家不可能做到。如果我们有一个专门搞训练的部门,训练之后什么模型都可以共享,这才是正道。现在是你也组织训练,他也组织训练,成本越来越高。

吴小莉:中国内地一些类似ChatGPT的产品,您试用过吗?觉得怎么样?

方滨兴:我是百度文言一心的试用用户,我觉得它是可以用,我问它的问题,它的回答已经可以用了,答案我基本上都能接受。但是它有一点比ChatGPT弱一些。

吴小莉:弱在哪里?

方滨兴:有时候信息量可能差一点,训练的东西可能少一点。但我听说它也组织了几千人在做数据标注,这种产品好不好完全取决于事后的这种强化学习,你不做强化学习,每次都给一个莫名其妙的答案,又没人去管它,这肯定不行,所以它在这方面做得比较多。但因为它是在中国,它从中文的角度来说,已经是非常成功了,只是信息量欠缺一些。

人工智能快速发展 如何从技术层面防范风险  

人工智能的快速发展带来了各种突破原有道德和法治边界的风险。2023年4月30日,在日本召开的七国集团(G7)数字与技术部长会议上,日本、美国和欧洲国家的技术部长们共同声明,需要促进“负责任”地使用ChatGPT等人工智能工具。

吴小莉:GPT-4给大家带来了惊奇、惊喜,但也有人会觉得很惊恐,因为它学习的速度太快了。

方滨兴:它应该有一个边界,比方说我是研究安全的,我在写《人工智能安全》的时候,我就提出一个概念叫做行为体,行为体的特点就是有能量,能够去行动,去伤害人类,同时能够做规划,决定怎么伤害人类,有目的性。ChatGPT它是一个对话框,你骂它,它很生气但也没办法,它不能去控制人类,但如果ChatGPT是个机器人呢?你设想一下,这个机器人根据ChatGPT给它的指示,来决定动手的话,那才叫恐怖呢,一旦把这种东西和行为体结合起来,这个时候就要开始考虑风险了。
方滨兴:所以我当时提出了一个保险箍的概念,什么叫保险箍呢?就是像保险丝那样,电流大了就烧掉了,像紧箍咒那样,你孙悟空你太不服管教,我喊两嗓子就能把你给收拾了。

比如说我在ChatGPT里设置一个小的插件,没有这个插件,它动不了,这个插件是它的核心回路,插上插件你才能动。然后这个插件还能干什么呢?我远程遥控可以让它停止工作,比如说它在伤害人类的时候,我们每人都会一句咒语,说出来这句咒语,插件接受到咒语,它就停止工作,这个机器人的行为就会失去,就算它还能思想,但它已经不能行为了。

所以我想象将来真的有一天要把人工智能行为体和ChatGPT连接在一起,就需要制定一个标准,规定出厂的东西必须配备它,而且它必须能起到作用。这跟汽车有刹车一样,失控的时候,我有个遥控能够紧急给它刹住车。

提前制定规则 为人工智能发展划定边界

近日,欧盟立法者委员会举行对AI立法的关键投票,以绝大多数票数通过《人工智能法案》的谈判授权草案。


此次商定的草案文本是欧洲议会历史上讨论协商最多次的文本之一,修正案多达1000多项,其中包含了有关面部识别、生物识别监控和其他AI应用使用的新规则,并且提出了严格监管ChatGPT等AI工具的新思路。


2023年4月11日,中国网信办也已迅速行动,就《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见。

吴小莉:埃隆·马斯克此前联合了一些企业高管,以及相关科技专家们,联名说要暂停继续大模型训练,给半年的时间大家做一些规则和规范。

方滨兴:我觉得暂停不是特别现实的事,当然大家可以这么呼吁,可是想做大模型的人会听呼吁吗?不会听呼吁的。马斯克他自己不是也抢购了1万张A100芯片嘛,肯定也是为了做,所以说暂停意义不大,问题的关键在于发展下去怎么控制。

我们训练怕什么?我们可能怕三点,第一怕训练出一个失控的事情;第二就是通过这个训练出现了违反伦理的事情;第三就是可能违反法律,或者说形成有害的社会影响。这样的话还得靠后面的管理措施,你可以惩罚,比方说你要有这个问题,你这家企业关门吧,你要有这个问题,你研发的系统不能运行,所以事后控制是对的,也是可行的。还有一个关键就是要早点说什么是不行的,你早点告诉大家,大家可以去避免,别花那么大代价,最后才知道原来这个不行,那花那个代价干什么呢?所以早点告诉大家,也是一个非常重要的事情。

大搜索为生成式人工智能带来突破 也带来隐患

2023年2月,引入ChatGPT的新版必应搜索引擎(New Bing)问世,微软CEO纳德拉将这件事称作是他执掌微软9年来发生的最大事件,但有人却认为这像是打开了“潘多拉魔盒”。

吴小莉:ChatGPT一进入互联网的大搜索,会不会就没有边界了?

方滨兴:他搞预训练是相对安全的,因为他事先知道我训练的数据是什么,但是你再把搜索放进来,搜索的东西比较实时,量比较大,人已经不会站在旁边再去看了,人在旁边看,这个时间是没有的,所以这确实是存在这样的问题。

所以对我们来讲,解决这个问题的唯一方法就是,你要有一种判断一个生成结果是不是可被接受的一种能力。这种能力倒不是特别复杂,我们计算机自动判断一篇文章,它的立场、它的态度、它的世界观是否正确,都是有判断方法的,所以是要有这些。判断完了怎么办?你要有安全阀,生成的答案不合适,是不是会被安全阀按住,然后生成一个相对通用的答案,对吧?甚至不回答,对吧?但是所有的前提都是要有一个安全阀,所以搜索引擎带来的问题,导致安全的重要性就更为强大了,因为它是不可预控的。我们现在传统搜索引擎不会有这么高的风险,因为传统搜索引擎我们叫存在性搜索,网上有什么你拿走什么,哪怕是一个有害信息,它也是客观存在的,跟工具没有关系。但现在就不一样了,跟工具有关了。

吴小莉:它会自己生成。

方滨兴:所以它的责任一下就变得非常大了。

试图推进中国的大搜索项目 我们失去了十年吗 

2013年,方滨兴曾试图推进中国的大搜索项目研究,但因当时缺乏国家实验室的力量,以及强势企业的介入,项目最终因缺乏资金而停滞。

方滨兴:大概在2008年,那时一方面全国到处都在说物联网,另一方面物联网好像又没有那么火,为什么呢?后来我说,你们想想互联网是怎么火的,如果没有搜索引擎,互联网是火不了的,那么物联网为什么火不了,还是缺搜索引擎,所以我最早就在呼吁应该搞物联网搜索引擎。当时我提出泛在搜索的概念,过去我们搜索的只是信息,我说我们要搜索人,我还要搜索物,再后来我的一些朋友们说,那我们不如把问题解答也提出来,所以这就是2013年,我们扩充(研究领域),从物联网搜索扩充到了智慧搜索。

那这怎么推动呢?光听我到处演讲没有用,我们就找到国家自然科学基金委当时的副主任,管我们这个口的副主任高文,他是了解这个的,当时他就说好,支持,我们就等于在基金委立项了。那在基金委立项之后,他说你们研究的这种东西得让大家懂,所以2014年我们就办了双清论坛,同时在好几个地方专门开智慧搜索的会议。到了2015年,我们就说要把白皮书写出来。大数据的核心要解决的是挖,挖价值,那大搜索正好是解决挖价值的事情,所以我们正好叫大搜索了,是这么改的名,然后我就为此专门写了《网络空间大搜索技术白皮书》,是这么一个过程。

但比较可惜的是咱们好像缺少这种环境,真要说做的话,我们是不是上来就敢投足够多的钱去搞数据标注?是不是有人会做这样的决策?所以这是我们现在的一个问题。

吴小莉:据说当时您也跟一些互联网大平台聊过?有跟现在的互联网三巨头BAT聊过吗?

方滨兴:这是比较得罪人的事。实际上我们在开世界互联网大会时,我们就经常有接触,我还专门找了几个人,给他们建议,这种建议后来我发现其实没有任何意义。什么样的建议才有意义呢?比如说请互联网公司的决策者参加学术研讨会,他就会认真来决策,像我们偶尔当面建议人家做,我发现没有用。甚至我也曾经找过某个人坐在一起谈上一个小时,讨论问题,也没有触动他往下做什么,因为他们那样的企业决策过程是很复杂的,任何一个全新的决策,一定会打乱他原本计划里的什么事,所以说靠一个人去这样说话,没有用。

吴小莉:那您看到今天ChatGPT问世,会觉得我们因此失去了十几年的时间吗?

方滨兴:肯定是失去了,否则的话我坚信如果我们当时走下去,绝对是超前的领域。

制作人:韩烟
编导、编辑:郑书筠
今日视频推荐:
  大家都在看  
·美国国家信用卡被“刷爆”79次,债务“定时炸弹”在滴答作响… | 凤凰聚焦
·俄:乌军从5个方向开始大规模反攻,扎波罗热方向两军战斗8小时
·柯文哲访问日本,称“两岸之间同文同种,还是可以谈”

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存