【金融时报】蔡维德:通过主动式治理框架规避人工智能发展的潜在风险
ChatGPT是一款由人工智能研究实验室OpenAI发布的人工智能技术驱动的自然语言处理工具。它能够通过学习和理解人类的语言,进行对话、聊天互动,甚至能完成撰写邮件、视频脚本、文案、翻译、写代码、写论文等各种任务。根据瑞士银行(UBS)发布的研究报告显示,ChatGPT在2023年1月份的月活跃用户数已达到1亿,成为史上用户数增长最快的消费者应用。一方面,ChatGPT开启了人类利用人工智能技术的新时代;但另一方面,ChatGPT存在的潜在风险也引发了各界思考。是否应当在教育领域禁止ChatGPT的使用?如何对ChatGPT进行有效监管?ChatGPT以及类似系统的发展趋势如何?对此,本期金融时报《理论周刊》邀请北京航空航天大学教授、博士生导师蔡维德以及G20青年企业家联盟中国理事会青年委员杜雨等几位专家针对上述问题进行深入探讨,以飨读者!
2月24日上午,科技部部长王志刚在国新办新闻发布会上谈及热门话题ChatGPT时表示,ChatGPT形成了一种现象级的应用,表现出很高的人机理解交互水平,也表现出自然语言的大模型已具备面向通用人工智能的一些特征,在众多行业领域有着广泛的应用潜力。他强调,在推动发展的同时,兼顾科技成果的两面性,加强伦理规范。“对科学技术发展趋利避害,让利更好地发挥出来。”我们应如何最大化人工智能的效益,使其为人类服务的同时避免被滥用?对此,本报记者专访了北京航空航天大学教授、博士生导师蔡维德教授。他表示,ChatGPT需要的治理框架,不只关系到网络安全,隐私保护,还有物理安全,数据可靠性以及系统架构上的改变。我们需要依法治“系统”,即全面治理人工智能系统,通过主动式治理框架让人工智能系统可以有秩序地发展。
北航博士生导师、清华大学长江学者讲座教授、对外经贸大学元宇宙与金融保险研究中心荣誉主任,麻省理工学院学士,加州伯克利大学硕士和博士。
《金融时报》记者
ChatGPT如此智能,有人担心其会取代人类。对于这一观点,您怎么看?
蔡维德2017年,牛津大学和耶鲁大学根据350名研究员提供的数据,预测40年后(2053年),人工智能会在许多高技能的作岗位上取代人类。事实上,在一些工作岗位上的突出表现,并不代表人工智能将全面超越人类。比如60年前,当计算机刚刚发明出来,其计算速度已经远远超过人类,但这也只意味着计算机在计算方面占据优势。许多学者都认为,人工智能超越人类创新能力的可能性非常低。
即使在2053年,大部分高技能工作将会被人工智能所取代,但根据历史,也会有许多新型工作出现,创造出的工作岗位比失去的工作岗位可能更多。
ChatGPT不会取代人,但是会取代现在经常性的工作。而这样的取代效益,在过去几十年中已经经历多次。我们最好将ChatGPT视为强大的智能工具,可以协助人类应用的工具,而不是人类的替代品。它的用途广泛,工作高效,但不会挑战人类的创新能力。应在教育领域科学合理地使用ChatGPT。
《金融时报》记者
教育行业似乎最早表现出对滥用ChatGPT的担忧,认为这款工具会导致更广范围的学术剽窃。对此,您持何种态度?
数据显示,美国89%的大学生已经使用ChatGPT做作业。由于ChatGPT是先收集数据来回答用户的问题,世界著名语言学家麻省理工学院教授乔姆斯基认为ChatGPT就是个高科技的剽窃系统,等于扶持学生作弊。世界各地的学校也呈现不同的反应:
一种是禁止模式:包括纽约城市大学教育部、法国巴黎政治大学、印度区域大学、美国华盛顿大学在内的世界许多国家的大学均宣布禁止学校使用ChatGPT。一种是辅导模式:这些学校不禁止使用ChatGPT,而是在课程内教导学生如何正确使用ChatGPT而不犯校规,例如纽约州立大学以及福尔曼大学。斯坦福也即时推出了DetectGPT,便于检测出AI生成文本。还有一种是鼓励模式:例如2023年2月8日,新加坡政府批准学生在学校使用ChatGPT,只是希望学生不要过度依赖,能理解技术的局限性。他们还强调教师在新时代引导学生“发掘、提取、判断”信息的重要性。
我们认为,科技革新一直是世界向前发展的趋势,一味的禁止只会阻碍科技和社会进步。当然如果不加以治理,科技则会被滥用。同理,人工智能在教育界若用得好,在基础层面可以帮助老师备课,学生学习;在更深一层可以用于教育改革,比如解决教育资源分配不均的问题。因此,教育界应该积极拥抱ChatGPT,初期可以用在学业辅导上,然后不断增加其应用场景。与此同时,也应积极治理,在不断了解ChatGPT的基础上制定行业准则,推动教育者和被教育者科学合理地使用ChatGPT,以达到其最大益处。
《金融时报》记者
在Web3时代,ChatGPT扮演怎样的角色?
蔡维德第一代互联网(Web1)在1994年左右进入人类社会,第2代互联网(Web2)和第3代互联网(Web3)分别在2004年和2021年12月出世。Web1只能读,Web2可以读和写,而Web3可以读、写、拥有。从Web2到Web3的重要原因就是互联网平台过于强势,也没能保护好客户隐私,经常性贩卖客户数据以盈利。不幸的是在Web3时代,一个超级Web2的系统出现了,这就是ChatGPT。
ChatGPT需要收集数据,每一次用户使用该系统,都需要提供自己的相关信息。这是传统Web2的做法:平台收集数据,收集后的数据归属平台。10年前,IBM面向人工智能商业领域的平台(Watson系统)也是如此。除了用户信息,该系统还从网络收集大量数据,例如维基百科。收集数据后,系统经过处理,将数据变成系统化的知识,而在回答问题时使用这些知识,通过逻辑分析后,提供“智能”回答。
ChatGPT这个Web2系统回答能力和系统内存储的知识数量和质量相关。IBM Watson曾经提出,在法院打官司时,双方的竞争不只是律师和律师之间的竞争,他们后面的系统才是关键,哪个系统知识多、分析快,就在法庭上有优势。
现在已是Web3时代,很有可能ChatGPT或是类似系统会走向Web3的模式。Web3重视保护隐私以及创造者的拥有权。而现在ChatGPT剥夺了创造者的知识产权,所有输入的知识成为ChatGPT的知识产权,这是不符合Web3的原则。
《金融时报》记者
对ChatGPT所面临的人工智能安全问题,国际上有哪些做法值得借鉴?
蔡维德从2017年,已经有69个国家签署人工智能法规,包括欧盟的《人工智能法案》,美国的《国家人工智能法案》,美国国家标准与技术研究院(NIST)的《人工智能风险管理框架》,加拿大的《人工智能和数据法案》等。人工智能系统面临最严峻的问题是隐私保护。欧盟的法案提出,教育是高风险人工智能应用,也是目前ChatGPT最流行的应用。因此,根据这些国家的法规,ChatGPT是高风险的人工智能应用。
英国提出以下几个关键问题来询问人工智能系统是不是安全:人工智能系统有没有确保系统安全的应用?人工智能系统里的技术是不是安全并按公布的目的和方法执行?人工智能系统能不能确保具有易用性和可解释性?人工智能系统有没有用户的公平性?人工智能系统是不是有人负责?人工智能系统有没有明确的补救或竞争的路径?对于开发人工智能系统的企业,他们需要遵守以下规则:在整个组织内,有制定清楚的政策和程序,以创建一个促进人工智能创新并确保系统透明度和可解释性的设计合规计划;定期审核人工智能的使用情况;对于监管单位需要的信息,记录相关系统的流程和数据,预备随时提供给监管机构;即使人工智能相关的法律法规还没有到位,也要避免系统中的任何类型的偏见。
美国对于人工智能采取以下步骤:第一,实行自愿式标准和框架,业者都会选择最低标准。第二,对人工智能出口管制将更加严格。第三,美国国会议员将继续推动通过关于人工智能的联邦立法。2019年的《算法问责法》要求各组织向美国提供年度影响评估。此外,联邦贸易委员会可能会被重新引入。议员们还可以提出针对算法歧视和透明度的额外法案。
美国食品和药物管理局(FDA)将开始更新现有的AI指南,以应对机器学习的新挑战。这将影响在医疗保健、金融和就业领域使用人工智能的组织。美国联邦贸易委员会负责执行美国民事反垄断法并保护消费者权利,预计将制定监管大多数与消费者互动的人工智能系统的规则。在白宫科学技术办公室的领导下,美国将制定首个用于管理人工智能实践的算法权利法案。随着检察官获得数据和代码,这些数据和代码揭示了人工智能系统如何做出影响少数族裔的决定,人工智能可能会面临法律挑战。地方政府将开始通过自己的算法监管法规,比如纽约市1894年颁布的法规。该法律规定了自动就业决策工具的销售,这些工具由组织用于帮助他们选择求职者。为了防止申请过程中的潜在歧视,法律将要求组织使用外部专业知识进行算法审计。
相对而言,欧盟更为积极,通过《人工智能法案》对制造和使用人工智能的组织产生全球性影响。例如公司现在必须遵守《通用数据保护法》,该法案对从欧盟公民收集数据的企业实施数据隐私规定,即使这些企业不在欧盟境内。
《金融时报》记者
您认为应如何避免人工智能发展带来的负面影响?
蔡维德管仲是中国历史上一位重要人物,他是中国第一个提出“以法治国”理念的法学家、哲学家。以法治国是建立一个有制度、有秩序国家的重要途径。我们讨论人工智能治理,也需要借助管仲的理念:依法治“系统”,即全面治理人工智能系统,让人工智能系统可以有秩序地发展。对此,我们提出一个ChatGPT或是相关软件的管仲治理框架,目的是最大化人工智能的效益,为人类服务,同时避免人工智能系统被滥用。
第一,在现阶段,禁止ChatGPT连接可以行动系统。ChatGPT只要是独立系统,对社会就不会产生物理伤害。但是如果和可以行动的系统,例如汽车、飞机、机器人、工厂机器、医疗设备、手机连接,就可能产生物理伤害。例如系统可以要求汽车继续前进,而事实上车子已经到了一个危险的地方。现在对ChatGPT还在探索阶段,因此这些应用有必要禁止。
第二,在现阶段,可行动系统制造商可以开发对接软件或是硬件进行内部测试。但是暂不可用于现实使用,必须等到ChatGPT发展到成熟阶段,经过无数次测试保证安全,经行业认证、相关部门批准后才可投入使用。
第三,在相关系统内建立系统性治理规则。例如在ChatGPT内,内置“限制规则”系统,包含ChatGPT的宪法以及法规。这些已经在区块链系统内实行过了,海外去中心化自治组织(DAO系统)内就存在宪法和法规。这些宪法和法规控制系统的行为,例如不能伤害人,不可以披露个人隐私数据等。这些都需要智能合约系统和区块链系统进行控制。ChatGPT以及类似系统不能移除宪法和法规,执行后也需要出示全过程的记录(例如区块链系统的记录),并且可以通过这些记录,完全复制上次执行的结果。这些记录还包括所有数据的来源以及相关隐私保护的执行纪律。
第四,要求人工智能系统披露主要算法,包括收集,清理、应用算法。提供验证结果,长期追踪,禁止任何违法行为。相关企业应该提供第一线的保障措施。人工智能系统不是法外之地,也不容许提供低质量或是经常出错的服务。
第五,要求相关系统对任何人、企业、社会和国家有相应的防止伤害的机制。系统需要能判断可能性的伤害并有应对措施。这些机制需要设计什么是“伤害”,比如在一些特定情形下,一些行动或是言语可能会产生伤害。系统不可以绕开这些治理机制,表明人工智能系统必须有传统可信执行的环境,包括可信执行环境(TEE)和规则执行引擎等机制。
第六,要求相关系统提供隐私保护的机制和验证,包括隐私保护的算法,数据存储的方式,数据分析的算法以及应用算法。这代表每个数据都有来源信息、可信评估值、拥有者信息以及隐私保护级别。不只是数据,所有算法以及子系统都有对应的信息,而且都动态调整。
第七,鼓励产业使用相关系统产生价值,但需要披露哪些结果出自相关系统,并且质量由相关产业负责。对于相关系统产生的代码,需要经过大量的软件测试。每个投入产业的系统代码都需要注册,接受第三方的独立测试,测试报告上监管区块链系统。
第八,任何相关系统都需要提供能够判断真伪的数据来源以及在区块链系统上的内部审核工作记录,保证数据来源的真实性。如果发生事故,出错的数据来源可以被从生态环境中移除。这代表系统必须对所有数据来源有标签,对每个信息来源都做可信评估和动态调整。
第九,行业机构可以建立自我管理机制。比如在教育行业、金融行业、保险行业、科技行业内建立ChatGPT的使用规则,并成立自治组织,监管行业是否遵守这些规则,并落实奖惩机制。
第十,建立ChatGPT在各行各业使用的伦理标准,特别是在医疗、法律、教育、征信、交通等领域,并且将这些标准成为代码内置在系统内,在关键时刻触发限制措施。ChatGPT在一些行业的应用会挑战传统的伦理标准,不仅开发者在设计相关系统时要有伦理考量,将这些伦理代码系统化,政策制定者也需要积极应对。
第十一,建立国家/国际共享知识库。ChatGPT或是类似系统的性能由内部数据库控制,而国家需要建立一个共享数据库或是知识库。这个数据库应该是公开共享的,运行机构在其基础上进行优化,建立自己专属的数据库。同时使用区块链加密计算,让所有类似系统必须下载这些数据库。不同领域可以建立细分知识库,由专家评审后公布,助力相关产业。由于大部分数据库的内容会是公开的,自然成为国际共享知识库。
第十二,加强国际合作。ChatGPT不仅只会应用于一国,国与国间应当有相应的合作模式。比如共同制定运用ChatGPT的伦理准则,主动提供伦理管理系统到国际市场。另外,对ChatGPT的治理可以分阶段进行:比如短期1~3年内计划,中期3~5年,长期5年以后。
ChatGPT需要的治理框架,不只关系到网络安全,隐私保护,还有物理安全,数据可靠性以及系统架构上的改变。我们提出的不是被动式治理框架,而是主动式治理框架。从过去几年数字代币治理的经验来看,被动式治理将不会达到理想效果。而主动式治理框架要求系统更新,在系统内部嵌入监管机制,包括伦理道德管理子系统,强制系统服从国家法令,检验系统输入的数据,避免使用错误的数据导出错误的结论,输出时也检验结果是不是可信和可靠,并且全程留痕,记录在案。这种治理框架灵活多样,可以改变相关系统内部的机制,在危害没有发生前就启动“防止措施”。主动式端到端的保护,需要全盘考量,它可以是轻量级的,就是只是更新很小部分的系统;也可以是重量级的,提供一个严格架构,并要求系统符合这个架构。
《金融时报》记者
您如何看待ChatGPT的发展路线?
蔡维德与其等待ChatGPT系统对社会产生正面或是负面的影响,我们建议以更积极、更正面的方式来助力科技、经济、教育、法律的发展:
在法规数字化方面:我们提到在ChatGPT内设置宪法以及法规,就是法律执行自动化的第一个步骤。积极参与“可编程法律”的建设,包括区块链系统开发,智能合约开发、注册、验证、认证、部署、执行、存储,预言机的开发、验证、认证、部署、执行和执行助力计算法学的进展。英国在2018年已经在司法系统内开展相关工作。
在知识数字化方面:建立百行百业的知识库,发展相关的推理引擎。所有知识经过多方验证以及科技、法律领域专家的审核,建立国家以及国际知识的数字化标准。
在教育数字化方面:除了数字知识外,应融合教育学(Pedagogy)机制在人工智能内,系统性让学生能够自主发掘、提取、判断人工智能系统产生的结果,并且记录学习者的进展。
北京天德科技有限公司由著名区块链专家蔡维德教授领军,2021年8月发明了NFR,同期申请了NFR智能合约等相关算法发明专利,已经获得国家知识产权局授权。
↑点击图片进入MyNFR小程序
2021年10月,在国务院发展研究中心国际技术经济研究所指导下发布了《非同质化权益(NFR)白皮书》(点击文字查看白皮书全文)。
2022年6月,蔡维德教授出任中国科技新闻学会元宇宙科技传播专业委员会首席科学家,组织编写了《中国数字权益白皮书》(点击文字查看白皮书全文)
天德科技知识馆,欢迎购书!
新书订购链接的二维码,请查收!
提供英国、美国等欧美国家区块链产业布局的历史发展路径、理论依据以及实际案例,对新型数字货币战争提出新型解读,详细阐述了为什么数字法币竞争是平台竞争,为读者了解数字领域重要报告提供一站式资料获取。
系统地结合科技与法律,全面剖析智能合约的专著,是计算机及法律从业者通向未来的职业指南,对ISDA、李嘉图合约、雅阁项目、LSP、比格犬模型、皋陶模型等的系统阐述。
推荐阅读
天德链使用入门指南!国家高新技术企业,专注于区块链底层、区块链产业沙盒(测试和监控)、互链网核心技术的研发。天德科技拥有500多项知识产权。
©2023 北京天德科技有限公司