全球法治观察 | 以制度创新赋能ChatGPT等生成式人工智能技术的有序发展
导读 · 2023.04.26
"全球法治观察"专栏持续关注制度范式与法律规则应如何回应ChatGPT等人工智能技术给经济和社会带来的冲击。人工智能充分体现了技术创新的“一体两面”,随着技术的迭代发展,监管原则和行业标准也在校准和适配。本文从美国联邦政府出台的相关法律出发,简析《AI问责政策》对人工智能技术的包容和审慎的监管,阐释了美国政府如何通过顶层设计赋能人工智能技术与规则的发展。
无论是美国还是中国,都希望通过制度建设做到对国家信息安全和个人信息保护的整体可控,在促进行业自律、有序发展的同时,不扼杀技术创新带来的机遇。由于美国的生成式人工智能技术发展较快,其相关政策与规范作为他山之石,能为我国进一步完善人工智能服务管理规范体系提供一定参考。
引言
由OpenAI公司开发的生成式人工智能技术,已经成为了2023年首个现象级热点,在产业政策、技术迭代、风险投资、教学科研、社会伦理、政治生态等诸多领域引爆了激烈探讨,也对现有制度范式与法律规则能否有效应对人工智能带来的的负面效应,优化其积极的经济与社会效能,提出系统的挑战。(可参考专栏上一篇《ChatGPT等AI工具的数据合规风险》)
图源:陆奇《我的大模型世界观》
3月23号,生命未来研究所(Future of Life Institute)发布了名为“暂停巨型人工智能实验”的公开信(Pause Giant AI Experiments: An Open Letter),呼吁全球范围内的人工智能实验室停下“飞奔的脚步”,暂停比GPT-4更强大的人工智能系统的训练至少6个月,并在此期间开发制定一套共享安全协议(shared safety protocols),并由独立第三方专家进行评测、监督。
3月31日,意大利“个人数据保护局”(Garante Per La Protezione Dei Dati Personali,GPDP)继在2月3日宣布取缔了“Replika”智能聊天程序之后,又宣布出于用保护户隐私数据和未成年人利益的考虑,暂时封禁ChatGPT 以限制OpenAI公司处理意大利用户信息。OpenAI公司必须在20天内通报采取了哪些措施来确保用户数据隐私,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。
图源:意大利“个人数据保护局”官网
4月11日,为促进生成式人工智能技术在我国的健康发展和规范应用,国家互联网信息办公室(网信办)也公布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《管理办法(征求意见稿)》),向社会公开征求意见。对“基于算法、模型、规则生成文本、图片、声音、视频、代码等内容”的生成式人工智能服务与产品,《管理办法(征求意见稿)》草案提出了真实性、准确性、合法性等合规要求。
无独有偶,在网信办公布《管理办法(征求意见稿)》的当日,隶属于美国商务部的“国家电信和信息管理局”(National Telecommunications and Information Administration,NTIA),也发布了《人工智能问责政策(征求意见书)》(AI Accountability Policy Request for Comment)(以下简称《AI问责政策》),就如何确保AI系统的合法性、有效性、道德性、安全性与信赖性(legal, effective, ethical, safe, and trustworthy),以及是否要求新人工智能模型在发布前应经过认证程序等诸多规范措施,向公众征求立法建议。
本篇观察从特朗普、拜登两任总统期间美国政府发布的标志性法律为出发点,简要分析了美国商务部此次发布的《AI问责政策》的主要内容,阐释了人工智能技术监管的美国政策与规范重点,为我国进一步完善人工智能服务管理规范体系,提供一定的借鉴参考。
顶层设计:
赋能AI技术发展与规则创新
2021年1月,在联邦参、众两院再次以三分之二多数票表决,推翻时任特朗普总统的否决后,美国2021财年《国防授权法》在未得到总统签字的情况下成为了联邦法律。据此,收录于《国防授权法》第五篇的《国家人工智能行动法》(Division E—National Artificial Intelligence Initiative Act of 2020)也正式生效。
美国“国家人工智能行动办公室”徽标
(图源:官网)
《国家人工智能行动法》规定了一系列雄心勃勃的人工智能产业计划,比如成立“国家人工智能行动办公室”(National AI Initiative Office),作为联邦政府人工智能联络中心,以统一协调政府部门和私人公司之间的沟通与合作。
《国家人工智能行动法》也要求美国砸以重金,明确规定在其后的五个财政年度,分别向“国家科学基金会”(National Science Foundation)拨款47.96亿美元,“能源部人工智能研究项目”(Department of Energy Artificial Intelligence Research Program)拨款11.50亿美元,“国家标准与技术研究院”(National Institute of Standards and Technology)拨款3.91亿美元,一方面大力促进人工智能技术与产业的创新发展,另一方面促进人工智能最佳规则和标准的研究制定,以确保美国继续在技术与制度两方面,引领全球人工智能的竞争发展。
数据:美国2021财年《国防授权法》
拜登总统入主白宫之后,美国政府进一步加强了顶层设计,以赋能人工智能的技术与规则发展。特别是,2022年10月,美国白宫科技政策办公室(White House Office of Science and Technology Policy, OSTP)正式发布了《人工智能权利法案蓝图:让自动化系统为美国人民服务》(The Blueprint for an AI Bill of Rights: Making Automated Systems Work for The American People),再次为人工智能和其他自动化系统的设计、开发和部署提供了重要的制度赋能。
《人工智能权利法案蓝图》指出,人工智能自动化系统已经带来了诸多非凡的好处,比如高效的农业种植技术、预测风暴路径的计算机,以及能识别病患疾病的算法。但是,人工智能自动化系统也给美国社会带来了诸多负面影响,比如用于招聘考核和信用评估的算法加深了歧视性的社会偏见,违反了种族平等原则;而社交媒体公司,在用户不知情或未同意的情况下,大量数据收集个人信息,严重侵犯了用户隐私与数据安全。
图源:网络
针对人工智能技术系统对于美国人民权利与政治生态的影响,《人工智能权利法案蓝图》提出了五大基本原则,以及一系列具体的应对措施:
图源:作者制图
规则落地:
《AI问责政策》体现的包容审慎监管
成立于1978年的国家电信和信息管理局(National Telecommunications and Information Administration,NTIA)是隶属于美国商务部的一个专门机构,负责向总统及其它联邦政府部门提供有关电信和信息政策建议。早在2018年7月,NTIA就曾以国家安全和执法风险为理由,建议美国联邦通信委员会(FCC)拒绝中国移动在美提供国际电信服务的《通信法》第214条许可请求。
图源:NTIA官网
4月11日,国家电信和信息管理局(National Telecommunications and Information Administration,NTIA),在其官网发布《人工智能问责政策(征求意见书)》(AI Accountability Policy Request for Comment)(以下简称《AI问责政策》)。通过这次公开征询,NTIA将为拜登政府就人工智能系统风险和监管,提供采取全面的联邦立法规范参考建议。
《AI问责政策》指出,鉴于人工智能和算法系统的潜在风险,在向市场推出人工智能产品与服务时,须保证AI系统是合法的、有效的、合乎道德的、安全的与值得信赖的(legal, effective, ethical, safe, and trustworthy)。使用AI技术与服务的消费者,不论是企业还是个人,都有权知道相关AI系统是否已经建立了充分的保护机制,并通过了政府或者第三方的安全测评,足以有效地管控与AI产品与服务伴生的风险。
因此,正如食品和汽车在没有适当安全保障的情况下不能投放市场一样,在提供人工智能系统产品与服务时,相关AI开发公司也应向公众、政府和企业提供相应的信任保障。具体而言,NTIA就如何完善人工智能问责体系,在《AI问责政策》中向公众提出了以下六大主题,总计34道极为详尽的立法征询。
1. AI问责的目标
比如:人工智能问责机制(如认证、审计和评估)的目的是什么?考虑到生成式人工智能工具(如大型语言模型ChatGPT或其他通用人工智能或基础模型)可能整合到下游产品中,人工智能问责机制如何告知人们这些工具如何运作和/或这些工具是否符合值得信赖的AI标准?
2. 现有立法资源和范式
比如:在问责政策中,公平、安全、有效、透明和值得信赖等常用术语的最佳定义是什么?在哪些方面,这些术语可以在不同部门和司法管辖区之间具有相同的含义?在哪些方面,术语的含义因司法管辖区、部门或用例而有所不同?从网络安全、隐私、金融或其他领域的问责过程和政策中,我们可以学到哪些经验教训?
3. 问责主体
比如:人工智能价值链或供应链具有复杂性,通常涉及开源和专有产品,以及与人工智能系统开发者最初设想相去甚远的下游应用。此外,人工智能系统的训练数据可能来自多个来源,包括使用该技术的客户。人工智能系统中的问题可能出现在部署或定制阶段的下游,也可能出现在模型开发和数据训练的上游。
a. 问责工作应关注价值链的哪个环节?
b. 价值链不同节点上的问责工作如何最佳地协调和沟通?
c. 供应商应如何与客户合作进行人工智能审计和/或评估?审计或评估在商业和/或公共采购过程中的作用是什么?是否有特定的做法可以促进可信赖的审计(例如,免责声明)?
d. 由于人工智能系统的效果和性能取决于其部署的环境,问责措施如何应对最终下游实施的未知因素?
4. 信息记录和透明度
比如:为了支持人工智能问责,人工智能系统的开发者和部署者应保存哪些记录(例如,日志、版本、模型选择、数据选择)和其他文档?这些文档应保留多长时间?是否存在促进问责为本设计的人工智能系统的设计原则(包括技术设计)?在某些情况下,供应商本身可能出于隐私和安全原因故意限制了其自身的数据收集和访问。人工智能问责要求或实践应如何处理这些数据问题?政府、民间社会和学术界在提供有用的数据集(合成的或其他)以填补空白并创建公平获取数据的途径方面应扮演什么角色?
5. 有效问责的障碍
比如:美国目前缺乏一般性的联邦数据保护或隐私法,以及专门针对AI系统的联邦法律,这是否会成为有效的AI问责的障碍?AI审计和评估的成本是多少?哪些实体应承担这些成本?AI问责要求可能对受监管实体造成重大成本的可能后果是什么?有办法降低这些成本吗?在权衡成本与收益时,最佳方法是什么?
6. AI问责政策
比如:政府政策在AI问责生态系统中应扮演什么角色(如果有的话)?AI问责政策和/或监管应该是部门性的还是横向的,还是两者兼有?如果有的话,AI问责监管应侧重于审计或评估的输入(例如,文档、数据管理、测试和验证),提高审计师和研究人员对AI系统的访问权限吗?在美国以及全球范围内,统一AI问责规则与标准的一致性是否具有必要性?实现这一目标的最佳方法是什么?
结语
早在2015年1月,生命未来研究所(Future of Life Institute)在史蒂芬·霍金(Stephen Hawking,1942-2018)、埃隆·马斯克(Elon Musk)以及数十位人工智能专家的倡议之下,就发布了名为“迈向强大和有益的人工智能需要优先考量的研究方案”的公开信(Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter)。公开信强调,鉴于人工智能的巨大潜力,研究如何在避免超出人类控制的潜风险的同时收获其人工智能带来的利益变得尤为重要。
图源:TechCrunch
针对人工智能带来的机遇与挑战,中、美两国经过多年的制度建设,目前都已经在技术迭代、产业投资、人才培养方面,出台了诸如《新一代人工智能发展规划》(中国)、《国家人工智能行动法》(美国)等一系列国家级的战略政策,以及诸如《新一代人工智能治理原则——发展负责任的人工智能》(中国)《人工智能风险管理框架1.0》(美国)等行业技术标准。
而在人工智能技术的规范、规则制定方面,美国国内囿于联邦制度、两党政制、以及资本游说等诸多因素,短期内还难完成全面监管立法。相较而言,我国监管机关已经先后出台了包括《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法(征求意见稿)》在内的强制性法律法规,一定程度上抑制了侵犯个人信息与隐私权益,扰乱社会经济和公共秩序等不良市场行为。
我们也还需要清醒地认识到,当前我国人工智能技术在算力、算法、数据等方面与美国公司都还存在现实差距。算力方面,英伟达、ARM等公司主导着AI芯片的研发与生产;算法方面,OpenAI 、DeepMind等公司领导着ChatGPT、Gato为代表的大型自然语言(Large Language Models)的开发与应用;数据方面,英文作为互联网通用语言(lingua franca),便利了美国公司对于海量全球数据的收集与处理。
特别是,美国当下正在与少数盟国以所谓的 “护栏”(guardrails)战术,对我们包括人工智能在内的科技发展进行全方位地围、追、堵、截。因此,我们更需要在守住底线、积极管控人工智能技术风险的同时,充分认识到过于严苛的制度规则对于技术创新、产业生态、全球竞争可能带来的负面扼阻效应。我们迫切需要通过制度创新,赋能市场主体建立开放、包容、审慎的技术研发与应用转化新业态。
作者游传满
香港中文大学(深圳)国际事务研究院副研究员、规则标准与涉外法治研究中心主任。
*免责声明:本文所阐述观点仅代表作者本人立场,不代表大湾区评论或IIA机构立场。
*原创声明:本文版权归微信订阅号“大湾区评论”所有,未经允许任何单位或个人不得转载、复制或以任何其他方式使用本文部分或全部内容,侵权必究。
GBA Review 新传媒
编辑 | 袁浩延
审核 | 冯箫凝 黄紫蓝
●往期回顾●