域外观察 | 欧洲议会关于“通用人工智能”的观察
全文约1900字,预计阅读时间10分钟
文|杜安琪 中国信息通信研究院互联网法律研究中心助理研究员
欧洲议会的议员与工作人员于3月30日发布了一份关于“通用人工智能”的观察报告,介绍了通用人工智能的发展情况与主要问题,并讨论了如何在欧盟人工智能法案中规范通用人工智能的问题。[1]
本文就“通用人工智能”观察报告的主要内容进行了讨论。
通用人工智能(General-Purpose Artificial Intelligence)技术,如ChatGPT,正在迅速改变人工智能系统的构建和部署方式。尽管通用人工智能技术有望在未来几年带来巨大的利益,激发创新,但其颠覆性特质也引起了有关隐私和知识产权、责任和问责制的政策制定问题,以及引起了对其可能传播虚假信息和错误信息的担忧。欧盟立法者需要在促进技术发展与确保充分的保障措施之间取得微妙的平衡。
尽管人工智能没有全球统一的定义,但科学家们普遍认为,从技术上讲有两大类人工智能技术:“狭义人工智能"(Artificial Narrow Intelligence, ANI)和“通用人工智能”(Artificial General Intelligence, AGI)。ANI技术,如图像和语音识别系统,也被称为弱人工智能,是在精心标注的数据集上进行训练,以执行特定的任务,并在预定的环境中运行。相比之下,AGI技术,也被称为强人工智能,是为了执行广泛的智能任务、抽象思考并适应新情况的机器。尽管在几年前AGI的发展速度还相对平缓,但快速的技术突破,包括大型语言模型(Large Language Models, LLMs)技术的应用,从根本上改变了AGI技术的潜力。新一波具有生成能力的AGI技术,被称为“通用人工智能”或“基础模型”[2],正在大量的无标签数据上进行训练,这些数据只需进行微调便可用于不同的任务。这些基础模型可通过应用编程接口(API)和开源访问,供下游开发者使用。目前,这些基础模型被许多公司用作基础设施,为终端用户提供下游服务。
通用人工智能模型的主要特征——庞大的规模、不透明性和可能发展出超出其生产者预期的能力——引起了一系列问题。研究表明,LLMs,如ChatGPT,存在道德和社会风险。它们可能会不公平地进行歧视,延续陈旧观念和社会偏见,使用不良信息(例如煽动仇恨或暴力),对个人和敏感信息构成风险,提供虚假或误导性的信息,提高虚假信息活动的效率,并造成一系列人机互动的伤害(例如导致用户高估人工智能的能力,以不安全的方式使用它)。尽管工程师们试图减轻这些风险,但LLMs,如GPT-4,仍然对用户的安全和基本权利构成挑战(例如,产生令人信服的文本,但其内容却隐含着虚假,或在提供非法建议方面表现得更加熟练),并可能产生违法和不良信息。
欧盟立法者目前正在进行旷日持久的谈判,以确定欧盟的人工智能监管框架,使“高风险”人工智能系统在欧盟受到一系列要求和义务的约束。4月27日,欧洲议会成员就人工智能法案(AI Act)达成了临时政治协议。据Euractiv报道[3],欧洲议会议员确认了此前有关对基础模型施加更严格义务的提议,并规定生成式人工智能模型的设计和开发必须符合欧盟法律和基本权利,包括言论自由。拟议法案的确切监管范围是一个争论的焦点。虽然欧盟委员会最初的提案中没有包含任何关于通用人工智能技术的具体规定,但欧盟理事会已提议应考虑这些规定。同时,有专家提出,任何根据人工智能系统的预期目的将其归类为高风险或非高风险的方法都将为通用人工智能系统创造漏洞,即AI Act将监管人工智能应用程序的具体用途,而不是其基础模型。
在这种情况下,一些利益相关者,如未来生命研究所(Future of Life Institute),呼吁将通用人工智能纳入AI Act的规范范围。赞成此种观点的专家建议对提案进行相应的修改。专家建议,考虑为通用人工智能系统创建一个单独的风险类别。这些系统需遵守符合其特点的法律义务和要求,并受到类似于《数字服务法》(DSA)下的系统风险监测系统的约束。专家认为,AI Act应关注通用人工智能的特定高风险应用,并为其设置有关透明度、风险管理和非歧视的义务;DSA的内容监管规则(例如通知-行动机制,以及可信标记者)应涵盖此类通用人工智能。专家呼吁,对通用人工智能的规制应面向未来,特别是通过解决价值链的复杂性,考虑开源战略,使合规要求和政策执行适应不同的商业模式。专家指出,该法案应该阻止在高风险人工智能系统中使用通用人工智能的API,为通用人工智能系统供应商引入软承诺(如自愿行为准则),并明确价值链上的参与者的责任。
参考文献:
[1]https://www.europarl.europa.eu/RegData/etudes/ATAG/2023/745708/EPRS_ATA(2023)745708_EN.pdf
[2]On the Opportunities and Risks of Foundation Models,https://arxiv.org/pdf/2108.07258.pdf
其中,将基础模型定义为,任何在大量的数据上训练出来的模型,可以适应广泛的下游任务。
[3]https://www.euractiv.com/section/artificial-intelligence/news/meps-seal-the-deal-on-artificial-intelligence-act/
动态观察|欧盟成员国GDPR重点执法案例汇编(2023.02)动态观察|欧盟成员国GDPR重点执法案例汇编(2023.01)域外观察|美国CSIS发布《投资于联邦网络弹性》报告域外观察|美智库研究认为两类网络安全问题值得关注
中心研究|《个人信息出境标准合同办法》出台,具体场景适用可参考欧盟成熟经验中心研究|欧盟发布《医疗数据空间条例》,为重点行业数据共享提供经验域外观察|联合国发布《隐私增强技术指南》中心研究|我国主要立法中数据处理者相关评估义务规定研究域外观察|瑞典发布一份欧盟《数据法案》妥协方案域外观察|ITIF发布《不损害人工智能创新发展的十项监管原则》报告域外观察|美国NIST发布《人工智能风险管理框架》年度观察|2022年网络法治盘点与回顾(一):数据治理篇年度观察|2022年网络法治盘点与回顾(二):数字平台篇
年度观察|2022年网络法治盘点与回顾(三):数字内容篇
年度观察|2022年网络法治盘点与回顾(四):数字安全篇
中心会议│第六届互联网法律研讨会在京顺利召开中心研究 | 美欧之间能否再次顺利签署跨大西洋数据流动协议?中心研究|2022年美国ICT领域重要立法进展
中心研究|印尼《个人数据保护法》能否为全球数据跨境流动探索出替代数据本地化的新路径?
中心研究|《数字市场法》案例梳理系列—(一)谷歌购物案
中心研究 | 《个人信息保护法》实施一周年观察之数据保护带来的成本究竟几何中心研究 | 我国跨境数据流动管理制度概论——兼析《网络安全法》第37条的制度构建及意义域外观察|欧盟发布《欧洲互操作法案》,加速欧洲公共部门数字化转型域外观察|欧盟签署《欧洲数字权利和原则宣言》域外观察 | 欧盟《网络弹性法案》研究报告域外观察|亚太地区数据保护法律中有关“个人数据处理的合法性基础”的比较分析
域外观察|爱尔兰DPC针对Meta爱尔兰公司的数据泄露问题做出决定
域外观察|美国出口管制政策真的能扼制中国AI发展未来吗?域外观察 | 印度个人数据保护法案为何历经四度更迭?(附最新版法案译文)
域外观察|国外聚焦“黑暗模式”探索监管路径域外观察|欧洲数据保护委员会发布新版《数据控制者、处理者识别牵头监管机构指南》专家解读|加快规范深度合成技术应用