查看原文
其他

监管AI,欧盟出手,美国掉队?

王哲希 国际金融报 2024-03-24

上个世纪,科幻小说家艾萨克·阿西莫夫提出了“机器人三定律”,带来了对“机器人”与“规则”的美好幻想。

如今,伴随着ChatGPT、Sora的爆火,人工智能(AI)领域的激烈竞争,对该领域的监管也被正式提上日程。

当地时间3月13日,欧洲议会正式投票通过并批准欧盟《人工智能法案》,严格禁止“对人类安全造成不可接受风险的AI系统”。这标志着欧盟扫清了立法监管AI的最后障碍。

另据美国有线电视新闻网(CNN)3月12日报道,美国国务院委托第三方机构进行的一份新调查报告称,快速发展的AI或对人类构成“毁灭级”风险。该报告还警告说,美国政府避免灾难的时间已经不多了,必须进行干预。

监管前沿

事实上,欧盟一直走在技术监管的最前沿。

早在2019年4月,欧盟委员会就发布了一份AI道德准则,提出了“值得信赖”的AI应当满足的7个条件。

2020年12月15日,欧盟委员会向欧洲议会和欧盟理事会提交了《数字市场法案》,2024年3月8日,这一法案正式落地生效。而与该法案一起提交的,作为“塑造欧洲数字未来”一部分的《数字服务法案》也已于2月17日正式在全部网络平台生效。

据悉,《数字市场法案》更注重于结束科技巨头垄断行为,《数字服务法案》更聚焦用户的隐私等基本权利,希望敦促企业有节制、有方法地投放广告等内容。

而本次通过的《人工智能法案》旨在全面规范AI,确保AI的使用不会侵犯人的基本权利,防止AI滥用和风险。该法案于2021年4月由欧盟委员会提出,预计将在今年5月生效。

该法案的核心特征是对AI应用进行风险级别的分类,分为“不可接受”风险、高风险、中风险和低风险,被认为存在“不可接受”风险的技术会被完全禁止,法规会根据不同风险等级的AI应用制定针对性标准。

争议颇多

和欧盟其他许多法规一样,在获得高票通过的同时,《人工智能法案》也引发了颇多担忧。

一方面,有些公司担心这项法案可能过于严格,限制了技术创新和商业发展;另一方面,一些立法者认为该法案还不足以全面应对人工智能带来的挑战和风险。

在去年谈判进入最后阶段时,法国和德国政府就认为AI监管规则过严,会伤害欧洲的初创企业。而德国和法国正是欧洲一些最有前途的人工智能初创公司所在地,包括Aleph Alpha、DeepL和Mistral AI。

与微软进行合作的法国企业Mistral AI认为,“相较于在较少限制性监管框架下运作的美国大型科技公司,该法案过于严格的规定可能限制欧盟AI领域的竞争能力。”

Meta公司也警告不要采取任何可能扼杀创新的措施。Meta欧盟事务主管Marco Pancini表示,“最重要的是,我们不要忽视人工智能在促进欧洲创新和促进竞争方面的巨大潜力,而开放是关键。”

有分析指出,如果欧盟的规定过于严格,可能会促使欧盟内部的AI企业寻求与欧盟监管体系之外的公司合作,以规避这些限制,这可能削弱欧盟立法的初衷和目标。

欧洲科技行业组织Digital Europe总干事塞西莉亚·博内菲尔德-达尔(Cecilia Bonefeld-Dahl)此前表示,“我们将为该法案付出代价,这意味着我们需要投入更多来研究对抗人工智能使用风险的方法。新的监管规则将要求公司投入大量资源来遵守,把资源花在律师身上,而不是雇佣人工智能工程师。”

这或许不是危言耸听。

德国政府前顾问、波士顿咨询公司合伙人鲁尔夫(Kirsten Rulf)表示,已有超过300家企业向她的公司咨询了该法案的相关情况。“企业需要并希望获得法律上的确定性”。

在本月欧盟《数字市场法案》正式落地生效前夕,欧盟以苹果公司滥用市场主导地位为由,对其处以18亿欧元的巨额罚款。苹果公司随后表示,将对欧盟的这一决定提起上诉,这将引发一场可能持续数年的法律斗争。而这一情况或将在未来成为常态。

在人工智能的世界里,一眨眼就是瞬息万变。在欧洲议会议员图多拉切看来,该法案立法后如何实施将成为最大的障碍。

Harbottle&Lewis律师事务所合伙人艾玛·怀特(Emma Wright)指出,“考虑到技术变革的步伐,未来可能会出现的复杂情况是,《人工智能法案》很快就会过时,特别是考虑到部分条款将分阶段实施的情况。”

此外,关于禁止面部识别技术的可能性,以及配套的人工智能办公室亦是争论的焦点。

据了解,新成立的人工智能办公室的员工总数将达到98人,启动预算将为4650万欧元。但关于人员聘用、预算分配仍未有切实计划出台。

美国掉队?

在拥有多家强大人工智能公司的美国,情况更为复杂。

2022年年底,微软支持的OpenAI推出ChatGPT,这一人工智能应用能在几秒内撰写论文、进行翻译等,展示出了AI科技的巨大潜力,随即引发了一场世界范围内的AI“军备竞赛”。年初推出的Sora更是让许多科技大佬感慨“差距明显”。

但在AI产业繁荣的背后,美国对该产业的监管却显得有些力不从心。

美国有线电视新闻网(CNN)3月12日报道,美国国务院委托第三方机构进行的一份新调查报告称,快速发展的AI或对人类构成“毁灭级”风险。

报告将AI发展给全球安全带来的风险与核武器相比,称未来AI发展存在“军备竞赛”、冲突和“大规模杀伤性武器致命事故”的风险。报告呼吁成立一个新的AI机构,实施紧急监管,并限制用于训练AI模型的计算机能力等。

美国其实早已意识到了这一点。尽管美国总统拜登已于去年10月发布行政命令,要求联邦机构起草AI技术使用标准,以监控人工智能风险、保护工人,促进半导体领域的竞争,但美国政府,尤其是美国国会至今未能就有约束力的AI监管达成一致,反而在半导体领域频频找茬。

去年9月,美国国会举行了至少三场与AI立法有关的讨论,出席讨论的科技界大佬包括谷歌、微软、Meta、OpenAI等AI技术公司的CEO。国会参议院多数党领袖查克·舒默在会后对记者说,他在会上提出“政府是否应该在监管人工智能中发挥作用”的问题,“所有人都举手(表示同意),虽然他们的观点不尽相同”。

从某种程度上来说,这些科技企业可能更希望将“标准”掌握在自己手中。

以谷歌为例,该公司公开反对建立专门监管AI的政府机构。据CNBC报道,谷歌公司去年6月在一封回复给美国国家标准技术研究所(NIST)的信函中说,谷歌支持分散式的监管方式,以“多层次、多利益相关者的方法”治理人工智能。

更多的监管则依赖于科技公司的“自觉”。今年年初,谷歌公司DeepMind机器人团队公布了三项新进展,其中一项就是收集训练数据的“机器人宪法”系统——AutoRT。该系统可一次性安全指挥20个机器人,谷歌为其设置了安全护栏,指示大语言模型避免选择涉及人类、动物、尖锐物体甚至电器的任务。

社会层面来看,纽约大学媒体技术教授纽曼提倡对AI监管采取一种“下游模式”。他认为,“如果技术被用于非法目的,已经有了成文的法律惩罚肇事者和犯罪者。没有理由因为使用了不同的工具犯罪就去再写一部法律。”类似的想法在美国不在少数。

记者:王哲希
编辑:白岩冰

任编毕丹丹

—— / 好文推荐 / ——

       

       

点亮“在看”,你最好看! (*╯3╰)
继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存