查看原文
其他

监管AI不会让美国在科技竞赛中落后于中国

吾楼 中美聚焦 2023-08-15
点击上方“中美聚焦”关注我

导 语


美国国内有关对华全面战略竞争的话题也包括人工智能(AI)领域的竞争。近一个月以来,包括OpenAI、其支持者微软以及谷歌在内的科技巨头访问了白宫,和美国政府集中探讨AI的发展和监管问题。OpenAI的首席执行官萨姆·奥特曼(Sam Altman)还出席了美国国会的听证会,也提到了监管AI的必要性和重要性。与此同时,白宫5月份也宣布了首个AI监管计划。美国行政管理和预算局(OMB)还宣布,将发布美国政府使用人工智能系统的政策指导草案,以确保对人工智能的使用能够保障“美国人民的权利和安全”。拜登政府甚至考虑制定一项国家人工智能战略,以防范错误信息和该技术的其他潜在缺点。


那么,科技企业推动的AI监管,会不会拖累美国在AI领域的技术竞争呢?6月2日,OpenAI的董事会成员、美国乔治敦大学安全和新兴技术中心(Center for Security and Emerging Technology)的战略和基础研究基金主任海伦·托纳(Helen Toner)和另外两名AI领域的专家和政治学教授在《外交杂志》联合发文,回答了这一问题。以下是文章主要内容。文章观点不代表本公众号立场。



人工智能(AI)革命已延伸到美国国会。两党立法者对强大的人工智能系统(如ChatGPT)的惊人潜力感到震惊,担心这种快速发展的技术可能会重塑经济和社会生活。最近几个月,国会议员和监管机构举行了一系列听证会和幕后谈判,试图确定如何最好地“监管”这种技术。


但一些人担心,任何形式的监管都可能会给美国带来地缘政治成本。今年5月,在美国参议院的一次听证会上,OpenAI的首席执行官萨姆·奥特曼(Sam Altman)警告说,“监管”人工智能监管的“一个危险”是,“你放慢了美国工业的发展速度,以至于中国或其他国家取得更快的进步。”同月,人工智能领域的华裔企业家亚历山大·王(Alexandr Wang)坚持认为,“美国正处于一个相对危险的位置,我们必须确保我们在技术上取得最快的进展。”


▲当地时间5月16日,OpenAI首席执行官Sam Altman出席美国国会举行的关于人工智能监管的听证会。


长期以来,美国联邦政府和私营部门的人士都认为,华盛顿的繁文缛节可能会损害其与中国的竞争。谷歌前首席执行官埃里克·施密特(Eric Schmidt)在2021年声称,“中国并没有因为监管而忙于阻碍(AI领域的)事情”。根据这种想法,如果美国在人工智能周围设置“护栏”,它最终可能会将国际人工智能的领导地位拱手让给中国。


抽象地说,这些担忧是有道理的。如果监管打击并削弱了美国国内人工智能产业,而中国人工智能企业则不受束缚地蓬勃发展,这不符合美国的利益。但仔细观察中国人工智能的发展,尤其是大型语言模型(LLM)(支撑ChatGPT等应用程序的文本生成系统),就会发现,这种担忧被夸大了。中国的大型语言模型落后于美国,并且在很大程度上仍然依赖于美国的研究和技术。此外,与美国同行相比,中国的人工智能开发人员面临着更加严格的环境。即使新法规确实会减缓美国的创新(很可能不会),中国似乎也不会遥遥领先。


美国公司正在以前所未有的速度构建和部署人工智能工具,以至于连他们自己也在主动寻求来自华盛顿的指导意见。这意味着考虑如何监管AI技术的政策制定者处于强势地位,而不是弱势地位。如果不对今天的人工智能系统施以监管,它的危害将继续成倍增加,而未来它所产生的新危险将不受控制。美国对中国实力的夸大认知不应阻止美国现在采取有意义和必要的行动。


技术的进步和障碍


在过去的三年里,中国实验室迅速追随美国和英国公司的脚步,建立了类似于OpenAI的GPT-3(ChatGPT的前身)、谷歌的PaLM和DeepMind的Chinchilla等人工智能系统。但在许多情况下,围绕中国模型的炒作掩盖了实质内容的匮乏。与我们交谈过的中国人工智能研究人员认为,中国的LLM至少比美国同行落后两到三年,甚至可能更多。中国的人工智能进步在很大程度上依赖于复制和调整国外发表的研究成果,这种依赖可能使中国企业难以在该领域发挥领导作用。


以北京智源人工智能研究院(BAAI)的“悟道2.0”模型为例。该模型在2021年夏天被发布后,福布斯兴奋地将其奉为一个“更大、更强、更快的人工智能”,很大程度上是因为悟道2.0拥有比GPT-3多十倍的参数(即人工智能模型中决定其如何处理信息的数字)。但这一评估在多个方面具有误导性。仅仅拥有更多的参数并不能使一个人工智能系统比另一个更好,特别是如果没有相应的数据和计算能力的增加,更是如此。在这种情况下,考虑到“悟道2.0”通过组合来自一系列模型的预测,而不是作为单一语言模型来工作,参数计数的比较尤其没有必要,这种设计人为地夸大了参数计数。更重要的是,研究人员向模型提问题的方式有助于其在某些试验中的表现看起来比实际情况更强。百度的“文心一言”模型也令人失望。和“悟道2.0”一样,“文心一言”的开发也是受到了“跟上美国高科技突破”的压力使然,被吹捧为中国对ChatGPT的回应。“文心一言”的表现不及人们预期。百度发布活动只是展示了预先录制的操作示例,这表明它的聊天机器人不太可能和人们进行良好的实时互动。用户对它评价最多只能算是平庸,该款聊天机器人在一些简单的任务上磕磕绊绊,比如基本的数学或翻译问题。


▲3月26日,百度首席执行官李彦宏出席文心一言发布会,宣告国内首款聊天机器人诞生。


中国的人工智能开发人员面临着“跟上美国”同行的压力。2021年8月,斯坦福大学100多名研究人员合作发表了一篇关于基础模型(Foundation Models)未来的重要论文。该模型也是一种包含LLM在内的人工智能系统。七个月后,北京智源研究院(BAAI)发布了一篇类似的相关主题的长篇文献综述,联合署名者同样多。但在几周内,谷歌的一名研究人员发现,这篇中国论文的大部分内容都是从一些国际论文中“剽窃”来的(未经证实)。有中文媒体猜测,这可能是因为起草论文的研究生面临着极大压力,且论文期限很紧。对于中国即将在大型语言模型领域的发展和崛起的,美国人不应该感到困扰。中国的人工智能团队正在努力跟上其他领域新研究和新产品的迅猛发展速度,但往往以失败告终。在大型语言模型方面,中国落后于其国际竞争对手数年,而不是数月。


中国人工智能行业的外部力量也阻碍了创新步伐。由于LLM的巨大计算需求,国际上对半导体的竞争不可避免地影响了人工智能的研究和发展。中国半导体行业生产的芯片比最新的尖端芯片落后几代,迫使许多中国实验室依赖美国公司开发的高端芯片。在最近对中国LLM的研究中,我们发现有17款LLM使用了总部位于加州的英伟达公司(NVIDIA)的芯片。相比之下,我们只确定了3款使用中国制造芯片的模型。华为于2021年发布的“盘古α”是三个例外之一。该模型使用华为内部的昇腾AI处理器进行训练,计算能力似乎明显低于最佳实践中所建议的水平。尽管目前中国研究团队通过从亚马逊(Amazon)或微软(Microsoft)等云服务提供商租用硬件来获取美国尖端芯片,而且目前是完全合法的,但中国也担心,围绕半导体的日益激烈的言论和限制将阻碍中国AI企业的发展,束缚研究人员的手脚。


中国的经济前景、法律法规、话题尺度以及AI领域监管制度也对LLM的开发和部署带来独特影响。许多中国初创企业现在选择将业务基地设在海外,并向国际市场销售,以此寄望更易获得外国投资,摆脱国内严格的监管环境,同时也避开美国对中国公司施加的限制。而且,企业要在人工智能反应的价值和避开不受欢迎的话题之间的平衡。国际企业也在摸索和应对这种平衡。开发人员将努力尝试,既要让聊天机器人正常有效的回答大多数提问,但又要让它不越过红线。


在法律制度方面,2023年1月中国发布的《互联网信息服务深度合成管理规定》适用于使用生成AI的在线服务提供商;4月11日,中国发布的《生成式人工智能服务管理办法(征求意见稿)》进一步将要求扩展至人工智能产品之外的研发实践。有些规定清楚明确,有些则比较复杂,需负有一定的法律责任。在精心设计的情况下,监管不一定会阻碍创新。但到目前为止,中国对LLM和其他生成AI技术的监管是严厉的。


美国的幻想恐惧症


尽管目前面临困难,中国的人工智能发展可能会出现转机,并取得更大的成功和创新记录。然而,美国人历来高估其竞争对手的技术实力。在冷战时期,对苏联能力的夸大导致美国官员根据假设的(美苏间的)“轰炸机差距”和“导弹差距”来制定政策,而后来这些差距被证明是虚构的。不应让与此类似且毫无根据的焦虑决定美国人工智能监管的进程。毕竟,人工智能公司已经要求对社交媒体公司进行监管,尽管受到了后者的抵制。五年前,Facebook创始人马克·扎克伯格(Mark Zuckerberg)警告国会,拆分他的社交媒体公司只会增强中国同行的实力。相比之下,在人工智能领域,行业高管们正在积极呼吁监管。



在AI监管方面,美国最有可能落后于其他国家。中国最近对生成人工智能的监管规定建立在其现有规则和详细的数据管理制度之上。欧盟正在以《人工智能法案》(the AI Act)的形式通过人工智能相关的新规则。该法案将对AI技术的风险水平进行分类,并对LLM提出额外要求。虽然美国目前还没有采取相应的监管措施,但美国的政策制定者在人工智能领域表现得可能比人们通常认为的要好。


美国联邦政府已经起草了全面的框架来管理人工智能的风险和危害,包括白宫发布的《AI权利法案蓝图》(Blueprint for an AI Bill of Rights)以及美国国家标准与技术研究院(National Institute of Standards and Technology)发布的《人工智能风险管理框架》(AI Risk Management Framework)。这些文件为如何应对AI这一通用技术的多方面风险和危害,也包括益处,提供了深入的指导。美国现在需要的是立法,落实这些框架中的关键原则,以保护公民的权利,并为AI研究的快速发展设置护栏。


还有很多问题需要解决,包括新监管机构的选址、第三方审核者的角色定位、透明度的要求以及出现问题时的责任划分。这些棘手而紧迫的问题将决定该技术的未来,应该是政策的焦点所在。如果政策制定者出于“中国掌握人工智能”的幻想,阻止对AI进行监管,他们只会损害美国的利益,危及国家的繁荣。






►►►

推荐阅读


中国外交新格局——《中美聚焦文摘》最新期解读


中乌领导人通话的三重效应


完成换届后的中美两国如何互动?


一边是龙一边是鹰:亚太国家的中美选择


小马科斯的南海迷航:失速,偏航,还是相撞


华邮专栏:维也纳会晤让中美关系出现新希望


美债违约风险:党争闹剧让华盛顿功能失调


中俄军事关系不会越过“既定红线”


尹锡悦访美促成《华盛顿宣言》的意义


今天伊朗和沙特阿拉伯缓和关系,明天俄罗斯和乌克兰休战?


香会未见中美缓和迹象 美欧会议再现对华分歧——美国外交一周观察


中美聚焦网|中美交流基金会

点击下方名片关注我

觉得好看,就点个“在看”:)

 ↓↓↓

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存