查看原文
其他

朱民:发展人工智能是中国推进全球化的重大责任和机遇

朱民 清华五道口高管教育 2023-11-28


1月7日,清华五道口在线大讲堂“2023特别策划之大师系列讲座”推出开年首讲。本次讲座邀请到中国国际经济交流中心副理事长、IMF原副总裁朱民,以“AI 2.0和全球化的未来—中美竞争和战略”为主题,分享他对近年来全球人工智能发展动态的观察和判断,以及对于中美战略竞争形势变化和全球化未来的深入思考。本文是根据本次讲座的文字实录,在不改变原意的情况下进行的整理和编辑。



人工智能(AI)2.0和全球化是当今世界相互交织的两条线:一边是人工智能迅猛发展,从1.0走向2.0阶段,越来越多地进入物理世界;另一边是美国挑起针对中国的科技战,对全球化造成巨大影响,世界从“慢全球化”滑向“逆全球化”。


人工智能的发展和全球化的未来何去何从?中美竞争的格局下中国如何找到自身定位?这是一个很大的课题。我想从一位经济学家的角度来分享自己的观察和思考。



人工智能2.0


 一、从信息时代进入智能时代


在信息时代,信息可以随时随地、零成本地获得,其使用者、决策者是人类,并且是以应用程序为优先,数据只是数字化服务的副产品。到了智能时代,信息被机器和程序使用的频率呈增长趋势,数据先于应用存在,数据让机器变得智能化,而智能化的系统可以处理更多数据。由此可见,从应用程序优先变成数据优先,是两者之间的重大区别。


当世界从信息时代走向智能时代,人类的认知也在发生根本变化。人类智能的发展模式是始于观察,再从观察走向科学、科学走向技术、技术走向产品。在科学走向技术的过程中,能够用数学语言来进行表达是特别重要的一环。相比之下,人工智能的发展模式是始于数据,从数据中产生知识,再从知识到产品、产品产生新的数据进而驱动下一轮迭代,这是一个不断循环的过程。想象一下,人类有史以来第一次发现了另外一个获取知识的途径——机器认知。机器认知不完全模拟人类认知,它与人类的认知是平行的,因此它可能探索到人类意识不到、观察不到的东西,从而扩大知识的绝对空间。这是一个革命性的变化。除此之外,人工智能的发展模式还有两个特征,一个是从数据到服务社会的路径比人类认知更短、更有效,再就是数据与知识是一体两面的关系——数据产生知识,知识创造数据,所以数据的流通、产生、应用变得非常重要。


 二、AI 1.0走向AI 2.0


在人工智能的发展过程中,一个重要的转变是从1.0阶段走向2.0阶段。AI 1.0是以编程和模型为中心,其基础仍然是人类认知,主要聚焦模型的特征、算法的设计以及定型的结构设计和框架,有了模型再用数据去学习和发展,而且训练用的数据是外生的。


AI 2.0是以数据为中心,数据的规模和质量日益成为获得理想结果的关键因素。模型可以相对固定,但更重要的是关注数据的定义、管理、切割、扩充、增加、修正等,使得数据更加有效。数据的规模、质量,以及在数据基础上的训练,是人工智能发展的重要基础,所以对数据进行有计划的标注、分类和迭代是关键。这个过程需要机器和人类专家共同参与,以专家的知识编码推动数据的迭代、发现和发展,反过来再补充和充实专家的概念和假设。专家的工作流与机器的工作流共同形成未来的成果,人与机器共同探讨未来,这是人工智能的根本变化。


 三、AI 2.0科技树枝繁叶茂


大模型的出现,是从AI 1.0到AI 2.0的里程碑式转折点:


  • 2017年,谷歌提出Transformer,引入自注意力机制,成为绝大多数大模型的基础架构。

  • 2018年,OpenAI提出预训练模型GPT,谷歌提出预训练语言模型BERT,参数量小余10亿。

  • 2020年,OpenAI公开大型语言模型GPT-3,参数量达到1750亿。

  • 2021年,谷歌提出Switch Transformer超大规模预训练模型,参数量1.6万亿。

  • 阿里发布M6多模态模型,参数量10万亿。


大模型的发展是很重要的一个方面。规模赋予了人工智能泛化能力和通用性,让人工智能技术上实现了一系列的突破:


  • 在基础模型方面,Transformer成为基础架构,从自然语言处理(NLP)走向计算机视觉、AI赋能科学研究(特别是结构生物学蛋白质和RNA结构预测),以及人工智能生成内容(AIGC),很快就进入到技术膨胀期。

  • 生成式人工智能(Generative AI)走得非常快,Diffusion Models的应用面非常广,发展突飞猛进,一下子进入技术膨胀期。

  • 以数据为中心的人工智能进入技术的萌芽期。

  • 因果人工智能进入萌芽期,它是因果关系与人工智能结合的产物。

  • 复合型人工智能,是将连接主义和符号主义相结合实现多元使用,现在进入到萌芽期。

  • 神经AI是神经科学和人工智能的交叉研究,虽然目前还处于萌芽期,但是它的前途非常广阔。


可以看到,AI 2.0发展得非常迅猛,就像一棵树,一下子就变得枝繁叶茂。


从人工智能技术的Gartner曲线上可以看到,因果人工智距离成熟期还有5-10年;基于物理的人工智能刚刚起步,但只要2-5年就有望成熟;以数据为中心的人工智能、决策智能、复合型人工智能、风险安全管理、生成式人工智能、合成数据等人工智能技术也都在快速走向成熟期。我们目前在使用的人工智能技术,如自然语言处理、人工智能云服务、自动驾驶、深度学习等,尚处于泡沫破裂后的复苏爬坡阶段,而新一批的AI 2.0技术正在快速追赶上来。


 四、人工智能“从虚向实”


目前另一个讨论得比较多的话题,就是从自然语言处理(NLF)逐渐走向图像、视频、代码等多模态模型,例如2021年发布的文字到图像生成模型Dall-E,还有清华大学推出View2开放模型。从文字到图像,看似是一个简单跨越,但其中的技术内涵和潜在发展空间非常巨大。这意味着人工智能生成内容(AIGC)的范围将得到极大扩展,包括用文字生成图像,还有文字到代码、文字到视频、音频、3D图像,甚至已经开始应用到蛋白质结构的分析、预测、生成。


人工智能正在进入物理世界。以2018年AlphaFold1的发布为标志,分析蛋白质的AI模型不断涌现。目前在AlphaFold数据库公开的各类植物、细菌、动物的蛋白质数字三维结构已达200万个。大家仔细想想,如果我们能够把所有蛋白质的结构都数字化,这对生物学、医学,对全人类的生命健康而言都将是一场里程碑式的改变。基于AlphaFold模型基础的研究已经催生大量的学术文章,从2019年到2021年的三年间,相关论文发表数量增长了10倍。


机器学习预测高阶药物组合现在也走在前列。机器学习最大的好处是可以把病人药物反应、动物的反应、药物有效性等结果综合起来,做成闭环反馈,加快训练、研究、迭代的过程,以前研发一种新药的时间以十年计,现在这个周期可以大幅缩短。


人工智能还在突破性地进入物理科学,尤其是在数学和材料科学。在人工智能参与进来后,构建出一个数学家与机器学习模型相互作用的两个工作流——数学家提出假设,计算机产生大量数据的实体变量,由机器学习模型模拟拟合数据,决定最接近的相关投入,数学家根据结果微调和优化假设,这个过程不断重复,直到假设被大规模的数据支持。人与机器合作探索物理世界,这是一个重要的核心突破。


人工智能在材料领域的应用也有很多。例如,德克萨斯农工大学(Texas A&M University)开发了人工智能框架用于寻找耐氧化高熵合金(HEA)。高熵合金有很好的耐高温性能,在航空航天、核反应堆、化工设备等领域具有广泛且重要的用途。新研发的这种人工智能框架可用于预测高熵合金的性质,将计算筛选的时间从过去的几年缩短至仅仅几分钟。


与此同时,人工智能凭借规模优势,越来越多地应用在复杂场景电子模拟,例如地理空间传感测量融合、自主和自动化硬件平台、电子战争模拟,还有AI主导的自动操作和人工操作的混合运行模拟。


最近,可控核聚变研究取得了突破性的进展,人类第一次实现核聚变产出的电量超过输入电量,这里程碑式的突破,核聚变发电对人类碳中和事业,对于全球新能源版图,都将带来根本性的改变。人工智能在这次的成功中发挥了很大作用。在托卡马克实验装置内运行的极高温等离子体非常不稳定,要通过动态调整电磁线圈对其进行约束,但是这种调整需要在一秒钟内进行几千次以上,以前的程序很难完成,现在人工智能解决了这一问题。这是一个了不得的巨大发展。


 五、小结


综上所述,人工智能正在从以编程和软件为中心的1.0阶段走向以数据为中心的2.0阶段。大模型推动了人工智能的通用性和泛化,让人工智能突破量子力学的“维度诅咒”,也推动了科学研究走向“第四范式”——从开普勒、牛顿时代基于观察实验的第一范式,到爱因斯坦时代基于数学演算的第二范式,再到计算机时代基于模拟仿真的第三范式,第四范式是以数据为基础,完全靠人工智能学习来实现。所以AI 2.0变成了赋能科学研究的重要基础工具。


人工智能过去主要应用在信息服务业领域,现在它正在走向控制、管理和优化物理世界的运行,用我的话说就是“从虚向实”。最典型的就是材料和蛋白质,这两个都是物质世界运行的基础。所以人工智能越来越趋于成为工程科学、科学研究、科技创新和经济活动的工具和基础设施。


更重要的是,人工智能已经开始独立探讨人类的未知世界。过去以程序为中心的时候,它还是在人类认知的基础上探索未来,如今人工智能从数据出发,以一种与人类认知并行的状态独立探讨未知领域,这一定会颠覆整个世界。上述种种决定了,AI 2.0将成为未来全球科研、创新和经济发展的竞争前沿。



中美AI发展对比


了解中国人工智能的发展水平,比较直观的办法是与美国做一些比较。许成钢教授团队最近发布了《中国人工智能指数报告2022》,在这里引用一部分他们的成果。


 一、中美AI论文对比


2000年至2021年,中国在期刊上发表的人工智能论文总量已经超过美国,中国大约10800篇,美国9100篇。但美国参加会议的论文数量超过中国,因为很多一流的论文通常是在会议上发表,而不完全在期刊上发表。2022年,美国作者发表的AI论文数量仍高于我们,但美国的论文增幅只有11%,中国尽管在数量上低于美国,排在全球第二,但中国的增长速度达到24%,整体中国的人工智能论文已经处于世界前沿。


从论文发表单位看,清华大学今年发表的论文数量全球第一,增长速度也是最快的,达到27%。紧随其后的是微软、谷歌,卡耐基梅隆大学一直是人工智能研究的大本营,现在排在第四位。


论文的核心还是在质量。从中美AI期刊论文引用数看,中国的引用数在2018年开始超过美国,但是在会议论文引用数方面,美国仍高出中国一倍。因为美国的论文是以参加会议为主,中国因为参加会议相对较少,所以还是以期刊发表为主,这是中美之间很重要的一个区别。


众所周知,重要的突破往往来自于少数最优秀的研究成果。在论文方面有一个概念叫“极高引用论文”,也就是引用量超过1000次以上的论文,意味着这是极其高质量的论文。2000年至2018年,美国发表了47篇被极高引用的期刊论文,中国5篇;2015年,美国发表了32篇被极高引用的会议论文,中国7篇。可见美国的高质量论文仍然领先很多。


从论文领域看,中国论文更多涉及与监测有关的领域,如自动化、目标辨识最终、场景理解、行动和语言识别等,很多都与计算机视觉有关。美国比较多的是语音识别、文字生成、文字归类和问题回答,这些都涉及自然语言处理。


 二、中美AI专利对比


中国人工智能相关专利公开数量在2018年超过美国,2021年中国专利数量12.12万件,高于美国的7.32万件;2000年至2021年,中国专利公开数为48.4万件,占全球的25%,但仍然低于美国的70.2万件。


中国人工智能相关专利的影响力(总引用数)和质量(平均引用数)仍落后于美国,但差距正在逐渐缩小。2021年中国专利被引用4.52万次,低于美国的5.26万次;平均被引用数0.37次,低于美国的0.72次,也低于世界平均水平0.42次。2000年至2021年,中国专利被引用总数是146万次,大概只有美国的11%,也低于日本的152万次。可见我们的专利质量还在提升过程中。


从细分领域看,我们的专利主要分布于机器人和自动驾驶、计算机视觉、机器学习领域,中国在这些方面的专利高于美国。而美国在自然语言处理、语音处理、生物医药、人工智能硬件(芯片)等领域仍据世界第一,相对中国的优势仍然很大。


另外美国专利的申请者大部分(90%)是企业,中国只有30%是企业,高校占70%,所以在中国存在一个很重要的课题,就是如何将高校科研成果转化成企业的应用。


 三、中美AI开源框架对比


评价人工智能发展水平很重要的一个方面是开源框架,因为开源框架要集合人工智能各个方面的能力,包括硬件、软件、组合、构思、标准等。开源框架完成之后需要有人关注和使用,这也从一个侧面反映出这个框架的质量如何。通常是用开源框架的“星标”来作为评价标准——星标越高,说明影响力、流量就越高。目前美国开源框架的星标数量大概是中国的9倍多,所以我们的开源框架还是一个弱项。


一个很有趣的现象是,美国和全球开源框架的重要贡献者中,有相当多的人是中国工程师和开发者。全球15个开源框架的主要贡献者,有60%来自中国,21%来自美国。美国主导的9个框架,来自中国的主要贡献者为59人,超过美国的52人。可见我们有优秀的人力资源,有很强的动手能力,但是欠缺大的框架搭建和组织能力,生态的发育还不够成熟。


 四、中美AI大模型对比


前面讲到大模型很重要,全世界的大模型美国占50%,中国占30%。Google最新的Switch Transformer,参数达到1.6万亿个,GPT-3的参数是1750亿。中国大模型的数量和规模也都走在前列。目前阿里M6是全世界规模最大的大模型,参数量达到10万亿,除此之外还有智源的悟道2.0,华为的盘古,清华和智源合作的CPM-2等等。


从分类上看,美国大模型的类型比较单一,以语言类模型据多,也有少量视觉模型。中国大模型有不少是“语言+视觉”混合型,因为中国的长项在计算机视觉。目前人工智能的发展方向正逐渐从视觉走向语言,尤其大模型是以语言类为主。


中美大模型的发展还有一个很大区别,就是大模型生态。美国的大模型是由基础设施公司在开发,应用公司可以使用不同的大模型来提升应用体验和商业化,所以商业生态发育得好。相比之下,中国基本上是各公司和机构根据自身需要研究底层大模型,应用偏垂直,生态还不健全。这也突显出构建商业生态、建设商业基础的重要性。


 五、中美AI独角兽对比


与美国相比,中国人工智能独角兽的数量和估值差距仍然很大。目前美国的AI独角兽数量是292家,估值4.6万亿美元,中国有69家,估值1.4万亿美元。这与商业模式和金融环境有关,也是未来人工智能竞争的一个重要支点。


 六、小结


我国AI领域的论文发表数量已经赶上美国,相关专利公开数量在2018年超过美国,但是论文和专利的质量相比美国仍有较大差距。中国开源框架的整体发展水平落后于美国并且差距较大,但是美国开源框架的很多重要贡献者来自中国。大模型是AI 2.0最主要的竞争领域,中国大模型走得很快,但生态的构建和商业应用还有很大发展空间。放在全世界来看,总量、规模和速度我们都有,现在需要的是质量,需要逐渐提升到前沿。



逆全球化


 一、从慢全球化到逆全球化


根据彼得森国际经济研究院所做研究,如果用贸易开放指数(贸易占GDP的比重)作为衡量全球化的指标,全球化大致经历了五个阶段:1870年至1914年基本平缓,在两次世界大战期间下降,二战之后蓬勃上升,1980年后又一次大规模上升,2008年之后开始放缓。因此2008年之后的这段时间可以称为“慢全球化”时代。


全球化包括贸易、投资、数据、知识、技术、人力等多种要素的流通。2008年之后,国际贸易占比和外国直接投资(FDI)流动开始停滞和下降,被快速增加的全球数据和知识流动取代。然而,美国在2008年之后转向建立贸易壁垒,并且在高科技领域寻求更多封锁,尤其是近两年不断挑起针对中国的贸易战、产业战、科技战,使得数据和知识的流动也趋于放缓,慢全球化逐渐滑向逆全球化。


在慢全球化走向逆全球化的过程中,最为尖锐的对抗就是科技脱钩。科技是推动全球化的重要因素和动力,因为科技可以提升劳动生产率、节省资源和劳动力、降低物流成本,互联网让技术得以在全球范围快速普及,使用成本大大降低。科技研发活动的日趋全球化也是全球化的一个重要方面,这推动了科技要素在全球范围的优化重组,为发展中国家带来大量新机遇。


 二、从贸易脱钩、产业链脱钩到科技脱钩


在逆全球化的过程中,美国一开始提出贸易战,然而并没有起到他们想要的效果。如果从2017年开始算的话,中国对美国的贸易出口额上升了40%左右,贸易盈余更是增加50%。原因很简单,因为中国是世界制造业大国,中国制造的产品质量高且价格合理,而美国需要大量商品,可是自己又不制造,所以这不是贸易政策问题,是生产和制造的问题。


当美国人意识到贸易战起不到作用之后,于是将目光转向生产,提出“友岸外包”政策,推动产业链、供应链与中国脱钩。一些外国企业为了规避可能受到的影响,分离了中美业务中的供应链,还有公司开始采取“中国+1”的战略,分散对华投资。然而,中国有全球门类最齐全、最完整的产业体系,是全世界唯一拥有联合国产业分类中全部工业门类的国家,美国要想实现完全的转移和脱钩不那么容易。


在此期间,美国不断强化对华出口管制,列入“实体清单”的中国企业从2018年的164个,猛增到现在的528个,其中大部分是高科技企业,并且近年来还开始将大量科研机构和人员纳入管制范围。截至2022年底,被美国列入各类限制清单的中国实体数量已高达1156个。


美国逐渐意识到经济竞争的最前沿其实是科技。于是采取更有策略性和针对性的限制措施,对新的通用技术实施进出口管制,推动技术和知识跨境传播的脱钩,确保本国产业获取垄断收益。可以说,西方现在选择了一种“技术重商主义”战略,将技术和知识的流动作为经济脱钩的前线,它也将成为未来去全球化的主要形式,而不是贸易和金融。


 三、美国升级对华科技战


去年8月,美国政府推出了一项“芯片法案”,一方面旨在扶持美国半导体产业,用2500亿美元支持本国半导技术研发,530亿美元支持本土半导体产业发展,另一方面就是全面遏制中国半导体产业和技术。如果更深入解读这个芯片法案的话,可以发现美国已经意识到自己在半导体领域并不具有压倒性优势,为了保证和扩大其半导体领域的领先地位,政府必须参与进来,而这恰恰是美国一直批评的产业政策。


拜登政府相信人工智能的变革潜力将对未来造成巨大影响。2022年10月7日,美国政府针对中国宣布了一项新的人工智能和半导体技术出口管制政策。这是对科技战的重大升级,也是对市场经济规则前所未见的破坏。这个政策有几个相互关联的要素:1.通过切断高端人工智能芯片的渠道,扼杀中国人工智能产业;2.禁止中国获得美国开发的芯片设计软件,从而阻止中国在国内设计AI芯片;3.封锁美国制造的半导体设备,阻止中国制造先进的芯片;4.封锁美国制造的零部件,阻止中国在国内生产半导体设备。


可以看出,美国已经意识到中国在人工智能方面追赶得非常厉害,已经与美国并驾齐驱。当两者不相上下时,要阻止中国人工智能的发展,釜底抽薪之计就是斩断中国的硬件(芯片)来源。目前英伟达(NVIDIA)公司的芯片是人工智能研究论文中最普遍使用的芯片,也是中国AI科技公司和大学使用最多的研究芯片。没有芯片怎么做研究?AI怎么发展?这对中国人工智能的发展有很大冲击,我们面临很大挑战。


 四、小结


全球化正在放缓。美国针对中国挑起贸易战失败,供应链脱钩的效果也收效甚微,于是瞄准了科技脱钩。在这个过程中,美国的脱钩政策变得越来越具有策略性和针对性,这将对我国和世界AI发展带来重大影响,也将决定全球化的未来。



竞争AI制高点


在AI/科技脱钩的背景下,中国如何竞争AI制高点?我们的战略是什么?


我的观察是,中国的AI发展需要结合科技战略做相应调整,根据自身情况扬长补短,走出一条具有中国特色的AI发展之路,同时要认识到发展中国的科技和人工智能是推动全球化新浪潮的重大历史责任和机遇。基于这个目标,我们需要新的战略,特别是要发挥我们的优势,我认为可以分为以下几个层面。


第一、发挥制度优势,从顶层设计全面制定国家AI发展战略。AI已经越来越变成战略竞争的前沿阵地,所以我们需要设立国家级的AI战略机构,制定AI发展目标和规划,并以国家AI发展基金提供支持,推进人工智能开源体系建设,加强AI大模型的开发和建设,从追求数量转向追求质量。


第二、国家战略支持人工智能赋能科学研究,推动人工智能和其他学科的交叉,特别是与数学、材料科学、生命科学和生化科学等方面的结合,来推动中国科学研究进入第四范式。


第三、发挥我国的市场和规模优势,推动以市场为基础的商业化AI发展。AI发展需要与科技创新和产业发展相结合,这其中很重要的一环是构建平台和生态系统,协调开放式大模型的资源配置,建立高校、科研机构与企业开展联合创新的机制,促进技术成果转化。


第四、推进数据资产化,发挥中国数据大国的优势。特别要强调的一点是,当AI走向以数据为中心的2.0阶段,数据就成为了重要资源。中国是数据大国,预计2025年全球数据产生量将达到175个ZB,其中48.60个ZB将来自中国,超过美国的30.6个ZB,成为全世界最大的数据产生国。相比之下,我们2018年的数据产生量还只有2.76个ZB,美国是6.9个ZB。因为我们的物联网发展得很快,结构性数据多,这让我们的数据优势变得更加明显。但是,怎样发挥这个优势,是现在面临的一个大挑战。中央最新发布的“数据二十条”为构建我国的数据基础制度体系提供了重要的框架和指引。


把数据变成生产要素,很重要的一步是让数据资产化。只有资产化,让它可以流动、交易和使用,数据才能从潜在资源变成实际资源。这其中有几个核心工作:1.发展计算机内生的安全性和向善性;2.定义数据的所有权,以及所有权、使用权、经营权和分配权的分离;3.平衡保护隐私和共享使用;4.市场激励机制和分配函数;5.制定法律框架和监管框架;6.参与全球数字资产治理机制。


我们在这方面有基础,可以走在世界前沿,但是也要处理好几个方面的挑战。首先是技术挑战,主要是隐私安全计算。现在MPC同态加密、联邦学习、安全沙箱计算也已经相对成熟,基本可以保证把数据洗干净,拿出去共享使用。第二是交易挑战,要把所有权、使用权、经营权和分配权分离。因为单个个人和企业拥有的数据肯定有限,如果数据被垄断,不能流通,数据的使用就难以实现规模化。第三是估值挑战,也就是数据资产的金融化。这涉及到很多方面,包括数据拆分、市场化定价、数据交易等,有很多的工作要做。


在数据资产化的基础上还需要构建商业化模式。现在我们已经出现数据平台交易模式,特别是在医疗数据方面,有很多小型的平台,有些地方政府也开始开放生态、数据和场景让企业使用,都是好的进展。但是要实现大规模,未来还需要构建数据银行模式、数据信托模式,我称之为“数据公社”的模式,让大家共同使用,分享价值,这就是未来的数据资产商业模式,当然这还是需要做很多的探讨。


上面提到的都是中国的长项。那么中国的短板在哪?是硬件,所以美国用科技战卡了中国在硬件上的脖子,这个影响很大。那怎么办?中国要运用自身在数据、市场、规模、科技人才上的优势,把数据资产化,让数据动起来,让它变成最重要的生产要素,之后把我们的市场资源、人力资源用起来,推动人工智能向前发展,用数据和算法来弥补和对冲算力上的约束。与此同时,我们还是要推动高水平开放、加大国际合作,构建中国的人工智能主场。有的人要打科技战,我们就要大搞科技开放,大家共同合作和研究,构建国际学术交流平台,以此防止科技的脱钩。


当今世界正处在震荡和巨变的节点上,当人工智能发展突飞猛进之际,我们遭遇科技脱钩这样的外部环境,未来的发展面临巨大挑战。然而,中国人工智能在过去十多年里也在快速进步,我们有数据基础、人力资源基础、论文基础、科研基础,我们有信心也有能力继续走在世界前沿,并由此推动整个全球化的发展。


(本文版权由清华五道口高管教育所有,未经授权不得转载。)



继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存