查看原文
其他

全球生成式AI应用全景图:AI应用进入大爆发时代

(报告出品:华金证券)

一、生成式 AI 应用进入大爆发时代

1)驱动因素:大模型、算力与生态的共振

生成式人工智能是自个人 PC 出现和互联网诞生以来最具颠覆性的技术创新,随着大模型以及 ChatGPT 等一系列“杀手级”应用的诞生,生成式 AI 在文本、图像、代码、音频、视频和3D模型等领域展现出了强大的能力。当前生成式 AI 的发展仍处于起步阶段,未来有望为全球经济创造数万亿美元的价值,并对各行各业的工作方式产生重大影响。在生成式AI 产业突变的背后是人工智能技术数十年的积累和酝酿,其演进历程具体可分为四个阶段:

1)专家系统:上世纪 50 年代前后,人工智能开始萌芽,基于规则的专家系统占据主导,这一时期,使用复杂的逻辑规则,能够处理包括字符匹配、词频统计等一些简单的任务,机器翻译以及语言对话的初级产品,1966 年 MIT 发布的世界上第一台聊天机器人Eliza可以看作生成式 AI 最早期的产品之一。Eliza 能够根据接收到的文本,遵循简单的语法规则来模拟与人类用户的对话。与此同时,专家系统存在词汇量有限、缺乏上下文和过度依赖规则等缺点,生成创造性内容的能力非常有限;

2)机器学习与神经网络:1980 年美国的卡内基梅隆大学召开了第一届机器学习国际研讨会,标志着机器学习在全世界兴起,20 世纪 90 年代以后,神经网络作为一种新的生成人工智能方法出现了。神经网络受到人脑的启发,能够以基于规则的系统所不能的方式从数据中学习,带来了AI 技术的突破,AI 可以开始基于神经网络创建逼真和有创意的内容;

3)深度学习:2012 年后,深度学习在人工智能领域中的应用将生成式AI 带入了一个新的高度。深度学习作为一种基于神经网络的机器学习方法,通过大规模的数据特征学习,对不同场景具备很强的自适应性,同时可以通过增加层数和节点数,实现对更复杂的问题的解决,提升了模型的准确性和真实性,并且基于分布式计算和 GPU 加速等技术,能够训练更大规模的数据和更大尺寸的模型。直到现在,生成式 AI 依然建立在深度学习的基石之上;

4)大模型:2017 年,Google 发布著名论文《Attention is All You Need》,提出了基于一种新的神经网络——Attention 注意力机制所构建的模型 Transformer,2018 年OpenAI 和谷歌分别推出了 GPT 模型以及 BERT 模型,均是在 Transformer 的基础上构建,Transformer 及GPT模型标志着生成式 AI 在文本领域的重大飞跃。与此同时,伴随着VAEs、扩散模型、神经辐射场、CLIP 等一系列生成算法和多模态模型的不断成熟,生成式 AI 的时代正式开启。

模型、算力、生态推动为 AI 应用进入大爆发时代:1)算法及模型的快速进步:2017 年 Transformer 模型及2022 年ChatGPT的发布标志着GenAI 在文本领域的重大飞跃,并在多项能力上超越了人类基准,随着未来更强大的语言大模型(如 GPT-5),以及多模态大模型和视觉大模型的技术突破,将带动AI 应用的持续进化。2)算力基础设施将更快、更便宜:虽然短期内大模型训练需求的激增导致了算力成本的持续上涨,但是随着英伟达算力芯片的不断更新迭代,微软、亚马逊、谷歌等在AI 云服务资本开支的不断加大,AI 应用的发展将得到更加强有力的支撑。3)AI 生态的逐渐成熟:AI 组件层(AI Stack)的完善和产业分工细化,为AI 应用在模型训练、数据整合、应用开发、应用部署等环节提供全生命周期的支撑。

本轮生成式 AI 的技术的最大突破来自于底层大模型,GPT 作为当前全球最强大的语言大模型,从 2018 年 5 月 GPT 初代版本,到 2023 年 3 月的 GPT-4,仅5 年时间模型的性能就产生了质的飞跃。在 GPT 模型快速进化的背后,一方面是对训练方法的持续迭代,从GPT-1的半监督式学习,到 GPT-2 舍弃了微调阶段,再到 GPT-3 的 In-context 学习和海量参数,以及引入了基于人工反馈的强化学习之后的 ChatGPT;另一方面,在模型参数规模扩大背后,是OpenAI对研发和算力的持续高投入,通过“大力出奇迹”的方式,支撑了模型参数和训练数据的快速膨胀。GPT-4 相较于之前版本的 GPT 模型,在推理能力、文本生成能力、对话能力等方面有了大幅提升之外,在许多能力上已经超越了人类基准。同时大模型作为能够在海量、广泛、非结构化数据集(例如文本和图像)上进行训练的大规模深度学习模型,它的强大之处不仅在于文本生成,大模型可以适应各类不同的任务,不仅可以用于聊天机器人,同时也可以用来创建新的蛋白质序列,并且当前已经成为了图像、代码、音频、音乐、视频和3D 模型等各种模态应用的底层框架。

随着大模型家族的不断丰富,出现了单向/双向、开源/闭源等不同的技术路线。

1)单向/双向:在 Transformer 模型 2017 年诞生之后,2018 年OpenAI 和Google发布的GPT-1 和 BERT 采用了 Transformer 不同的框架,6 月OpenAI 发布的GPT-1仅使用了Transformer 的 Decoder 框架(单向架构),10 月,Google 发布的BERT 模型采用Transformer的 Encoder 框架(双向架构),作为一个拥有 3 倍 GPT 参数量的更大体量的语言模型,BERT在当时的多项测评以及业内影响力等方面,要领先于 GPT 的初代版本。2020 年,随着GPT-3的惊艳表现,单向模型在语言生成方面的优势开始展现(特别在大参数情况下),Decoder路线逐渐占据主导,当前主流大模型大多采用 Decoder 框架或大Decoder 小Encoder 框架。

2)开源/闭源:大模型的开源/闭源,与 iPhone/Android、Windows/Linux 有类似之处。包括 GPT-4,以及谷歌的 Bard、Claude 等大模型均是闭源模型,优势在于性能强大和易于上手,目前依然是绝大多数海外主流生成式 AI 应用的首选;而 LLaMA2、Stable Diffusion,Eleuther,GLM130B,OPT,BLOOM 引领的开源模型优势在于灵活性和低成本,特别llama2的发布,宣布支持商业化,让应用层的公司可以以非常低成本来使用大模型,可以基于开源模型进行私有化部署并实现差异化功能的开发。在过去的一年里,开源阵营模型的能力和数量有了显着的提高,开源框架目前也正在成为越来越多应用的选择。

目前大模型的应用已经不局限于 NLP 领域,包括图片、语音、视频、代码等多种模态的应用开始涌现,而大模型、生成算法与多模态等底层技术的突破成为了AIGC的质变的关键。一方面,目前大模型可以广泛适用于各类下游任务,当前已经成为了AIGC 的底层框架。许多跨领域的 AI 应用均是构建于大模型之上,能够解决多任务、多场景、多功能需求,支撑各种模态的生成;另一方面,包括生成对抗网络(GAN)、变分自编码器(VAE)、扩散模型(DiffusionModel)、神经辐射场(Nerf)等快速涌现的生成算法,以大模型为基础,能够创造出文字、图片、语音、视频、代码等各种模态的内容,而基于此之上的多模态应用开始涌现。

1)文本生成:目前技术最成熟的领域,随着新一代大模型的发布,未来将看到更高质量的输出、更长形式的内容和更好的垂直特性;2)图像生成:过去一年技术进化速度最快的领域,2014 年出现生成对抗网络GAN是图片生成的主流算法,但一直存在对输出结果控制力弱,难以生成新图像等缺点。随后扩散模型、CLIP 模型等技术的成熟,文生图的能力大幅增强,包括 DALL-E2、Stable Diffusion等主流文生图应用均是基于扩散模型所构建;3)视频生成:目前尚未有非常成熟的视频生成算法,许多应用还是依赖于图像生成的算法;4)3D 模型生成:3D 模型生成还处于早期,其中这一领域关键算法神经辐射场(NeRF)于 2020 年于 ECCV 会议上提出,目前已经成为 3D 模型构建的主流算法,并广泛应用于游戏、数字人、虚拟现实、增强现实、电子商务等领域,未来具备广阔的应用空间;5)代码生成:GPT-4 等大模型具备很强的代码能力,未来将会对软件开发人员生产力产生重大影响,同时能够使非专业开发人员更容易生成代码;6)音频生成:音频合成在技术和商业化上已经非常成熟,近年来大模型和优化算法的成熟能够基于大量音乐数据集训练和优化算法来创建 AI 虚拟歌手,更加趋近于真人发声效果,典型应用如:AI 孙燕姿;7)其他:从生物蛋白质分子模型到其他垂直领域,许多行业都在进行垂类模型的研发。

在语言大模型和多模态多模态大模型快速取得质变的同时,视觉领域的基础大模型VisionTransformer(VIT)在 2020 年诞生后,近三年语义分割、目标检测、图像分类、实例分割等主要视觉任务上的能力均有明显提升。Vision Transformer(VIT)于2020 年由Google提出,可以看成是 Transformer 的图形版本,在尽可能少的改造下将标准的Transformer 模型直接迁移至图像领域变成 Vision Transformer 模型。Vision Transformer 最初用于处于图像分类任务,2020年很多后续的视觉模型都是基于 VIT 建立。为了将 Transformer 模型适用于图像,VIT将图像切分成很多子块并将这些子块组成线性嵌入序列,然后将这些线性嵌入序列作为Transformer的输入以模拟在 NLP 领域中词组序列输入。

当前视觉大模型相当于 20 年前后的语言大模型:1)Transformer 于 2017 年由 Google 提出,Vision Transformer 于2020年提出;2)当前最大的语言模型已经超过万亿参数量级,当前最大的视觉模型刚刚达到百亿参数量级;3)从 GPT-2(2019)开始,语言模型开始具备通用能力,而当前视觉模型基本仍只能处理特定视觉任务。

巨头持续加码算力基础设施,未来 AI 算力将更快、更便宜,并更好的支撑应用层的快速发展。多年来,英伟达 GPU 性能的突破的基本遵循摩尔定律,GPU 的晶体管数量每两年增加一倍。近年来,随着芯片架构的进步以及张量核心和 Transfomer 引擎等功能的引入进一步提高了英伟达 GPU 的吞吐量和效率,GPU 进化的速度超越了摩尔定律。同时除了硬件之外,英伟达围绕CUDA 构建的软件生态系统,为开发人员提供端到端的解决方案,简化了人工智能应用的开发、部署和管理,已经成为了各行业人工智能的操作系统层。除英伟达外,全球科技巨头均在加速算力侧的布局,其中软件厂商开始自研芯片,而硬件厂商则在搭建算力平台,包括微软、亚马逊、谷歌、甲骨文和 Facebook 等软件及云服务巨头正在加大对AI 算力云服务的资本开支,并提供更丰富的 AI 云服务模块、涉及 NLP、机器学习、计算机视觉等各个领域;另一方面,微软、亚马逊、谷歌等均在加大自研 AI 芯片的投入。因此虽然短期来看,大模型训练的需求的急剧增加推高了算力成本,但随着未来芯片性能的快速进步以及 AI 算力供需的逐渐平衡,应用层的发展将得到更好的支撑。

AI 组件层(AI Stack)是 AI 生态的重要组成部分,为模型训练、数据整合、应用开发、应用部署等提供支撑,AI 组件层的完善和产业分工细化,代表AI 生态的逐渐成熟。AI 组件层具体包括了模型训练、数据整合、应用开发、应用部署等几个关键环节,各环节均已经初步跑出了一系列组件工具,可预见随着各个头部工具厂商不断拓展自身的产品线,AI 组件层的一体化和平台化程度会越来越高。除了新兴厂商之外,IBM、埃森哲、德勤等IT 咨询公司也推出了AI 解决方案,来支撑 AI 应用的开发与部署,具体来看:1)应用框架:通过提供了一套组件和接口,将开源模型、API 和数据库等不同的外部组件链接在一起,能够帮助应用开发快速构建基于大模型的 AI 应用,来简化应用的开发和创建过程,代表厂商包括 LangChain,Dust.tt,Fixie.ai,GPT Index 和Cognosis。2)数据整合:由于基础模型仅限于对训练它们所依据的事实进行推理,而应用和垂类模型需要使用时效性强以及垂直领域和私有数据来推出面向专业领域的应用,特别是在金融、医疗等专业性强以及天气、体育、新闻等实效性强的领域,应用程序开发人员需要模型调用外部数据源,通过外挂等方式来实现数据整合,而非再次训练底层大模型。涉及工具包括了向量数据库Pinecore 、 Chroma 、 Redis 等 、 上 下 文 窗 口 LangChain 、LlamaIndex 等、数据加载器 Unstructured.io 、Databricks 等。3)模型训练:应用开发对底层模型有多种选择,可以选择由Open AI、Anthropic或Cohere等供应商创建的闭源模型,或者使用开源模型,以及可以选择训练自己的模型,而且模型尺寸、模态、输出质量、上下文窗口大小、成本和延迟各不相同,最佳设计通常需要开发人员在使用多个模型的组合。涉及到的 AI 组件包括:模型库 Hugging Face、Replicate 等、深度学习框架TensorFlow、PyTorch、DeepSpeed 等、训练工具 Mosaic、TOgether、Cerebras等,托管服务 OctoML、Vertex AI 等。

4)评估工具:一方面,在模型训练过程中,开发人员需要使用多种工具来实现模型的快速开发和迭代,基于数据来驱动提示工程、超参数、微调、模型相关的实验,相关工具包括Statsig、Comet、Mlflow 等;另一方面,在应用部署后,应用厂商需要跟踪底层大模型的性能、成本、延迟和行为随时间的变化,了解模型输出的质量,防止恶意使用以及控制大模型的成本,相关工具包括 WhyLabs、datadog 等。5)应用部署:将 AI 应用部署到实际应用环境中,可以采用Fixie 、Gradio等框架,或者采取第三方厂商的服务来完成应用的部署实施。

2)产业现状:一二级视角看 AI 应用的演进

随着 GPT 以及扩散模型等底层模型和算力能力的突破,生成式AI 应用在近3年来取得了跨越式的发展。当前时点,B 端应用场景逐渐成熟,AI 应用即将进入全面商业化阶段。

1)2021:GPT-3 催生出第一批生成式 AI 应用。2021 年第一批生成式AI 应用诞生得益于2020 年 5 月 GPT-3 的发布,相较于 GPT-2 及其他语言模型,GPT-3 在机器翻译、聊天问答和文本填空上等语言任务上有着非常出色表现,并且开始能够完成一些比较困难的NLP任务,比如生成新闻报道和撰写文章。因此从 2021 年开始, 包括 Jasper AI 在内第一批基于大模型生成式人工智能应用诞生,大多是基于 GPT-3 的能力,并以类 SaaS 服务的形式进行收费。JasperAi在成立当年就收获 7 万名用户、营收额达到 4500 万美元,2022 年翻倍达到8000万美元,仅用18 个月时间速成为一家估值 15 亿美元的 AIGC 独角兽。

2)2022:AI 作画的爆发与 ChatGPT 的发布,22 年是生成式人工智能的元年。22年随着扩散模型等生成算法的突破,一系列 AI 作画应用相继诞生,其中包括了MidJourney、Dall-E2、Imagen 等在线文生图应用,以及 Stability AI 的开源模型 Stable Diffusion ,AI 图像生成的效率与精度提升到了前所未有的量级。22 年底,生成式 AI 的“杀手级应用”ChatGPT正式发布,基于对超大规模数据的深度学习,ChatGPT 在文本生成领域的能力得到了空前提高。除此之外,各种视频生成(Make-a-Video、Imagen Video),以及 3D 模型生成(DreamFusion、Magic3D和 Get3D),包括代码生成工具 GitHub Copilot 开始受到广泛关注。

3)2023:C 端应用面临洗牌,B 端应用即将进入全面商业化。23 年生成式AI 在基础模型实现了持续的突破,GPT-4 发布的大语言模型在多项任务上进一步提升,而开源模型Llama为初创企业和其他企业提供了一个强大的免费选择,和 OpenAI 的闭源模型阵营形成竞争。在模型能力快速进化的同时,一方面是各类生成式 AI 的项目数量开始激增,另一方面,B端应用在处在商业化的前夜,自 3 月微软发布了基于 GPT-4 的 AI 办公助手office Copilot,此后包括企业服务、营销、低代码、安全、教育、医疗、金融等领域的 AI 应用开始陆续发布。7月份,Microsoft365 Copilot 公布定价,为每个用户 30 美元/月,同时全球 CRM 龙头Salesforce宣布正式向所有用户开放 AI 产品,并给出了单个产品每用户每月 50 美元的定价。随着两大软件巨头AI 功能定价发布,AI 应用将正式进入商业化落地阶段。

年初以来,海外科技股在 AI 引领下持续上涨,AI 算力基础设施层公司率先受益于AI 产业浪潮,其中英伟达是 AI“掘金买铲”逻辑的核心受益者,其次为微软、Google、AWS、Oracle等头部云服务厂商和大模型厂商。当前生成式 AI 中的很大部分收益流向了基础设施层,根据海外风险投资机构 Andressen Horowitz 的粗略估算,应用厂商平均需要将20-40%的收入支付给云服务商或大模型厂商,同时大模型厂商通常也会将近一半收入用于支付云基础架构。因此总体上,当前生成式 AI 总收益的 10-20%流向了云服务商,其中大部分集中三朵云上:亚马逊云(AWS)、谷歌云(GCP)和 Microsoft Azure。而在更底层的则是英伟达的GPU,其主力AI 芯片A100、H100 承载了绝大多数 AI 模型训练与开发,占据 AI 服务器硬件成本的近90%,英伟达凭借强大的芯片性能以及 CUDA 软件生态系统,围绕 AI 算力建立了深厚的护城河,毫无疑问是本轮生成式 AI 的最大受益者。此外包括网络设备(Marvell、Arista、博通),数据存储(MongoDB、Teradata、Snowflake),服务器(Smci)等环节的基础软硬件厂商也均有不同程度的受益。

目前 AI 应用特别是 B 端的应用还处于早期,应用层从商业化以及兑现时间来看预计要晚基础设施层 2-3 个季度,今年以来头部应用厂商股价同样也有所演绎。今年年初至今涨幅靠前的AI 应用公司有:Palantir(136%)、shopify(92%)、Salesforce(67%)、ServiceNow(52%)、Palo Alto Networks(74%)、Adobe(67%)、Duolingo(109%)、LegalZoom(46%)、TTD(78%)。相较于 AI 基础设施厂商已经能够从模型训练所产生的巨大需求,来验证到订单和业绩,美股 AI 应用公司业务基本集中在 B 端,大多还处于产品打磨阶段或者商业化早期。部分赛道上龙头公司包括 MS、Salesforce、ServiceNow、Shopify 已经发布了生成式AI 产品,其中MS、Salesforce 公布 AI 产品的定价,预计从今年 Q4 到明年Q1 能够看到B端应用商业化的初步落地,此外也有部分公司如 Palantir、Palo Alto Networks 的生成式AI 产品已经在实际场景中得到应用且已经带来了明显的收入贡献,但大多数 B 端的 AI 应用厂商还尚未进入到实质性商业化阶段,因此总体来看,AI 应用层厂商从兑现节奏来看要明显晚于基础设施层。

今年以来 GitHub、Replit 等开发者社区的 AI 项目实现了爆发式的增长。根据斯坦福大学在 22 年底发布的《2023 年人工智能指数报告》中的数据,全球最活跃的开发者社区GitHub上的 AI 相关项目数量近 10 年以来稳步增加,从 2011 年的 1536 个增加到2022 年的347934个,而在今年以来,GitHub 上 AI 开源项目迎来了大幅度的增长,截止8 月底数量达到了91万,相较于去年全年的增幅达到 264%。同时,根据另一开发者社区Replit 的数据,2022年第四季度以来,人工智能项目激增,23 年第二季度末 AI 项目数量达到了30 万个,其中16万个项目是在23 年第二季度创建的,相较于 23 年第一季度环比增速达 80%,而相较于去年同期数量增长了34 倍,且现在仍处于加速增长的趋势。

OpenAI 在大模型上依然具备统治级地位,同时基于开源模型项目数量正在快速增长。根据开发者社区 Replit 的数据,截止 2023 年二季度,95%以上的应用项目均是基于OpenAI 的模型来构建,而包括 Cohere、Cohere 以及 Google 在内的其他模型合计占5%。同时,开源模型的数量正在快速增长,Hugging Face 和 Replicate 作为开源模型的API 和SDK提供商,是开源模型的重要入口。23 年二季度,Replit 平台上开源模型的项目超过5000 个,相较于Q1增长了141%,其中超过 70%的项目使用了 Hugging Face,但 Replicate 的使用量增速更快,Q2相较于Q1达到了约 6 倍的增长。此外,截至 23 年二季度,Replit 上有近25000 个活跃的LangChain项目,其中 2 万个是在二季度创建的,比一季度增长了近 4 倍。

从投融资情况来看,2023 年是生成式 AI 创纪录的年份。根据海外知名投融资数据平台CBInsights 的统计数据,截至 2023 年第二季度,生成式 AI 的投融资数量达到86 笔,总金额超过141 亿美元,相较于去年全年的 25 亿美元,增长了 4.6 倍。其中,今年以来筹资金额最多的五家公司分别是:1)OpenAI:全球人工智能研发的领导者,今年 1 月获得了微软的100 亿美元融资;2)Inflection:于 6 月宣布完成 13 亿美元的最新一轮融资,由微软、英伟达和三位亿万富翁牵头投资,Inflection 于 5 月推出了首款产品即个人 AI 助理PI,主打陪伴以及为用户提供情绪价值,成为人工智能领域融资量仅次于 Open AI 的第二大初创公司;3)Anthropic:由前 OpenAI 员工创办,语言模型 Claude 的开发商,是ChatGPT的主要竞争对手,今年以来融资金融达到 8.5 亿美元,其中年初谷歌投资了3 亿美元,5月完成了4.5亿美元 C 轮融资;4)Adept:发布了自研的大模型 Action Transformer (ACT-1),今年3 月宣布获得来自包括微软、英伟达在内的 3.5 亿美元 B 轮融资;5)Cohere:主要业务是给用户提供应用大语言模型的 API,帮助用户创建特有使用场景和独有数据的大模型,今年 6 月获得了 2.7 亿美元的 C 轮融资,投资者包括英伟达、甲骨文和Salesforce。根据 Turing Post 的数据,截止 23 年 8 月已经 15 家生成式AI 公司达到了10亿美元+的估值,主要为大模型的开发商及 AI 工具厂商。其中,这 15 家公司达到独角兽估值门槛的平均时间仅近 4 年,而平均而言达到独角兽门槛的需要 7 年左右的时间。

从应用层的融资中,人工智能助理(AI Assistants)获取的的资金最多,其次为文本、图像、代码及音频的生成。根据 CB Insights 的数据:1)生成式交互(GenerativeInterfaces)总体上占据了应用层融资的大部分,其中主要包括 AI 助理、通用搜索、生产力和知识管理,自22年第三季度以来共有 23 笔交易,金额达 27 亿美元,其中绝大多数资金流向了AI 助理;2)其次为文本类应用,主要包括社交媒体、市场营销、AI 伴侣、文本总结、邮件工具等领域的生成式 AI 工具,自 22 年第三季度以来共有 24 笔交易,融资金额达6.4 亿美元;3)视觉媒体类应用紧随其后,项目设计图像视频编辑、合成数据、视觉广告,产品营销,产品设计等领域,共有33 笔交易,总金额达 3.9 亿美元;4)代码同样是生成式 AI 的热门领域,应用领域包括代码生成、自动化命令行、代码检查、代码搜索、网站及应用创建等。

3)应用框架:应用的四大赛道与产业逻辑


(本文仅供参考,不代表我们的任何投资建议)

文琳编辑

免责声明:转载内容仅供读者参考,观点仅代表作者本人,不构成投资意见,也不代表本平台立场。若文章涉及版权问题,敬请原作者添加 wenlin-swl  微信联系删除。

为便于研究人员查找相关行业研究报告,特将2018年以来各期文章汇总。欢迎点击下面红色字体查阅!

文琳行业研究 2018年—2023年8月文章汇总


今日导读:点击下面链接可查阅

公众号 :文琳行业研究

  1. 2023中国科技产业投资风向调研报告

  2. 中国基金会行业助力ESG发展白皮书2023

  3. 2023金融机构转型白皮书

  4. 2023年中国普惠金融行业洞察报告

  5. 2023年金融数据中心人工智能算力建设指引

  6. 关于中国各类金融通道业务的深度解析(建议收藏)

  7. 消费金融机构ESG实践报告(2023)

  8. 2023商业银行智能决策能力建设白皮书

    ▼长按2秒识别二维码关注我们


《文琳资讯》

提供每日最新财经资讯,判断经济形势,做有价值的传播者。欢迎关注

今日导读:点击下面链接可查阅

  1. 重磅利好,央行最新发布!

  2. 阿里大消息!

  3. 人民币突然爆拉!发生了什么?

  4. 聊聊带货一哥李佳琪翻车背后的资本逻辑

  5. 股权财政化,或许已经不远了

  6. 第四次买房总动员进入高潮,跟还是不跟?

▼长按2秒识别二维码关注我们
公众号 :就业与创业
点击下方可看

▼长按2秒识别二维码关注我们




继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存