查看原文
其他

【出海同学会干货】NO.86期 - AI Infra & Application可能的创新与演化方向

出海同学会 出海同学会 2024-02-07



导语

随着ChatGPT和其他人工智能工具的密集涌现,AI又回到了硅谷创业的舞台中心。最近我们大量地与硅谷AI创业者展开交流,一方面,新的创新形式,新的行业机会让我们不禁期待新一代巨头呼之欲出。另一方面,一些现有巨头(如苹果)已经官方禁止员工在工作中使用ChatGPT,一些企业在LLM等方面的焦虑尝试也预示着新一轮的演化甚至洗牌的可能。


第86期同学会闭门会,我们联合Ant Group与Oceanbase,一同研讨了目前LLM与应用细分可能的创新与演化方向,以及行业最为关注的资源与挑战。以下是此次闭门会的可公开部分。




- 本期课代表同学 -

STUDENT ON DUTY





  • AIRudder, CEO, 任腾

  • Artsio, CEO, 和成

  • Google, Senior Engineer, Catherine Yin

  • Leonis Capital, Investor, 肖文泉

  • 六禾创投, 合伙人, 陈璧葵

  • 蚂蚁集团, 硅谷AI实验室负责人, 徐鹏

  • 蚂蚁集团, OceanBase CTO, 杨传辉

  • OceanBase, 北美战略总监, Eileen

  • Meta, ML Engineer, 贝翼杰

  • Mistletoe AI, CEO, 蒋璇

  • Redrock Biometrics,Co-founder,杨骅

  • Renaissance Intelligence, CEO, 马毅聪

  • TikTok, Product, 戴高乐

  • Waymo, Tech Lead, 黄迪

  • 译心致远, CEO, 刘斌

(*按公司名数字-字母序)

部分同学因公司PR保密不能露出外发内容

我们同样感谢他们的精彩输出




要点问题


1、AI 在Infra层面的发展现状和未来趋势?

2、你在哪些行业和领域看到亮眼的 AI 应用案例? 

3、AI 带来的多是应用微创新、产品体验优化还是商业模式的颠覆式创新?


1

AI 在Infra层面的发展现状和未来趋势?




蚂蚁集团 徐鹏 


生成式AI,或大语言模型也好,本质上并没有解改变语言模型这个东西,没有那么大颠覆性。本质是什么?稍微讲一点所谓大语言模型的历史,2005年在Google时我们开始做,想把大语言模型做大,当时是在 Google 翻译团队,那个时候大模型不是深度学习模型,但是它够大,把整个web上的数据全都拿下来做统计,那时候是统计的模型,应用效果也还是不错的,但是没有用生成的方式去做,直到后来做了深度学习的语言模型。


最早做深度学习语言模型在我的印象里是Benjo,在大概1999年、2000年,那时候是一个 feed forward model,因为算力等各种原因也没有往前继续发展,直到后来用了 RNN 模型去做才发现效果上明显比之前有一个大的提升。我记得应该是2010年左右,用RNN模型去做生成,生成的东西看上去也像是那么回事,只是没有当成产品级的东西。


直到2017 年 transformer ,也没有把它当成生成的模型做,只是用更好的方法处理上下文、建模等等,纯粹的从语言模型本身角度出发,技术上面已经做得非常好了。但是生成式到底是不是宣传那样有智能、有推理,需要持续探索。


ChatGPT 之所以能火,从 OpenAI 的角度也是一个意外,并不是他们认定一定能火,可能他们大概一年前就知道有这个意外,他们也还在探索到底带来的东西是什么,边界在哪里,是不是能带来新的各种范式变化也好,各种智能提升也好,我觉得现在也都还是未知的,所以我不觉得现在已经出现一个笃定的、有变革的、智能的东西,在我看来更多地是对于已有技术的更加创新式应用。


关于这股风潮,我觉得主要还是微软的功劳,我收集到的信息是2022 年的上半年,微软看到 GPT3.5和GPT4的能力之后,应该说是惊为天人。整个公司关于大模型的训练,把资源全都集中到OpenAI上面,等我们知道的时候,已经投入了可能超过半年的时间了。这半年多的时间微软已经放弃了自己在大模型上的探索,基本上所有的工程师都在拥抱 OpenAI 的API做应用,所以应用推出得非常快,对微软来说,看到了一个可以打败 Google 的好机会。


在不是那么核心的业务广告和搜索的业务上去跟 Google对决,但真正的杀手锏是365 Copilot,规避了所有大模型的缺点,因为最终的决策是在人上面,是给人做辅助工具的。这个生态加上他的云是非常好的,所以这一波,我自己感觉是微软在后面的推动的痕迹非常明显。


大模型可能在国内的热度比在硅谷的热度要高很多。这几年疫情,包括元宇宙并没有真正做起来,投资到底往什么方向投,在手上有资金的人很多、但是值得投的方向并没有那么多的情况之下,可能也是一个原因。






Waymo 黄迪 


我同意的一点是技术和模型本身没有巨大的变化,但是变化在于首先 OpenAI 创建了一套非常成熟和高效的 training data Infra,这套东西 enable 了,这个 model 可以在海量的数据中高效的训练,导致当你 scale up 这个 model 的 parameter 以后,它就有了很多能力,我们叫做它对世界的 word knowledge 还有 emergent 能力。


这几个能力不是因为 model 本身所带来,当然有 in context learning,有RLHF,这些东西加起来以及 data scale 才导致了整个AI 进入了一个新的阶段。为什么很多人觉得这是一个新的阶段,我们可以再想一下,以前 AI 是怎么 work 的,以前每一个领域里都像一个外包公司,大家搞data,human labelling training,最后 deploy 都是在customize。


但是有了 foundation model,出现了不太一样的地方,foundation model 经过少量数据的fine-tuning,或transfer learning,就很具有跟以前 model 一样的效果,极大地提升了 customization 的效率。在这个 foundation 之上,我们可以 build 新的各种各样的application,而不是像以前那样,要给每一个 vertical build 开发一套,这是一个本质的不同。






蚂蚁集团 徐鹏 


从Infra角度是完全正确的, OpenAI 他们最强的应该是Infra的能力以及对数据的处理的能力,使得他们能够做很多实验,去趟很多坑,别人可能没有这个能力。


从这个效果上来说,我自己的观点是 ChatGPT 也好、GPT4 也好,实际上并没有在真正的下游任务上有特别明确的提升。当你在一个主观的场景下去用的时候,就是一个见仁见智的问题;当给你一些惊喜的时候,往往会放大惊喜,但是可能看不到它做得不够好的地方。


他们做 Instructgpt 这篇文章的时候,实际上也做了很多工作,让它在一些下游任务上不要做得太差,也就是说,如果只是用在下游任务上,可能不如传统的大模型做得更好。但是它在跟人交互时,可以通过上下文的理解,做得非常到位,给人的感受上面是有一定的冲击性的,这个冲击不是做下游任务的人,不是只看一个数字的时候。因为数字是冷冰冰的, 80% 、83%,我们可能没有什么体感,但是以这种交互方式出来的时候,你的体感可能就会非常强烈,这里有一定的主观因素。当然它在下游任务上做的并不是多差,只是说它不见得是最好的方式。






Meta 贝翼杰 


我个人觉得现在的生成式大语言模型,跟之前的语言模型确实是有一些区别,从最早的纯基于统计的语言模型,它可能也是生成式的,可能是基于已有的词看 Michael chain更大概率会出现哪个词,去做采样,再后来RNN出现了,大家开始搞 sequence 模型,生成的时候做一个 beam search 之类的,每次找出它最有可能产生的下一个词,再下一个词。这些模型在参数比较少的时候,有可能会曲线趋向于更传统的对机器学习模型的理解,它是在对数据做某种意义上的分布拟合。


以前也出现过类似的情况,当你把一个模型的参数变到特别大时,在test data set 跟training data set 上面,或者 evaluation data set 跟 training data set 上面,出现 double descent 的情况,两边的效果都变好了。这时候拟合现象已经有各种各样的方式去解释它,但是这个拟合现象已经不太直观了。


现在对 GPT 的语言模型的能力的解释,有一种说法它是涌现,它的结模型结构也比较简单,就是 decoder base 的一个transformer,你只是把数据数模型参数加大了,把它的数据总量加大了。


从另一个角度看,现在也是一个时间点去思考,人类的智能本质到底是什么?之前 account 提出过如果要做AGI把深度学习模型作为perception 的机制,不管是视觉还是各种各样的输入,最核心的decision making可能是需要有一些 symbolic 的东西存在,不能纯纯不可解释、纯黑盒。有没有可能人类智能的本质也是一种幻觉,就是说人其实并不存在真正的智能,当你看过了足够多的东西之后,再加上一些随机性就形成了所谓的智能。


现在最大的模型大概是人脑神经元数量的 1/1000 左右,跟人脑的神经元量级还是有一定差距的,但有没有可能,当你把参数量、数据量继续加大的时候,当看过这世界上的很多东西的时候,出来的模型已经超过了你训练它数据集本身,那它就真的存在了一种创造性。这是我觉得会不一样的点,就是生成的东西是否已经超越了数据集本身。






六禾创投 陈璧葵 


我们现在很多人都在说大语言模型是不是有逻辑推理能力,这是智能一个特别重要的指标。但我自己也在想,我们小时候读书做题,可能看一眼,心里面大概知道怎么做,我能猜答案,历史上有一些数学家比如说拉马努金就是这样。因为他的猜想,人一辈子根本做不出来,所以说有很多perception,天知道怎么想出来的,有些人就是看了就知道。人的认知是这样,可能机器的发展,AI 的发展也是这样。未来可能还有一些机器,还有一类的 AI model 就是非常逻辑性很强这样的一套计算机的模型。


从能量方面的角度,人因为作为生物要生存下来, perception 是一个相对来讲 energy efficient 的方法,可能最开始也能够比较容易做出来。而为了证明任何一个黎曼猜想,费马大定理,都是人花了5分钟猜了一定理,后面搞了100年,这是一个非常 energy inexpensive 的事,可能后面还有相当长的时间,我觉得就把他看成一个阶段性的,如果我们期望达到人的智能,是属于非常重要的一个milestone,后面还有很长的路要走。






译心致远 刘斌 


高级智能核心点就两个,第一是要有自我意识,你知道镜子里是你自己,普通的生物,像鱼你也不确定它有没有。第二个是要有预测能力,对未来有预测能力,是在于你的人生是由你的历史经历和选择决定的,就跟西部世界里面一样。核心就是我们之前所有的搜索推荐,用搜索做了15年,我们觉得巨大瓶颈是无法真正的对人、包括角色做定义。

现在 token 2万,它最大的变革不在于大模型,是在于 token 数一旦到了几百万、上千万以后,这就是你的人生,一旦人生能够进行全部的记录和代入计算,就是在模拟整个人的意识,包括平行宇宙。有一种方法可以把硅基基础上,甚至把平行宇宙的模拟论的撞击全部模拟出来,这个是远高于现在所谓的统计学。


我们看公司厉不厉害两件事,第一是不是足够的个性化,第二看它的 token 处理量是不是足够大,能够完成一个角色,当他的角色和个性能够仿造一个世界的时候,那么异次元空间的骗就真的会出现。


也就是说三体小宇宙就在我们的身边,一花一世界,一树一菩提。所以在这些完了以后,我的世界观发生根本已经转变。和北京大模型团队讨论为什么要革命,就是假定奇点到来还有几十年,我们如何完成文明升级?现在文明已经遇到巨大瓶颈,如何在火星再建文明,最后人类能够走出太阳系,我们对这个要上升哲学层面,才能够完成自己人类蜕变,才能探索高文明。







Redrock Biometrics 杨骅 


我觉得中国绝对是有大模型的,百度一直跟这边跟得很紧,我们一定会搞出自己的大模型。另外一点,我一直在想大模型是一个大公司的事情,做我们普通的小公司或者是作为在这里头想找一些应用的人,到底有没有机会?如果说大模型最后能达到白菜价,所有的费用价就跟现在用 Internet 一样,到底是线性的还是非线性的。如果说它最后是非线性的,成本能够低到跟 Internet 一样,那就是完全的一个突破,或者是整个生活方式会改变。


如果说各大模型有一定的限度,所有的问题还是要用第二级的一些专业的模型去解决,这个地方我们还是有机会的。回到刚才开始的那个问题,就是百度、腾讯或者是阿里串出来的大模型,我相信最后不会比这边的更差,有任何的区别,唯一的区别可能就是关键词上可能会加一点限制。






蚂蚁集团 杨传辉 


硅基、碳基生物,刚好跟中国跟美国是有关联的。换一个角度来看这个问题,到底是碳基还是硅基,没人能说得清楚,对我们整个业界的影响是什么,我觉得不影响3年之内对大模型到底能发展什么程度的一个判断,但是影响10年以上的一个判断。比如今天 GPT4、5都可以,三年之内一定会在很多的领域上相比原来的模型做得更好,这是一定的。这个方式有点像当时的数据库的统一,放到我的本行里,AI以前有一个东西叫workflow,我们要做AI要先做 feature engineering,连在一起其实很麻烦,但做数据库,做Infra的人,所有人都想做一个数据库,因为数据库只要SQL,所有人都搞定。


如果大模型出来以后,假设他们在所有的细分领域上都不比现在的差,而且成本能够降下去,效果也差不多,基本上能够慢慢有点越来越像数据库一样靠近成为一个标准化的东西,这是对3年以内的看法。


在10年以上,所有人都是一个炼丹的,三年以后它的模式,通过不断地加数据、涌现也好、dot,不管是任何一种方式,现在所有人都讲不清楚原因,这个模型能走到 3 年之后吗?10 年之后会是什么?没人知道,但至少可以享受这 3 年,不管是 bubble还是应用也好,确实这三年可以做很好的应用。


基本上三年以内的事情,比如大模型OpenAI至少探出了一条路,这条路在很多个领域里面是有优势的,中国所有的大公司一定会快速赶上,而且跟美国的同类的产品基本上到同一个水平,可能只比最高那个差,但是比第二梯队的都要更好,这是第一个判断。这一定是这样的,每一个领域都是这样的。就像当年华为去怎么替代思科是类似的道理,包括比亚迪电动车其他的应该都能超越,除了没超越特斯拉。我们就是有这个优势,永远可以保持迭代领先2到3年。


关于成本的问题,我觉得肯定会,第一是算力的问题,第二是它有一些连接的问题,不只是说单个chip能力的提升,很多时候这种连接变好了,连接的问题与算力的问题,相对来说,连接的问题更难解,更难迭代,但是硅迭代的是非常快的,所以一定会降低的。



提问:没有人能确定ChatGPT 到底有没有推理能力,是不是真的有智能。ChatGPT 能够把互联网所有的数据全部训一遍,把互联网的知识全部学了,作为一个人的辅助,从这一方面讲有没有特殊的机会?





蚂蚁集团 徐鹏 


我可能更关注的是技术本身,对于机会的话,我自己并没有特别多的考虑。

但是从微软的应用上来看,我觉得在辅助方面的机会肯定是非常大。另外就是刚才王老师讲,有一些数据上的问题,因为不同的应用,不同的行业,数据还是有差异的,在数据上面怎么样通过大模型把自己数据壁垒效果做到更好,应该是有机会的,也就是大模型之上和实际业务的中间层可能有一定的机会。


另外现在大家可能还是处在对于他的经验时期之内,他无所不能,什么地方都要用大模型,不论什么东西,只要不提大模型,事情就没办法做了。这一点,从技术角度来说是比较危险的,毕竟是要看成本和收益的,大模型的成本在降不下去的时候,收益不见得能够支撑得起来各种不同的应用。从我是个人来说是坚决拥抱大模型,但是会以比较审视、乐观的态度去看应该怎么驾驭它,而不是说盲目的投入它。



2

你在哪些行业和领域看到亮眼的 AI 应用案例?



Renaissance Intelligence 马毅聪 


我们是做AI 图像的,修复行业是一个垂直领域,而且很小众,我们现在都还是在用比较传统的干模型,不是在用现在 stable diffusion 类的generative。


AI 修复是一个比较窄的东西,模型规定不一定非要一个大模型才可以做得好,我相信如果用 stable diffusion 一类的模型,也可以eventually可以做得很好,我们就没有必要那么高的成本去做这么一件事情,就回到了 return investment 的问题,反正现在基本上我们还是没有用到大模型的,但是今后有可能是一个方向。





Mistletoe AI 蒋璇 


在这个行业数据很重要,音视频其实已经积攒了很多年的数据了,到目前为止还没有特别好的利用它。做虚拟人这一块,是因为我们的一个客户本身是菲律宾的直播平台,他们有很多的用户,问题是主播creator 这个赛道摁不住,主要原因是因为主播进来时是因为疫情,实际是一些明星,疫情结束之后这些主播的时间和回报不受他们控制,所以都流失了。

 

对于他们平台方来说,最大的问题就是,我如果 marketplace 两边打不平怎么办,那需要是我的主播我怎么样自己制造?做一个 agency 或者培养一堆的 MCN 的话,就是国内的做法。他们的想法是我们打出一条新路,我们自己去造 IP 或者是 license,用技术来实现整个业务。

 

我觉得这个逻辑是很 make sense 的,一方面是数据有了一个非常好的应用场景,产生很多新的dynamic。比如他们有一个historical,这个 IP 常年没有被用过的,重新 revige 之后引起一波training。IP 的限制就被打破了,再加上用户数据的一些反馈。

 

跟刚刚讲 reasoning 这些东西可能不是特别相关,它比较泛娱乐性,所以在大模型上的应用不是准确为主,而是怎么在娱乐方面有一个突破。用户的反馈数据跟用户的反馈是非常重要的,在这上面的进行训练有很大的意义。在人力成本上以及平台方来说,对他们来说控制 creator side 的一个方式。






TikTok 戴高乐 


从另外一个视角跟大家分享一下,我们都在聊与众不同、颠覆性的应用的场景,这个东西是可能在移动互联网在之前都没有的,通过 AI 我们可以做到,我觉得这个最终是会实现的。

 

前几天跟别人聊一个很有意思的观点,移动互联网最开始娱乐性的东西都是什么?大家记得就是 iPhone 最开始出来的时候爆火的游戏,水果忍者,就你在手机上划水果,从今天看10年前的应用会觉得这么简单,但是在当时就是一个全新的交互,会让大家觉得很酷,它最终不是留下来的产品。


现在我们可能看移动互联网时代诞生最大的娱乐的应用,音视频领域的短视频,短视频是快手2012年转型以后才开始第一个把短视频做出来。Musically 也是 2014、2015 年的事情,但是一开始可能是一些好玩的小的场景,我们从VC 商业的角度会去想这个大的场景是什么。先能拿它做一些什么好玩的,可能一开始并不大,但是最终有可能迭代成一个比较大的形态。

 

跟大家分享两个我最近看到比较有意思的应用,如果感兴趣的话,现在就可以在手机上面搜一搜,有一个叫memecam的产品,好像是一个丹麦的公司做的,他用了 GPT4 的接口,很简单,就是去拍一张图片,给你生成一个Meme,有时候特别搞笑,比如说拍一张椅子,他可能会告诉你说这个就是所谓的人生孤独感,就这种感觉。全部都是 AI 生成的,因为我做特效,我会比较关注这些东西,这些东西它撑不起一个应用的场景,你会看到一些全新的东西,之前没有过的。

 

我们做音视频主要都是在用 Gan 的 style transfer做图像的风格化,可能一直在2016 年以后成了所有的,包括我们TikTok、snap所有的第三方的视频创作工具的主流。现在大家又全部投入来搞AI,因为发现AI 可以创造出一些原来 style 只能做Gan,只能做风格的transfer,现在AI,本来就是一个普通的人,手里拿着一支笔,你可以给我搞成挥的一个剑,再砍一个怪物,它不能说是一个完全新的应用,但它就是一个新的场景,可能是过去的人没见过的东西。






Artsio 和成


在内容行业我们看到两个大的方向,底是功能性还是娱乐性,两个都是有价值的。娱乐价值、娱乐兴趣像前一阵大家看到 fashion pope 那些图片出来,各种 meme 其实很多的,包括 Elon Musk 用 midjourney 跟 controlnet大家去二创,这是一个很大的机会。在内容创作这一块,帮一些企业做的更多是从技术层面上怎么解决几个比较 specific 痛点,就是长视频怎么去提取出来短视频,高光时刻用 AI 自动提取,更多的是让 GPT 模型去理解视频的上下文,可以快速地把一个半个小时、一个小时、两个小时的长视频提取出来30 秒到1分钟的短视频,而且是极具传播力的,这是我们的一个应用场景。

 

我想说另外一个点,在落地时除了刚才的泛娱乐,它的 diversity 以及可传播性以外,另外一个就是在场景上的fidelity,在电商行业里我们做的生成图像类,对于一个品牌跟产品的细节保真度要求是极高的,即使你是换模特也好或者是化妆品上的文字也好,品牌方是希望完全能保持住的,而且同时希望它能达到一定的 debug state,也就是它的背景,适合的场景。所以最终在生成式这块有两个永远不变的评估指标,一个就是fidelity,一个是diversity,这是我们在落地层面上跟客户提前沟通好的点。






Leonis Capital 肖文泉 


我看到的一些 YC 的项目,估计大家也有关注,这一届的 YC 有差不多 五六十 家公司是做这个 AI 方向的,大部分都是应用层,我们看到了很多不同类型的公司,有一些就是 document editing文字方面的公司,跟之前像Jasper,GPT3时代的这一些公司比较像。第二种比较多的是 productivity 的tools,就是如何能够提升员工的工作效率。我们最近投了一家公司叫做Layup,他的创始人也是一个美籍华裔团队,他们做的一件事差不多是 AI 时代的Zapier,Zapier没有用AI帮你做automation,他们是你输入文字,帮你创立出一个automation,做这样的workflow。

 

另外在 YC 里面也有做很多,比如说 customer service,还有包括用语言模型图像生成模型去做漫画、视频生成应用的场景,其实是越来越多。垂类的话我觉得有几种还是挺有意思的,一个是我们看了两家是用语言模型解决医疗行业痛点的,有一个是帮你做insurance,到底保险公司保还是不保,做这样的 verification 的一个公司,在法律行业我们也是有看到帮律师整理材料的公司。

 

我总结一下观点,应用的场景非常多,大家其实不用去想语言模型应用就只有chatbot这一种形式,我们看到的最好的应用,它其实是润物细无声的,它融合在了应用之中,而不是把 AI 的成分凸显得很明显。







AIRudder 任腾


对应用层我们肯定是基于 GPT 之上,以前没有 GPT 的时候,我们就自己去 build 类似级别的模型。有了 GPT 就会有两条路线图,一条是基于传统的,一条是基于 GPT 的。GPT 起来之后,基于 GPT 肯定是我们必然要去应用的路线图,我们内部一直在思考的我们有两套交付模式了,其实 GPT 是有局限性的,至少此时此刻 GPT 的局限性其实非常大。

 

我们是帮助 call center 去做人机替代,电话的机器人理想情况下用户说完话机器人2秒内就要开口了, GPT 现在延时是非常重的,延时重就会导致机器人显得反应特别迟钝,这是其中一个局限性。还有一个局限性相对小一点,就是OpenAI,它有并发的控制,一分钟默认给所有的人都是350左右,后来我们把限制放宽了,但放宽之后其实也不足以支撑我们的应用,可能还要进一步要求他们再放宽,这是一个并发的限制。


还有一个限制是他们最近开始在某些领域,或者在某些讨论的内容上面做了一些限制,比如我们很大一类客户是金融,对金融的某些话题,会拒绝返回信息,我们在他之上去做肯定是有问题的。机器人不能说我拒绝讨论这个话题,那金融客户说咱还能讨论什么。这个事情现在肯定要做,我们肯定还是要启动一条新的交互方式,或者一种 pipeline 或者一种架构体系,去支撑没有这些限制的一种交付体系。


问题就是我们也不能同时维护三套交付体系,对于创业公司来说还是非常重的状态。所以我们就在讨论怎么样能够有一套更适合产业结构,就是我们的应用场景的一种交付方式。很有可能的一个结果就是也是基于某种大模型,我们自己去基于开源的也好,或者基于某种大模型 fine tune 出来,自己host,也会基于ChatGPT、甚至 GPT4这些模型,我们自动地去学一些信息,因为我们还是历史积累了很多真实的对话数据,基于 GPT4 可以训出来一些用于我们去构建机器人的应用范式。

 

其实大模型在我们这,一是在 Infra 的阶段是一个很重要的基础,另外就是它在整个机器人的产生以及交付,包括调优这些环节里边,不同的级别的模型也都会在我们的生产环境里面有很大的应用。这个就是我理解对 AI, 对于应用层的一些价值,并不是那么简单的说,在他基础之上就能把这件事做好。


可能短时间它能解决一些问题,但深入进去之后发现有更多的问题,每一个细分问题都要找到最佳解决姿势,去应用另一个可能是 OpenAI 也好或者其他的一些技术,把更多的细分问题都解决,才能把最终的应用层构建得非常的完善。



3

AI 带来的多是应用微创新、产品体验优化还是商业模式的颠覆式创新?



Google Catherine Yin  


我在美国待比较久,中国应用层面的创新比较多,美国核心技术创新比较比较多,ChatGPT 的出现就相当于当年安卓系统的出现一样,没必要非得去钻研做一个新的安卓系统。怎么样在安卓系统上发展出下一个Meta,下一个Uber,在现在的 ChatGPT 的 platform 上可以做出创新,这是中国在行的事情,在一个基础的核心技术之上再做application,面向 ChatGPT 的应用的一个拓宽,是中国在以后比较有发展的一块。我感觉大模型本身不是一个小团队就能做出来的,要大力的人力和财力,哪怕强如 Google 做出来的 bard 跟 ChatGPT 之间也是有差距的。


如果ChatGPT API 不对中国市场开放,发展下去的话就是逼中国自己做出来一套自己的安卓系统,但跟 ChatGPT 是有差距的,而在差距之上生成 application 的差距的话,现在不开放有可能会造成的一个difference。


Google 怎么应对微软这一波,内部有什么感觉?我可能很多工程师都会有 switch 了,如果我想找对于一个事情不同的观点,我可能会去 Google search 看一下WJc怎么说, business Insider 怎么说。但是如果我要一个确切的答案,我觉得很多工程师会直接去ChatGPT而不是 Google ,连内部的人员都会做,可想而言之外部的变化,而且还有一点,我不能说他到底有没有推理能力,但是我试过很多问一个 concept a 到 concept e,它能把中间的b、c、 d 全部就是我没有提过的词,它都能够给拿出来,还是很 impressive 的。


在座的都是搞技术人员,能够感受到AIGC的强大,但其他的行业可能现在还没有感受。我举一个最简单的例子,如果我能用 AI 去生成一个model,去生成一个模特去穿我的商店售的衣服,而且效果还很好的,那我干嘛要人来穿呢?我觉得它打辅助就非常powerful,包括对于程序员,能帮我们写很多非常简单的code,包括一些SQL,打得辅助非常强大,把现在的一些 APP 能够更加变得powerful。






六禾创投 陈璧葵 


我自己在美国和中国都投,中国的公司就像刚才这一位说的一样,执行力很重要,因为 IP 或者法律的protection的关系,做出来的东西往往很难留在公司。如果最后的执行没有做到,把桃子摘到你兜里面那一步之前都不是你的钱。你做得再好,下游的花3倍的工资,你的核心就去了,一个月以后人家就上线了,你就结束了,就是一个非常残酷的现实。


大家常说资本是短视的,我想说的是我们的资本是短视的,因为一直在造盘子,没有造碗,所以公司积累都是帮别人交学费,这是不好的。在美国我会去投有技术含量的,因为我心里面非常清楚,如果这公司哪怕有一天商业化做不下去了,他垮了,去卖人头、卖专利,我还能够卖出来一些钱。在中国完了就是0,我觉得这是最直接的。


再往后面去做,我会认为跟美国会跑出来两条路,中国还都是做application。后面一些真正研究性的工作肯定是大公司做,说白了就是有钱有闲,有资源能跑出来,开源的就跟在后面,我做不到你那么好,做你80%,下游就是一堆做 APP 的。


也就做 APP 如果圈到 500 万、 1000 万的用户,能够形成一定的规模、壁垒,有价值,那你就跑出来了,如果没有那就没有。在中国市场规模是唯一的壁垒,如果你是最大,你就能融到钱,把其他人都给买进去,其他都不是壁垒。


技术在中国市场是非常低的壁垒,做得太高反而消耗了自己非常宝贵的资源,所以我觉得最后也会有很多人做得很热闹。做得很热闹的情况下,这些人其实都没有定价权,没有定价权的生意很难受,做得很高兴、很热闹,但是没有一个人真正每天晚上能特别高兴的睡觉,大家都得996。



本期笔记整理员:KK,盼盼

—往期相关精选文章链接—


Generative AI,卷出个未来| 71期干货

Chat GPT能为跨境电商的降本增效做些什么?| 出海同学会85期干货


继续滑动看下一个

【出海同学会干货】NO.86期 - AI Infra & Application可能的创新与演化方向

出海同学会 出海同学会
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存