我,一个95后,从阿里辞职与贾扬清去硅谷创业
The following article is from InfoQ Author 褚杏娟
作者 | 褚杏娟 转自 | InfoQ
“在旧金山,随便进去一家咖啡馆,十分钟之内,你就会听到有人在谈论 ChatGPT、AI。不管是不是有些天马行空,视线范围内的所有人都在尝试着融入和探索新的事物。”25 岁决定与贾扬清一起在美国加利福尼亚州创业的鱼哲说道。
鱼哲跟贾扬清的缘分始于阿里云。2020 年,鱼哲本科毕业后入职阿里云,这是贾扬清进入阿里的第二年。当时,负责阿里云机器学习平台 PAI 产品线的鱼哲进入了贾扬清的团队,并与之共事了很久。2023 年,贾扬清从阿里离职创业,鱼哲也选择加入这支队伍。
“我非常认同扬清的创业方向,这个方向非常有趣。”鱼哲说道。在时代浪潮的推动下,每个人都在寻找自己的方向。鱼哲用这个中式的比喻来形容他们正在做的事情:我们不帮别人包饺子,而是为他们的厨师提供一个优秀的中央厨房,让厨师们可以轻而易举的获取所需的食材以便其能更好地准备自己的菜肴。
那么,这个 98 年的“新秀”是如何一步步走向 AI 创业道路的?他们现在究竟在做什么样的事情?又是如何思考 AI 的现状和发展的呢?
2017 年 7 月的一个周末,深圳的台风袭来,而几十位极客正在科技寺举办的黑客松上如火如荼地讨论各种项目,其中便有鱼哲的身影。
在大二选择 Gap Year 时,鱼哲在编程猫担任算法工程师,业余时间利用图像识别和自然语言处理技术,做了一个可以在对话中自动生成相应表情配合文字的程序,叫“表情包终结者(Meme Fighter)”,据说是因为他经常在微信群的表情包大战中惨败。
两天内做出这样一个项目,对鱼哲来说并不是太难。
当大多数人在为高考努力的时候,受素质教育影响的鱼哲被更愿意去探索不同的领域。那时的他对技术很感兴趣,除了一直关注最新的技术动态,他玩过单片机、也参与了一些机器人项目,算是积累了一些经验。后来在第一次接触 JupyterLab 时,遇到问题后的鱼哲会自己修复并提出 bug 报告,因此还被 JupyterLab 创始人邀请参与到了项目中。
举一反三也是鱼哲的强项。在编程猫工作时,他需要让模型能够应对大量业务流量。最开始无从下手,但当时听了“Instagram 如何架构 Python 后端”的讲座后,鱼哲借鉴了其思路并实施到自己项目中,取得了不错效果。
在鱼哲的成长过程中,实习工作是家常便饭,但也正是一次次的工作经历影响了他看待世界的方法,进而影响了他的职业选择。
高中期间,鱼哲去了一家咨询公司做市场调研的工作。实际上,这份工作并不复杂:研究当时市场上的青少年科技夏令营主要做什么、定价情况、客户群体等,在收集到大量数据并进行分析后,推测当地人们的消费情况、对子女教育的投入等。
“这种洞察力非常有趣,你可以通过一些有趣的数据看到其他人是如何生活的,就像有了上帝视角。”鱼哲说道。咨询公司对方法论和数据运用的重视也深刻影响了鱼哲,让鱼哲养成了“用数据看世界”的思维习惯。
另外,这段实习经历也让鱼哲接触到了另一个跟技术无关的领域:商业运作。鱼哲开始思考将技术与商业结合起来。他认为,技术不能只停留在实验室中,只有真正落地并被大家接受和应用才能发挥更大的价值。
于是,本科期间,鱼哲选择了去美国伦斯勒理工就读信息技术与网络科学专业(Information Technology and Web Science,ITWS),计算机学院和商学院各学两年,深入了解技术对商业变革的影响。根据规划,其最终的职业发展方向就是技术的落地及商业化。
阿里云是鱼哲大学毕业后的第一份正式工作,22 岁的他成了“阿里云史上最年轻的产品经理”。
在阿里云,鱼哲更像是经历了一场“系统化训练”,用他的话就是,这次工作对他在“个人技术深度和广度方面的提升、个人职业规划的明朗,以及商业模式和市场的理解上,都产生了很大影响。”
回忆起这段经历,鱼哲最先想到的是养成了“只要没干死,就往死里干”的态度。当时阿里云要研发很多新产品,刚入职的他心里憋着劲,将自己的工作节奏安排得非常紧:早上吃咖啡因含片,中午甚至只吃蛋白质代餐,一直工作到晚上九点或更晚。“年轻人总是会容易感动自己,以为这个世界离开了我就不行。”鱼哲笑着调侃当年的自己。
鱼哲坦言自己经历了失败,“想要第一次尝试的事情也不总是正确的”,但周围阿里的同事给了他很大的包容,经过多次试错后最终可以找到正确的“打开方式”。这些努力也让他收获颇丰:经手业务一年里基本上都实现了二三十倍的增长。
对鱼哲来说,“阿里云最年轻的产品经理”的标签,从某种程度上来说,代表着他年轻的特质。“年轻时,我们对许多东西都不懂,也不知道如何去应对,意识到‘自己不知道’很重要,更重要的是迎难而上的勇气和不断探索的精神”鱼哲解释道。
去年下半年,ChatGPT 的爆火引发了 AI 狂潮,进而吸引了一批 AI 创业者,多年前就想创业的贾扬清这次终于下场。
“在 AI 领域,模型的保鲜期基本上是一年左右。”贾扬清曾表示,因此他瞄准了需求更明确的方向:如何更好地部署模型,是否有更弹性的、更稳定的、更低成本的部署模式。不直接帮企业开发应用是因为许多情况下,用户比厂商更了解特定场景的实现细节,厂商无法深入解决专业领域的问题。
已经在 AI 领域积累多年的鱼哲很认同贾扬清的观点,因此在阿里云工作三年的鱼哲加入了这个创业团队。“我的优势在于曾在甲方和乙方两方都工作过,对整体商业模式有较为深入的了解。我还有一段时间在海外工作、生活和学习,这些经历让我能更全面地看待问题。”鱼哲认真剖析了自己。
如今,鱼哲在 LeptonAI 担任产品负责人一职,他经常参加各种线下活动,通过与外界交流来了解市场和用户的需求,进而反推出自己应该做什么样的产品。
对于鱼哲来说,大厂的很多工作相对来说都是可预测的,而现在的工作不确定性更强,但也更加让他兴奋。他如今需要更快速地学习,并充分利用自己之前的工作经验,来找到更好帮助用户实现自己 AI 落地的方法。
没有固定的上下班时间、更注重结果,选择创业公司让他比之前更加忙碌。同时,像鱼哲这样的 AI 创业者,现在面临的最大挑战之一就是市场的不确定性:整个 AI 和机器学习领域变化迅速,每天都有新的机会和技术涌现,大家每天读论文的速度都跟不上发布速度,他们需要始终都要保持初学者的心态,不断学习和吸收新知识。
“我也没有特别好的办法,只能尽力跟进最新进展,多与业内一些顶尖公司的专业人士交流,跟上这个快速发展的领域。”鱼哲说道。
作为一个创业公司,鱼哲所在的 LeptonAI 现在主要将精力放在了三个方面:
持续进行 AI 模型的前沿创新研究,涵盖训练、推理、编译等方面,不断提高模型从训练到生产环境等各个关键环节的竞争力;
提升工程平台性能,确保整个工作流程更加高效;
不断思考和调整商业模式,以确保公司在整体上保持竞争力。
LeptonAI 的自信来自创始成员们此前资深的工作经验。创始人们在这些大厂多次带领团队实现技术和产品架构升级。比如贾扬清就曾在 Meta 将 Pytorch 打造为深受 AI 开发者们喜爱的框架的经历。这给 LeptonAI 的启示就是要与开发者“共鸣”:虽然 Pytorch 可能在性能方面不及静态图的 TensorFlow,但它让开发者使用起来更方便。“我们对 AI 开发者的需求有很好的理解,知道他们在使用时可能遇到的问题。”
除了“AI 大神”贾扬清,团队很多成员之前都曾在阿里、Google、Meta 和 Uber 等大厂工作,积累了在 AI 应用和 AI 框架方面的丰富经验。团队对云基础架构也有深入了解,能够充分利用各种云资源,包括完备的云服务商和基础的 IDC。同时,新团队的成果,比如之前做的 Llama 2 API 以及 SDXL 性能优化等,得到了开发者们认可和好评,这也让团队更加自信。
“在业界,找出这样一支能够在这些方面都表现出色的团队是非常困难的。”鱼哲说道。
至今为止,LeptonAI 仍然专注于开发面向应用和开发者的 AI 工具平台。不过,鱼哲也表示,顺势而为非常关键,“每个团队都需要建立自己的基本实力和核心竞争力,在此基础上,关键就看哪个团队能够更快地跟上技术热点的发展,并且能够充分利用已有的能力。”
LeptonAI 不会制定过于详细的长期规划,而是倾向更灵活地应对局势,以月、周为周期来关注公司的目标和方向,不断调整和适应变化。
比如,目前市场需求主要集中在大模型方面,公司则会在这方面相对投入更多资源。但这并不意味着 LeptonAI 放弃了传统的深度学习或机器学习模型,因为很多企业实际上是混合模型的架构,这些传统模型并没有被舍弃。
“我们不是过去传统意义上的服务提供者。”鱼哲强调,“我们是要将客户的行业专业知识转化为应用落地的加速器,而不是代替他们完成任务。”
在对外交流过程中,鱼哲发现用户的需求多且细,比如企业很想使用一些机器学习和深度学习模型,但模型的复杂度是个阻碍;企业想在不将代码放在公共互联网上的情况下,利用代言模型来管理代码补全,但技术能力可能无法实现等。鱼哲团队要做的就是依靠工作经验找到其中确定性的东西,来解决用户真实存在的问题。
当前,LeptonAI 的思路是:开发者用 Python 原生方式构建模型,无需学习容器或 Kubernetes;然后在本地调试和测试模型,再使用单个命令将它们部署到云端;之后,开发者可以通过简单、灵活的 API 在任何应用程序中使用模型。这个过程中,LeptonAI 还要帮开发者选择最适合应用程序的异构硬件,并做水平扩展来处理大量工作负载。
为了方便开发者以更舒适的方式构建和打包 AI 应用,LeptonAI 提供了一个名为“光子(Photon)”的 Python 库,“光子无处不在,何时何地都能找到它,同时也象征着速度快的特性。”Photon 最初是团队将机器学习模型、运行时环境以及工程代码有机结合的抽象概念。现在,Photon 定义了一组处理程序和 Python 依赖项,用户也可以根据情况构建自己的 Photon。
关于 Python 作为 AI 服务框架的问题,业内目前存在一些争议,比如 Python GIL 是众所周知令人头疼的问题。为解决 Python 带来的性能问题,大家的基本思路似乎是放弃 Python:Hugging Face 用 Rust 重写了一个 ML 框架、Modular 公司发布了名为 Mojo 的新编程语言。在鱼哲看来,Python 的应用取决于具体的使用场景。例如高频量化交易场景可能需要使用更低级别的语言来满足毫秒级延迟的要求,而在其他情况下,几十毫秒级别的延迟可能是可接受的。
对于性能要求极高的场景,LeptonAI 会对原本在 Python 下进行的模型服务进行编译、推理、优化和加速等处理,进而保证其他方面的高效运行。比如部署在机器人或车辆上的应用,运行时资源非常有限,LeptonAI 会通过特殊的压缩手段来保持更高的性能,而用户端是无感的。
LeptonAI 当前主要在公有云中提供全托管服务,但 LeptonAI 给自己的定位和传统云厂商有些不同。“我们帮助客户制定自己的 AI 战略,这是很多厂商不提供的服务。我们能够提供很多云厂商无法提供的技术细节,我们比云厂商更深入了解 AI。”鱼哲说道。
目前 LeptonAI 产品处于开放测试阶段,还在不断优化迭代和完善功能。比如团队推出了一个名为 TUNA 的功能,用户只需要上传语料,就能一键操作对模型进行微调。鱼哲总结自己产品的优势在开发者体验、价格成本和性能上。
测试有时候也不仅仅针对产品,还有对开发团队心理的考验。“这个阶段,沮丧的事情有很多。”鱼哲说道,“当你抱着很高的期望尝试时,有时会发现某个基础组件并不稳定,或者是最初以为用户会非常喜欢的功能,实际做完后发现用户觉得很难用。”
技术不断进步,总会有新的问题需要解决。在鱼哲看来,最重要的是保持冷静、坚定前行,因为很多事情并没有捷径可走。“这个道路上的坑也是多不胜数的,不要试图绕过,而是要努力填坑,并且越快越好。”
现在,LeptonAI 的客户涵盖了金融、能源、自动驾驶以及信息互联网服务等领域。除了个别性能要求极高场景,LeptonAI 并不针对特定行业提供解决方案,更多是提供底层标准能力,方便用户快速应用。
“我们处于一个承上启下的角色。因为在上游和下游的每个人,都有他们自己的客户(甲方)和供应商(乙方)。”鱼哲说道。
LeptonAI 提供算力、模型和服务,服务方面包括通用流行模型的 API 服务、个性化模型的平台服务和对模型进行微调和部署的服务。这些能力背后需要计算、存储和网络三种资源支撑。LeptonAI 会从不同的供应商那里采购这些资源,包括传统云厂商和新兴云厂商。能够做好供应链整合、在价格上获得比竞争对手更大的优势,这也是 LeptonAI 的核心竞争力之一。
LeptonAI 的收费项主要有三部分:基于软件订阅的费用,私有模型部署的资源使用费用,和热门模型的使用费用。资源使用的定价逻辑是基于规格乘以使用时长的方式来计算。对于单位价格,LeptonAI 基于 AWS、GCP、Azure 等多个市场供应商来设定适当价格。
鱼哲表示,LeptonAI 并不是基于各种成本来定价的,而是假设用户自己处理需要花费的成本,然后 LeptonAI 在此基础上设定价格,目的是确保用户直接购买现成解决方案比自己做要更加划算。
不过鱼哲强调,低成本并非是 LeptonAI 的主打市场推广策略,同时还是要关注用户使用体验和产品性能。毕竟 To B,从来就不是单个维度上的短跑,而是多个维度的长跑。
此外,LeptonAI 也在积极融入整个行业发展中,以 GitHub 开源工具链 SDK 的方式来降低模型使用的门栏,让每一位 AI 开发者们通过一行命令即可拉起热门模型。
关注 AI 多年,鱼哲这次感受到的一个显著变化是,人们不再是仅仅被炫酷的技术吸引后就不断投入资金进行尝试,反而会更加迅速地关注技术的实际应用和落地,更注重可行性和投资回报率(ROI)。人们变得更加理性,特别是在资本投入方面,也更加客观、认真地去思考技术如何落地。
大模型因为聊天机器人被更多人熟知,但大模型不仅仅是聊天机器人。大模型的多模态特性可以将世界上的丰富多彩元素转化为机器可理解的格式。大模型的应用场景是非常广泛的。但对于大模型应用来说,最困难的不是训练模型,而是找到适合的应用场景和相应数据。
鱼哲表示,开发大模型应用,行业经验和数据的质量是非常重要的因素:有足够的行业经验才能更好地理解目标受众的需求和应用场景;而数据的质量和多样性将直接影响模型的性能和效果。这两项确定后,拥有先发优势就非常关键,开发者一定要保持持一定的迭代速度。
但在新技术落地上,找到场景也很难。“如果我现在只是拿着一个大模型去构建应用,那这就像拿着锤子找钉子。实际上,我们应该先有一个场景,然后再构建相应的应用。”鱼哲进一步说道,同时,大模型落地还需要企业里有既了解特定场景又熟悉相关技术、清楚什么能做什么不能做的人才,才能真正落地。
本质上,大模型应用还处于非常早期的阶段,大多数应用仍停留在概念验证(POC)或短期上线能够使用的状态。就像 Bing 或者 Google 搜索虽然落地了,但在特定领域的深度应用还在不断尝试中。
“建议大家不要被大模型束缚住。实际落地时,除了大模型外,还可以充分利用许多已存在的深度学习模型或传统模型。例如在图像处理方面,卷积神经网络(CNN)实际上可能比大模型更适用。”鱼哲说道。
如今,行业在大模型上基本形成了这样的共识:没必要一味追求大规模参数,开源会成为主流,通用大模型并不“通用”,垂直行业的大模型更被期待。鱼哲认为,下一步是努力消除基础能力和场景差距。这方面,AI Agent 被寄予厚望,人们希望借此解决单靠大模型无法解决的问题。
AI Agent 示意图
简单说来,AI Agent 希望达成的效果是:一个独立思考的实体具备了多种技能,这些技能可以组合起来应用到生产中,最终交付出一个成果。其中,大模型充当了代理的大脑,并由 Memory、Tools、Planning、Action 几个关键组件进行补充。
鱼哲设想的一个 Agents 应用场景是交互式搜索,比如用户去某地方开会,智能助手可以除了导航还可以提示哪里可以停车等。鱼哲始终认为,技术否能够成功取决于它是否能与特定场景良好结合,停留在实验室内的技术不见天日更难有机会被打磨,因此更接近场景的人其实更有机会。
“我无法设想 AI 不再流行的情景。”鱼哲说道,“AI 代表了一种信息处理的方式,而人类对于信息处理方式的投入只会越来越多,不会减少。”鱼哲预计,人工智能的进步和发展会越来越深入和持久,自己也会持续在这个行业深耕下去。
可以加入技术琐话读者群,请后台回复:读者群
往期推荐:
技术琐话
以分布式设计、架构、体系思想为基础,兼论研发相关的点点滴滴,不限于代码、质量体系和研发管理。