Vol.10 ChatGPT,三步重构商业生态
卷首语
昨天和徐文浩直播聊天,两人都觉得最近被新闻轰炸得都有点麻木了。
还好都已经开始动手做一些实际的探索,所以更关心的不是新闻热点,而是本质,长期,和真实商业机会。老规矩,还是 4 块内容,如果对您也有启发的话,欢迎推荐这个账号给朋友们。
核武器还是大数据?AGI 真的安全么?ChatGPT Plug-in 发布,它正式拥有了组织资源和工具完成目标的能力。这种状态下,GPT-4 更像是盟军掌握了原子弹,而不是 Google 发布了 MapReduce。拥有原子弹,不安全;但自己不拥有,似乎更不安全。
ChatGPT,三步重构商业生态:ChatGPT 是第一款真正围绕用户任务(JTBD)来交付服务的应用,将重构商业生态。ChatGPT 不仅仅拥有垄断性质的核心 AI 能力(类似光刻机),而且还有用户入口界面和用户数据模型(比 Google 更甚),甚至于还有多边平台的网络效应(比 App Store 更甚)。时代变迁,步步是机会,步步是挑战。
AI 原生产品设计:Mobile-Native 产品设计,得用上摄像头、GPS、触屏、音频输入,还可能得适配碎片化时空场景。AI-Native 产品设计,需要用到什么呢?理解能力,生成能力,推理能力,和低频高复杂度的需求场景?
Surge.ai 大模型里的生态链:越来越多的大模型发布的同时,越来越多的垂直领域公司浮出水面。专门做 RHLF 数据集,专门做 AI Safety,专门做 AI Privacy ……如果 AI 这一浪是淘金潮,有哪些送水、做牛仔裤和搭帐篷的机会呢?
——任鑫
1
AGI
核武器还是大数据?AGI 真的安全么
上周在SETalk的直播里,谈到了关于AI安全的话题。前一阵有个小热点说是有很多名人呼吁暂停6个月的AI研究。不过似乎热闹了没有几天,这几天已经没有人提这个事情了。
第一个,自然是单纯的“呼吁”往往是无力的,不然也不会有那么多国际争端了。“呼吁”完了,无论是领先的OpenAI,紧紧跟随的Anthropics,被锤了一遍又一遍的Google,还是一众刚刚开始起步跟着跑的中国创业公司,没有人会在这个时候停下脚步的。
不过,AI Safety的确也是一个重要的话题。特别是 ChatGPT Plugins 发布之后,很多人才终于意识到“哇,你可以给AI设定一个目标,给它一堆工具,然后它自己就能想怎么围绕目标使用工具”。而这个可能性,意味着“天网毁灭人类”并不是随便说说的科幻故事,而是有可能发生的现实威胁。虽然此时此刻,这个威胁会发生的概率还非常非常小,但是已经不是0了。
从这个角度来说,目前的状态下,GPT-4更像是盟军掌握了原子弹,而不是Google发布了GFS、MapReduce和BigTable。目前,OpenAI的解决方法是在大模型训练完之后,通过强化学习来做一个Alignment。这也是为什么你用GPT-3的模型还能写小黄文,但是3.5和4都已经拒绝干这样的事情了。而OpenAI自己也一直在不断地强调安全,并且对于GPT-4,只放出来一个效果和数据的技术报告,而并没有给出任何实际工程上的挑战和细节。整个思路,颇有些“核不扩散”的味道。而从国内最近无论是文心一言还是通义千问的效果来说,显然离GPT-3.5都还有差距,更别说GPT-4了。毕竟,从45年美国有核武器到49年苏联有,都隔了4年。到我国有,更是要等到将近20年的1964年。短短几个月立刻能够复刻出来,的确也是难为了这些大厂。
但是“不扩散”这件事情,在AGI上显然是不会持续发生的。连能炸球的核武器,都没有挡住印度和巴基斯坦。看起来危害更加“隐性”,好处明显几乎没有上限的AGI显然会是各个大国必须要拥有的东西。而更麻烦的是,在我看来,Alignment显然并不是解决AI的安全性的解决方案。
Alignment成立的前提是,人类有一个整体上的“优化目标”,我们尽可能把这个共同的“优化目标”给到模型,确保模型给出的东西,是我们能够“接受”和”容忍“的。但是显然,共同的”优化目标“本身太难存在了,如果每个国家和团队都相信自己的AI的价值观正确,自然会出现一些别的国家觉得”危险“的AGI出来。那么,更有可能的解法,就会变成”核不扩散“。通过限制算力、算法的出口,经济制裁来确保某些人对于AGI的垄断。但是我们前面也说了,至少对于大国,这个应该最终垄断不了。
而且,即使限制了,因为AGI本身不是一个“确定性”的机器,而是一个可以寻找规则漏洞,以及不断会有人为它寻找漏洞的工具,“越狱”会是迟早的事儿。所以你要是问我,AGI安全吗?我只能说,的确不太安全。但是不拥有,似乎更不安全。
相关延伸
🔗 https://marginalrevolution.com/marginalrevolution/2023/04/the-nuclear-non-proliferation-treaty-and-existential-agi-risk.html?utm_source=rss&utm_medium=rss&utm_campaign=the-nuclear-non-proliferation-treaty-and-existential-agi-risk
🔗 https://lacker.io/ai/2023/04/03/on-the-impossibility-of-ai-alignment.html
2
AI BUSINESS
ChatGPT,三步重构商业生态
说归说,但实际做产品的时候,也只是在“产品创新”阶段这样思考,思考完了、找到了 JTBD 之后,还是得找到“重要而未被满足”的部分最大公约数,为这个细分市场设计统一的产品来帮助“完成任务”。真的根据用户具体状况和需求来千人前面解决问题,很难。
但是,这个“很难”的设计,在所有用户使用 ChatGPT 的过程中,却是常态。每个人使用 ChatGPT,都是在表达自己特定的需求,获取极度个性化的帮助。比如“我明天要作为一个人工智能商业顾问做一个演讲,听众是大互联网公司的产品经理,都略懂技术但不会写代码,最近都对于人工智能超级感兴趣,尤其想了解如何可以融入到产品中。我希望给他们一个全面介绍,让大家了解怎样把 AI 应用到产品设计中。你也是一个世界一流的人工智能商业专家,帮我做一个适合 60 分钟的演讲大纲,每个模块提醒我适合用什么案例和类比来帮助听众理解。”
这个需求里,包含了自身情况介绍,对所需服务的期待,具体上下文描述,产品规格期待和目标定义……这时,ChatGPT 就真的不是个产品,而是针对我的 JTBD 来帮忙了。如果抽象思考“介绍人工智能的演讲稿”,大概率直接百度搜索一下可以找到更好的;但具体到这个 JTBD,ChatGPT 显然能帮上更大的忙。
但是,这个忙是否一定能帮到位呢?大概率不行,还缺三个东西。或者换个角度看,这三个东西补全之后,ChatGPT 对世界的冲击还将放大几个数量级。
第一个问题很显然,也很好解决,就是高质量参考信息。
让它帮我写人工智能的演讲稿,大概率不会提到大语言模型(因为它自己数据库只到 2021 年),也不会写到 ChatGPT 本身的价值和影响。这种情况下,最后出来的内容很容易只是套话和老话——这也是它被广为诟病的原因之一。
但其实这个问题很好解决,制定信息源就好了。New Bing 会拿搜索到的前几个网页的信息来做汇总归纳,Scispace 会根据具体查到的论文来回答问题……我们可以指定信任信息源来回答我们问题,比如医学生要求它只用医学论文库的信息,这样绝大部分的“胡说八道”问题会得到解决。
只是这个“指定”到底会以什么形态呢?
如果是类似 New Bing 的形态,则垂直细分应用仍然有价值,例如我早几天就看到了一个专门回答宠物相关问题的 AI,应该就是配套了专业宠物医疗护理内容的 ChatGPT。这里也有创业公司的时间窗口,趁着大公司纠结转身过程,把 XX 行业的 GPT 概念先占了,说不定可以咬下一口市场。
可如果是类似 Plug-in 形态呢?用户使用界面是 ChatGPT,但是可以选择“安装”不同的数据包(比如想要获得专业的教育建议,就安装教育相关资料包)。这时创业公司的时间窗就更短一些,因为大概率类似 Plug-in,OpenAI 在早期会和头部公司合作获得最高价值信息(比如和 Booking 或者 TripAdvisor 合作提供酒店客观信息和点评数据),早期坑位会很快被填完。
那么,会不会有细分市场机会呢?比如“最懂桂林的靠谱旅行资料包”。个人觉得,得分情况,简单讲就是越不是刚需,可能越有机会。相对来讲,刚需更偏向于明确的功能 JTBD,ChatGPT 类的 AI 助理完全可以更高效匹配到方案,无需搞东搞西装一些细分资料包。但相对的,非刚需的需求,很多时候是在”逛“的过程中被激发的,这时很容易对信息源产生非理性信任,或许会有细分的信息需求。
举例来讲,如果是来桂林出差办事,只需要 AI 辅助提效就好,大概率不会有机会想到要装载一个特殊的资料包给 ChatGPT;但如果是在微博关注的生活方式博主来桂林玩,想抄作业,就可能会让 ChatGPT 学一下这个博主的资料包(可能不光包括资料,也包括 TA 的世界观和方法论),用类似的品味帮忙规划。从这个角度讲,所有”干货“类的内容,反倒没有商业价值;反倒是”启发“(inspiration)类的还有生存空间。
第二个问题,表面看,是提示词(prompt)写起来太麻烦,实际上,是用户数据模型问题。
如果是写一篇演讲稿,那么首先应该理解我的背景和风格,不应该等到我和 AI 交互时再(一次又一次)提供,而应该沉淀下来一个用户的数据模型复用,这样和 AI 沟通至少节省一半口水。举例来说,如果系统已经知道了我出差预算很低但家庭出游住得很好,平时能吃辣但带宝宝时要考虑他,给我安排行程时就会尽量安排好酒店和清淡口味的餐厅。这些东西应该慢慢意会到,而不应该让用户反复输入。
更进一步,除了背景信息之外,熟悉用户的 AI 甚至于应该能主动判断用户的意图,甚至于帮助制定目标。比如知道用户很在意健康,但是最近工作太忙运动很少,就应该主动询问和提醒用户是不是要把未来一个月的日程排松一点,方便 AI 见缝插针安排健身选项。我们往往认为,人类是用来定目标的,AI 用来干活儿。但很可能在日常情况中会反过来,AI 会帮助我们定目标,我们根据 AI 的安排来干活儿。如此深度的合作,需要 AI 帮助每个人都建立起自己的模型。
但问题是:这个模型应该放在哪?
按照现状往下推,可能的发展是所有应用都成为了 ChatGPT 的插件,而使用中的用户数据都沉淀在了 OpenAI。这种情况,对于初创公司其实无所谓(天花板变低了,但早期 100 家公司 99 家一辈子也碰不到天花板),但对中大型公司很不利。因为本质上来讲,按照前面讲的用户任务(JTBD)逻辑,我们要更好的给用户帮忙,自然是对用户具体情况越了解越好——对用户只了解 1/N 的垂直应用,自然不可能比 ChatGPT 这个中央节点干得更好。
举例来说,大的电商肯定想做独立的购物 AI,逻辑上确实成立,因为毕竟购物场景需要很多垂类知识和特定场景的 UI。但如果后台模型都是 OpenAI 的,理论上 OpenAI 会比任何一个垂直购物 AI 更了解用户具体 JTBD 从而提供更有效的帮助——虽然可能领域知识差一点 UI 丑一点,但毕竟它更懂用户啊。而如果这些大电商选择不用 OpenAI 自己做的话,第一是会直接面对用户比较问题(”和 ChatGPT 比,你们家这个就是智障啊“),第二是杯水车薪——外面还有 100 个大应用跟 OpenAI(或者其他领先的公用模型)走了,更全面的用户模型还是在外面。
所以,对于大中型公司来讲,可能不仅会被迫贡献数据到 OpenAI 的池子里,而且用户模型数据也会沉淀在 OpenAI……这一层价值会越来越薄。更糟的是,还有第三个问题。
第三个问题,如何连接到行动。
前面举例子讲的是演讲,但这种需求其实不是主流。
功能类的任务,大部分需要的不是“一篇文字”,而是真实世界具体的商品或者服务交付。比如安排打到了车,买到了适合自己场景的扫地机器人,去到了合适的餐厅享受,认识到了匹配的人……我们需要更落地的行动,而不仅仅是道理。
或者换个角度,不论用户需要的是什么,直接和商业行动交付相连,价值才高。比如用户使用 Google,通过搜索关键词表达需求,部分能够商业转化的流量被 Google 转卖给第三方公司,这就可以一年卖几千亿美金收入。这还仅仅是转卖非常粗颗粒度的意向流量,如果 ChatGPT 能够转卖极其明确、细致的 JTBD 流量,理论上转化效率更高,也能获得更高收入。
ChatGPT Plug-in 体系部分解决了问题,比如需要买菜的话会调度 instacart 买,需要打车会调度 Uber 打车。这些演示,仅仅只是掀开了幕布一角,未来应对复杂决策时,ChatGPT 完全应该有能力调度成百上千个 Plug-in 来协同完成任务。比如五一假期家庭出行,就得根据天气状况、目的地旅行攻略和家人偏好做行程,安排好酒店机票预订、景点日程安排和道路交通衔接。理论上讲,应该根据大家口味和考量,连什么时间去哪家店吃饭都安排好,而且给出建议点什么菜。如果白天在景点待的时间过长,导致来不及赶去预定的餐厅,ChatGPT 也应该灵活做出调整和给出新的建议(类似现在导航 APP 的”重新规划行程“)。
过程中,用户既是定大方向、做最终决策的董事长,又是具体被调度安排的资源之一。而 ChatGPT 更应该承担 CEO 的职责,把用户和诸多 Plug-in 都当做资源调配,来最大化为用户创造的效用。
短期来说,作为 Plug-in 的商业体会获得更精准的流量,而且大概率会比 Google 流量性价比更高,能获得一波增长。但是,长久来讲,商业格局会发生显著变化。
最明显的就是原有平台的管道化。
如果用户都用 ChatGPT (或者类似的统一入口)来做行程规划,为什么背后还需要携程呢?为什么这层佣金要携程来赚呢?早期可能需要携程来提供这个 Plug-in,但后面的酒店肯定会快速提高自己的信息化水平直接接入——让携程和 ChatGPT 中转两遍,不如跳过携程。
ChatGPT 作为入口,比 Google、百度或者 App Store 作为入口更可怕。因为后面那些”传统互联网入口“本质上还是在分发流量,核心服务还是各家产品自己在做。但所有产品 AI 化(本质上就是包装了 ChatGPT)之后,产品的核心功能其实是 OpenAI 提供,纯线上部分只会一步一步更加管道化、商品化。本质上,只有脏活累活(比如线下关系维护、线下交付、线下拓展……)才依旧保留价值,而传统垂直平台的利润会在 ChatGPT 和平台用户的双向奔赴中消失殆尽。
对于中大型平台公司不是好事,对于具体的服务商倒是未必,因为终端服务商就是靠左脏活累活赚钱的。ChatGPT 再怎么高效导流,还是得推荐用户去到一家具体的店里用餐,流量费用给美团点评也是给,给携程也是给,给 ChatGPT 也是给,没问题。
对于服务商来说,最大的挑战应该是如何在新环境下重新定位以获取流量。如果用户都是让自己的 ChatGPT 帮忙预定“桂林最正宗的啤酒鱼”或者“适合带宝宝一起住三天的山里的酒店”,怎么让自己出现在答案里呢?我也不知道,但觉得大方向应该是需要更加贴合用户的 JTBD,而且需要做到公认的极致(“最”)。谁可以提前预判用户行为变化的方向,就更有定位在顺势发展的大浪上——甚至于,持续关注这个潮水的方向,看到变化了再转身,大概率也能吃到一口红利。
这几天住在桂林山间,酒店是一个老糖厂厂房改造的。怀旧,工业风,设计感,非常非常有特点,而且今天早餐的时候听服务员讲周末满房了。觉得可能日后的商品都只有两条路可以卷,要么就极致性价比,成为 ChatGPT 的首选头牌,要么就极致差异化,成为某个 JTBD 下唯一选择。中间的路,会越来越少,越来越难吧。
相关延伸
3
PRODUCT
AI 原生产品设计
类比 Mobile-Native,那时得用上摄像头、GPS、触屏、音频输入,还可能适配了碎片化时空场景。这次我们也得用上 AI 对自然语言(其实还有更多模态)的理解能力、生成能力,和推理能力。自然而然的,产品应该拥有不受限 input 的能力(不论是不是 LUI),能够处理非结构化数据,可以直接提供服务,而且机器间可以协同……从这些角度思考,不要只想着做 Chatbot 和机器人。
反过来思考,图形界面仍然适合解决高频、刚需、易抽象的功能。那我们应该更积极寻找低频、高灵活度、复杂的用户需求,这些场景可能更适合 AI 产品突进。
而在增长过程中,最主要的飞轮效应应该来自于场景数据对模型的调优(哪怕并不能改变模型,但大概率我们可以提升模型利用率)。Midjourney 和 Character.ai 的产品设计中明显都考虑了飞轮设计。其实抖音之类的”传统“应用也早就是这个思路。
相关延伸
4
AI BUSINESS
Surge.ai - 大模型里的生态链
看起来,尽管简单的数据标注人甚至已经比不过GPT-4了。但是RHLF还是要依赖专门的公司,通过领域专家标注的方式来提升效果。
其实这也是一个方向,专门做RHLF数据集,专门做AI Safety,专门做 AI Privacy。相信接下来,随着大模型竞争的白热化,会有很多AI届的人才从这个角度切入吧。
相关延伸
🔗 https://www.surgehq.ai/blog/anthropic-surge-ai-rlhf-platform-train-llm-assistant-human-feedback
🔗 https://www.surgehq.ai/blog/how-we-built-it-openais-gsm8k-dataset-of-8500-math-problems
待办清单
长按图片扫码,加入知识星球