2. AI 目前无法获取非公开的事实和结论;3. AI 无法预测,无法对不同的观点赋予权重,也无法进行及时、具体场景的分析;4. AI 无法提供主观和价值层面的判断。从目前 ChatGPT 所提供回答质量来看,我仍然认为 Google 和 Wiki 等简单易行的替代渠道在多数情形下能提供更优质的信息,而在专业的领域内,专业的信息渠道和检索能力将更占有压倒性优势。不过我也相信,随着时间推移,以上 1、2、3 点短板都可能得到改进,但其中隐含的一个关键问题可能很难被解决:我们在获得 ChatGPT 回答的同时,并没有被告知其背后的信息来源和处理过程,亦不知道 ChatGPT 在回答过程中省略了什么。在更宏观的维度上,AI 对事实的误解和扭曲可能具有广泛的社会危害,进而挑战我们的集体记忆与共识。我们需要认真地从社会和个人两个层面来思考 AI 时代的诸多「何去何从」。 在与 ChatGPT 聊天时,我时常感觉到自己在疑惑:与我对话的这台机器是否真的在思考,抑或是,它只是用流畅的语法来让我觉得它在思考,而它实际上或许只是概率的运算,并不「理解」自己在说什么?正因如此,它才会有以上种种缺陷,甚至是「一本正经地胡说八道」。不过,我对其底层技术的细节十分外行,这个问题似乎更多是留给「图灵测试」等哲学话题了。不过我想,既然现代的语言哲学已经揭示了语言对于思维塑造的重要性,那么既然 AI 能够熟练地运用语言框架,我们或许也不能完全拒绝承认 AI 可能拥有了思考的能力——也因而,AI 与人类的竞争必然存在。就输出的结果而言,ChatGPT 和人类的「研究员」们(不幸的是,我正是其中一员)有很多相似点——他们都向受众提供了「似然正确的答案」。考虑到 AI 未来非线性发展的路径,它们所能提供的「似然正确性」还会明显地提升,或许很快我们便将看到 AI 与人类的「研究员」的直接竞争,而这在金融领域内或许会十分明显。我时常会听到类似这样的灵魂拷问:究竟是真相重要还是回答重要?如果是后者的话,那么研究员似乎确实没有什么存在的价值了。但这个问题显然不能如此消极地回答,我想更为重要的是思考:人类将如何证明其驾驭 AI、而非被 AI 驾驭的价值呢?什么样的态度和能力是重要的呢?我思忖了一些时间,有一些未必成熟的想法: 发现和提问的能力:如果答案终将跟随算力变得越来越廉价,那么发现并精确地描述的问题,其价值将更胜于答案; 独立与批判性的逻辑框架:我们将越来越频繁地面对各类虚假事实和错误结论的挑战,扎实的知识储备是必要的,同样也需要独立、警惕和批判的态度,以及对任何信息进行交叉验真的技能也必不可少。 深度独创研究的能力:AI 归纳梗概的高效率和清晰的结构性表达,将使得涉及浅层知识的内容创造和传播变得极端高效,以及冗余。而研究者需要拥有的竞争优势在于:用深度、独创、实在的研究,对浅知识形成压倒性的增强。 信息赋权和决策的能力:我不怀疑 AI 最终会具备一定的预测能力。但人类所不同的是,我们对信息作出自己的赋权,并作出决策、付诸行动。我们的精力将越来越注重终端的决策,提高决策的胜率、并降低错误决策的影响,将是人类越来越不能回避的问题。 杜绝语言的腐败:这一点想法,来源于我看到的一篇用 ChatGPT 做的城市发展远景规划,其中竟也充斥着相当多官样文章。Rubbish in rubbish out,我们太习惯用复杂的语言来掩饰真实的目的、扼杀创新的想法,既然AI提供了语言使用的一种新的形式,创造了新的可能,我们是否可以改变「语言的腐败」?——精炼直白,直抵核心。行文至此,我也想到人类玩家的另一个、或许也是最凸出优势:相比起 AI 而言,大多数人在很长一段时间内仍将更愿意相信人类。何然?人未必比 AI 更为正确,但具体的人可以成为明确归咎的主体,而他们对价值的鲜明坚持也使得他们更为鲜活可爱。我想最重要(也可能是有点中二)的一点是,是要有身为人类的觉悟,承担起全部的风险和责任,勇敢地进入与 AI——这个人类造物共存的新世界。