【译】不再需要组织和整理笔记,AI会改变这一切
写在前面
本文为译文,来自海外的商业观察博客 Every.to, 原文较长,火箭君做了编辑和节选。原文作者给出了一个很大胆的观点:他认为 AI (LLM/GPT)可能会让我们不再需要自己整理笔记,并预测了笔记类工具的未来。其中很多见解和火箭君不谋而合,但是对于我们自己是否需要整理笔记,我还是有些不同的观点,也将会附在译文最后。
原文标题:
The End of Organizing – How GPT-3 will turn your notes into an *actual* second brain。
原文作者:DAN SHIPPER / 原文链接:https://every.to/superorganizers/the-end-of-organizing (文中插图以及封面,除另外标注皆来自原文)
以下正文
有个坏消息
有个坏消息,我不太想告诉大家,但我们花在整理笔记上的时间可能都浪费了。
在不久的将来,我们的笔记将由大型语言模型(LLM)组织起来,比如 GPT-3。
其实,记笔记是与未来的自己建立关系。笔记记录了事实、引用、想法、事件等等,这样它们最终可以用来帮助我们做出更好的决定,创造更有趣的文章,并找到问题的解决方案。
很长一段时间以来,我们一直试图创建一个组织体系,让笔记和我们维持一种联系。因为我们希望确保未来的我们在正确的时间获得正确的笔记。
我们一度认为:最好的组织方法就是构建:「标签」、「文件夹层次」和「双向链接」,这样我们就可以在需要的时候拉出我们的笔记。或者至少如果我们知道我们要找什么,我们可以很容易地通过搜索找到他们。
但归根结底,我们构建的笔记整理方案是脆弱的。我们中的不少人一直在忙于构建新体系,放弃旧的体系。我们 创建标记,然后放弃,转而创建链接,但很少使用,我们也许会感到内疚。这时,为了缓解焦虑,我会买一个新的笔记工具(或学习一个新的笔记体系)就像在1月1日注册一个健身房会员,我知道我会放弃它,但毕竟我付了钱,我也相信这次会是个新的开始。(火箭君注:一针见血的评价)
直到 AI 的出现,改变了这个问题,我认为解锁旧笔记价值的一个更好的方法就是使用 AI 在正确的时间以正确的格式将正确的笔记表现出来。当我们有了信息可以支配时,我们就不需要组织信息。
为什么整理笔记这么难
我们越准确地知道一条信息的用途,我们就越容易组织它。
问题是,很多时候我们写下笔记,恰恰是因为我们不知道它们有什么用。我摘录下书中的一句话,因为我最终可以以1000种不同的方式使用它。我可以用它来帮助自己未来做决定,或者以后写一篇文章,或者在朋友经历困难时鼓舞他们。同样的道理也适用于做一次会议记录,或者关于我们遇到一个新人时的想法。
这使得为我的笔记找到一个单一的组织系统非常具有挑战性。我将不断地重新组织我的系统,或者在许多不同的地方放置一个注释,或者标记,以确保在不同的上下文中,合适的笔记可以再次弹出。
这种方法通常效果不太好,即使我们在正确的时间碰到了一条旧笔记,我也会面临另一个问题: 「看旧笔记有点像看陈旧的垃圾」。
在会议上匆匆写下的便条,或者在半夜突然想到一个主意时匆匆写下的便条,通常都很难理解,而且需要一段时间来分析。当我阅读一张旧便条时,我必须把它的上下文重新加载到你的脑海中,以及它是否和我手头的任务相关。
所以,很多人不再回去用旧笔记,认知成本太高,回报也不够。为了让旧笔记有所帮助,它需要一种立即「融入」我们正在处理事情的能力,并呈现给未来的我们,而且这个过程尽可能少的需要我们去手动处理。
这就是 AI 中 LLM(大型语言模型)的用武之地。
人工智能模型如何解决笔记组织问题
像 GPT-3这样的人工智能模型可以通过几种关键的方式来解决组织问题。
首先,它们可以自动标记和链接笔记在一起,而不需要手工操作。它甚至不需要 LLM ーー现在有一些不那么先进、更便宜的模型可以做到这一点。
其次,它们可以在你写笔记的时候丰富你的笔记,并将它们综合成研究报告,从而在一开始就消除了很多标签和链接的需要。
第三,他们可以将以前的笔记中的关键信息重新显示为类似于 CoPilot(火箭君注:这是微软推出的 Github 辅助写代码工具)。这使得搜索旧笔记变得没有必要,并且帮助你在每次敲击键盘的时候记下所有你曾经写下的信息。
我们把这些都分解一下。
自动标记、链接和分类
在最基本的层面上,当前笔记系统所需的标记和链接可以通过 LLM (或另一种更简单的机器学习模型)完成。
实体识别是廉价和可靠的,足以让模型找到人、地点、公司、书籍和其他在笔记中反复出现的东西。像 Linus Lee这样的研究人员,我之前采访过,正在为他们自己构建这样的版本。他的演示甚至没有使用实体识别,只是字频跟踪,形成反向链接。随着时间的推移,这些技术将变得越来越先进。(下图)
Source: Linus Lee
除了标记和链接之外,LLM 还可以帮助创建笔记的自动分类,使我们更容易浏览它们。想想苹果的「照片库」的体验有多棒吧。
Source: Me playing around in Figma.
这些分类法甚至可以为新项目动态创建,因此当需求发生变化时,笔记可以被重新组织成新的「视图」,从而帮助我们更有效的发现笔记。
一个简单的例子可能是:一个类似于自动更新我今年读过的每一本书的列表。过去两年我一直在研究这个问题,现在终于到了实现这种自动分类的时候了。
然而,人工智能模型在组织方面的真正力量不仅仅是分类。
自动化研究报告
LLM 可以丰富和写你的笔记。他们可以根据你写过的关于某个主题的所有东西综合起来写一份报告(综述型报告),这样你就可以把它整个装进大脑,而不必再回头查看以往的档案。
如果我们确信 AI 可以高质量的完成这类引用,那就不用担心如何标记或链接一本书或一篇文章中的引用了。我们只需要把它归档到自己的笔记档案中,并且相信AI(就像一个研究助理员)会在以后为我找到并引用这些信息。
不过,这里面还有更深层次的含义。我们的笔记反映了我们的生活。考虑使用 LLM 来总结一个关键的关系或者模式。它可以在一个特定的主题上产生我的思维历史,包括一个关键事件的总结和时间线,可以帮助我更好地理解我自己和我周围的世界。
这在今天至少是可能实现的ーー只是需要有人来建造它。
CoPilot
(火箭君注:CoPilot 是微软推出的 Github 辅助代码编写工具,程序员开个头,后面的代码可以由 AI 自动生成)
火箭君添加插图, Github CoPilot 的首页
前面提到的研究报告是虽然很有价值,但真正终极的需求是:希望在每次触摸键盘的时候,AI 就能「下载」我的整个笔记存档,和我脑子里的概念匹配。想象一下自动完成代码的体验 (比如 GitHub CoPilot) ,CoPilot 使用 GitHub 的代码存档试图填写我们正在写的代码内容。
下面是一些场景例子:
当我在一篇文章中提出一个观点时,它可以帮我找来论据和背书的引用。
当我在写下一个决定时,AI 可以暗示我,支持(或否认)的证据。
当我在写电子邮件的时候,它可以提取以前的会议记录来帮助我表达观点。(火箭君同感,不然我做会议记录干嘛?)
……
最终,我们的笔记会变成一个亲密的思想伙伴,运用我们写过的所有东西,让我们在打字的时候变得更聪明。
同样,所有这些在今天也都是可能的,只是建造它的问题。
笔记的未来
组织整理笔记将变得没有必要,因为实际上没有人愿意回去看他们的旧笔记。
我们真正想要的是笔记中蕴含的信息,在正确的时间和地点合成并呈现出来。
笔记的呈现应该是实时更新,并且令人惊讶的。应该帮助我们以新的方式看待我们以前收集的东西,带回我们早已忘记的事实、人物和事件。AI 应该帮助我们学习和利用以前写下来的任何东西来完成手头的任务。
在未来,笔记不会被我们组织起来(by us),笔记会为了我们而组织起来(for us)。思考的终极工具是:会思考的工具。
--译文结束--
火箭君感想
本文雄心勃勃地为笔记领域指明了方向,我个人认同其中的多数观点。不过有些地方还是心生疑虑。具体想法我会另外撰文,这里我简单一提:
首先,我认为 AI ,尤其是基于语言模型的AI,并不能承载我们过多的希望。
我的观点和《千脑智能》的作者接近。通过语言素材训练的 AI 看上去有智能,但是没有阅历和实践经验,它可以和你讨论香蕉,但它从来没有吃过香蕉,它只是模仿人们对香蕉的描述而已。就像大公司的某些实习生,没有任何实践经验,靠拼凑报告取悦上级。诚然,这件事并非没有价值,但离我们想象的巨大价值差得很远。所以目前的AI可以取代一个无脑助理的工作,甚至远远超越一个无脑工具人,但 AI 还远非可以自己思考的工具。目前可以称得上「会思考的工具」,还得是人自己,而且是有思考能力的人,不是那些无脑的办公人员。
另外,无需整理笔记听起来的确很诱人,不过基于刚才所说 AI 没有实践,AI 绝不可能做出一些超越已有记录信息的整理。AI 可以按时间,按主题,按类型,按描述的所有潜在关系呈现信息,但是它永远无法知道,这个笔记对于这个项目是否重要,对于某企业是否有用,这个客户是否高价值,这里有很多基于笔记以外的判断。如原文作者所说,这些判断也不是在记录笔记的当时就有的,我们要让 AI 明白这些额外信息,就需要不时喂给它这些额外信息,这个「投喂」过程事实上就是「整理组织笔记」。
因此结合以上两点,一个亲密的会思考的伙伴,不是目前 AI 可以胜任的。但是,我毫不怀疑,未来的某一天,当 AI 可以更加深入的融入我们的生活工作时,这些障碍都会消除。因为 AI 非常擅长学习,比起我们周围的无脑员工强多了, 给它时间,给它机会,一个真正的思考工具也不是幻想。(离天网发射核弹又近了一步)
备注:火箭君的感想都是自己写的,真的不是 ChatGPT 生成的。ChatGPT 连「红烧螺丝」和「红烧螺丝刀」都分不清(曾经分不清,不代表永远分不清)。