我的信息流 2023.1
本文是我在「知识星球」中「日更短文」的第 241 篇,计划每周从中挑选一篇发布到公众号,了解更多可点击「查看原文」。
由于接了其他团队的周会分享邀请,要分享下我的工作流和信息流,于是周五(2023.1.6)先画了张图。
下面和大家展开分享下。
1、信息来源
信息来源的渠道很多,包括邮箱、RSS、F2E News、电子书、Youtube Channel 等,其中 RSS 占 80%,因为我把大部分信息来源都转成 RSS 的方式了。
公众号通过 feeddd.org 可以获取到更新 RSS,但有几个缺点,1)feeddd 是通过众包的方式提供的公众号数据,有些小众源(尤其是前端的)没人跑数据就没法收到更新,2)RSS 没有全文输出。缺点 1 我找了他 Andriod 手机准备把前端相关的源都订阅了然后开着跑,自给自足;缺点 2 我自己写了个服务解了,通过 PhantomJS Cloud 的免费 API,加了个代理让 RSS 全文输出。
NewsLetter 我已全部从邮箱里删除,通过 kill-the-newsletter.com 转成 RSS 的方式订阅。好处是把信息收到一处,同时降低了邮箱的信噪比。
知乎专栏、微博和即刻关注的人、语雀专栏、Telegram Channel、Youtube Channel、小宇宙 等,我都通过 rsshub.com 转成 RSS 的方式订阅。优点是无需打开各种客户端和网站。同时,为了更稳定,我自己部署了一份 rsshub 到 vercel 使用。
Twitter Lists 我写了个简单的程序「f2enews」,他会读取 Twitter Lists 中的热门 Tweet 并保存,每天 24 小时的跑,目前比较简单,但也是我的信息源之一。我部署在 news.sorrycc.com 。
书籍我会优先看电子书,实在找不到才买纸质书。因为电子书能高亮、能复制、能全局搜索等,同时不需要等快递送过来。电子书主要来源是 zlibrary,telegram 机器人 id 是「ZLibrary1_bot」,也可以下 Pake 封装的客户端,地址是 https://github.com/tw93/Pake/releases/latest/download/ZLibrary.dmg ,有些大文件 telegram 机器人不能下的时候,我会用后者。
2、信息消费
我会在每天中午消费前一天的信息和资讯,平均花费 45 分钟 - 1 小时,我期望能减少到 20 - 30 分钟。当然这不包含一些深度的文章和视频,这部分我会记录下来,周六在整理 MDH 前端周刊时统一消化。
RSS 阅读器我用的是「Reeder」;epub 和 pdf 电子书阅读我用 Readwise Reader,优点是可以做高亮和笔记,然后也支持导出 Markdown 格式;有些英文的 Youtube 视频要深入看的时候我也会保存到 Readwise Reader,优点是他会产出全文 Transcripts,对我这种英文听力不太好的人来说更容易理解视频内容。
Readwise Reader 如果要订阅,可以发邮件说明是来自中国(发展中国家),会打半折,我订阅的价格是 $4/月。不会措辞的话可以找 chatgpt 帮忙,见 https://t.me/yqtalk/45 。
我的大量信息渠道都是英文的,所以这部分还有个重要的点是「如何消费英文内容」。我的方法是,1)短文、字词翻译用 Bob,2)文章阅读用 DeepL + 自研的中英文对照油猴脚本,3)英文电子书(epub)用 DeepL + 自研的书籍翻译脚本(注:epub 就是 html,感兴趣的可以自行研究),4)播客、视频用 whisper 提取文字内容,然后再用 DeepL 翻译成中文,视频的话会以中文字幕的形式嵌入视频里观看。
3、信息存储
我 90% 的内容通过 Obsidian 保存在 markdown 文件里,markdown 会在手机和其他电脑之间同步,并定时提交到 github 上(之前有一次用 Logseq 导致数据丢失的经历),包括日常的想法、阅读资讯后的新闻、长文链接、工作笔记、日常写作等都在这里;Flomo 用于保存非技术类的文章阅读笔记;ReadWise Reader 还有个职责是作为非技术类的文章的 RIL(Read It Later);生活类的我会保存在 Apple Notes 里,同时设置一些文件夹和家人共享。
每周开始的时候我会建立一个「MDH 前端周刊」的新一期 Markdown,里面分「新闻」、「长文」等,然后每天中午阅读资讯的时候就贴进去。
4、信息输出
略,见图。