2019年第1天,聊聊信息获取能力
(1)信息获取是当下必备的个人竞争力之一
(2)把细分领域的媒体和大V发展成自己的信息源,是对普通人来说,获取信息效率最佳的方式
(3)利用免写代码的免费爬虫工具,可以打造个人专属的信息图书馆
2019年第1填的最后一天,大家是不是已经开始摩拳擦掌的,做起了年终回顾、为新一年定起了新目标(new flag)了呢?还是今天的大势变动,让大家觉得手里的饭碗更脆弱了呢?
有朋友在问,如果希望未来能像我一样,过着只工作、不上班的自由职业生活,应该开始着手提高什么样的能力、有什么好的学习资源推荐?
我回想了一下脑里的各种体系、工具、知识、骚操作...最后给出的答案是
“先提升信息获取的能力吧!”
【1】为什么说信息获取能力是一项强大的个人竞争力?
这个问题在 关于「阅读」和「信息获取」的错误认知 中已经有了清晰的解释,我就不啰嗦说明了。简单提炼一下中心思想:
所有能帮助我们提升信息获取效率的媒介、工具,都可以善加利用,不需要纠结于形式
不要想当然的认为,碎片化的信息太多有害。“信息过载”从来都是一个伪命题,我们需要的是学会有效过滤掉,自己不需要关心的内容
信息获取和过滤能力,是信息爆炸和碎片化的时代,对我们的能力要求。适应,你就具有竞争力;抗拒,就最终被时代淘汰
【2】如何高效率的获取信息?
要谈信息获取,先要明白几种常见的信息来源:
(1)自己所在平台
这取决于你的现阶段的社会地位、权力范围、教育背景、工作环境等等(很多时候,往往看个人运气)
举例来说,马云、王思聪、政商要员每天看到的、听到的,一般人根本没有机会第一时间接触。想要改变这一点,只能不断努力让自己进入更高的阶级和权力层。
这一点不再展开。
(2)垂直领域的信息源
比如做教育的看芥末堆、做电商的看淘宝、做时尚的看Vogue、搞技术的刷GitHub等等。
不论是微信公众号、专业论坛等在线信息,还是报刊杂志、专业论文,形式不限,只要聚焦于特定领域,都是很好的信息源。
(3)碎片信息
碎片化的信息不意味着没有价值。这些碎片信息可能来自,和朋友的聊天、听专家讲座蹦出的灵感、逛街时看到的有趣现象、图书封皮瞥到的一句话...
(4)垂直领域的头部人物(所谓的大V、KOL)
在特定的细分专业领域里,20%(甚至是5%)的少数人,获取信息和处理信息的效率总是远高于普通人。与其自己去苦苦探索,不如站在巨人的肩膀上做功课。
以我自己为例,作为咨询顾问、独立创客,我总是需要快速把握不同行业、不同职能的关键信息。
我的大脑中,就存在着一个专属于我自己的、各有专长的“虚拟顾问团”:
转化类文案写作、运营策略、撬动资源 —— @黄有璨
商业模式、创业公司冷启动 —— @Caoz的梦呓
Web Scraper爬虫 —— @明白(公众号@多元思维Hack)
内容营销、流量运营、跨境电商 —— @顾小北(公众号@小北的梦呓)
信息套利 —— @森淼 (公众号@风巢)
传统行业互联网化转型 —— @刘润
等等...
垂直媒体也很多,如:
创业公司红黑史 —— @创业邦
增长案例集 —— @增长黑盒
品牌公关案例集 —— @梅花网
等等...
对于我这样的普通人来说,把这些优秀的外脑,作为自己的信息获取源和信息筛选漏斗,是最有(neng)效(tou)率(lan)的方式。
接下来的问题是,怎么获取这些优秀外脑的珍贵脑力资源,为我所用?
作为一个不愿、不想、不太会代码、又不愿老是求助于程序员小哥的怂人,我的解决方法是:
善用Web Scraper爬虫
给几个应用场景:
(1)建立我的“个人图书馆”
以公众号@刘润 为例,操作思路如下:
用Web Scraper抓取所有文章标题、发布时间、文章链接,保存到Excel里
需要时动用关键字搜索
比如,我想知道,刘润先生对于“品牌”的看法,用这样的方式,只需要1s就可以定位到了2015年至今的2篇文章:
培训机构,如何像新东方一样有品牌效应? |《刘润·进化岛》精华第23期
(2)合理“抄袭”竞品内容
这可以说是SEO优化 / 内容优化的最佳武器之一。以微信生态下的公众号内容为例,操作思路如下:
选出希望关注的竞品公众号
Web Scraper爬取所有内容
找出爆款文中观点、论据、文章结构值得借鉴的部分
在同一个话题下,内容深度和广度上做优化
【3】如何有效率的学习爬虫?
何谓有效率?我的经验解读是:不写代码,30min就能够上手解决一个工作中的具体问题。
有哪些坑要避开?
(1)听说大家都在学Python?
我必须承认,Python是一个相对简单的编程语言,也有强大的功能。但是,如果你自认为学习代码的速度和热情一般,那还是谨慎学习Python。
不能尽快产出结果,应用在具体的工作事务中,很容易半途而废。我自己就是一个血淋淋的例子(虽然我毕业自计算机系...)
(程序员哥哥姐姐 & 技术粉们请无视这一条建议。让你们见笑了~)
(2)听说Web Scraper不会编程也能学,那我自己摸索看看?
相信我,WS易学难精,自己摸索的过程中总会出现很多莫名其妙的幺蛾子。
比如:数据爬不全、不能翻页、刚爬出了公众号发现爬不出微博...
总之,入门最好有个好师傅带。再说一次,效率优先。
-----------下面是和主题相关的广告------------
推荐一个学习Web Scaper的知识星球
@Caoz的梦呓 曾经推荐过他的爬虫课,感兴趣的还可以自行去研究一下他的背景,很有趣的~
作为Web Scraper的重度使用者,我有2个推荐理由:
(1)Web Scraper爬虫课(加入星球赠送,价值199元)
整个课程切分成了多个章节,每个章节5-10分钟,集中解决一个问题,很容易上手
课程难度也是按照章节循序渐进(所以请务必从1节开始看,不要随意急着学后面的内容)
这是我为自己服务的客户,抓取的某日本电商网站的某专栏所有内容,近250多条数据1分钟内爬取完成。仅仅用到所学知识的一小部分
(我自己只学习到22节中的第9节,惭愧一下...)
(2)知识星球中点击 # sitemap分享,可以直接导入群友分享的参数设置,抓取数据时就不需要自行配制啦~具体操作办法详见课程
小彩蛋:关注本公众号「增长潘多拉」,回复「Excel外脑」,可以领取我爬取的2013年至今公众号 @刘润 @创业邦 的所有历史文章,包括标题、链接、发布时间,保存为Excel格式
2019年,一起干最酷的事,赚最多的钱~~