查看原文
其他

《黑天鹅(第二版)》阅读笔记

Ponge Yestoday 2023-02-03

本文是《黑天鹅(第二版)》的笔记。因为塔勒布喜欢将内容包裹在故事之中(以创造一种文学性和美感),因此,这本书很难做简述,我这种笔记丢掉了大部分的阅读「乐趣」(感谢中信出版社,它将塔勒布送给读者的这种乐趣拌上屎喂给我们)。

阅读《黑天鹅》,我有两点阅读建议:

  1. 读第二版。因为第一版写在金融危机发生之前,很多人惊呼塔勒布准确预言了金融危机的发生(其实如果你看文章,还会发现他觉得未来一定会有全球大流行病,再看看现在的新冠疫情,会更加唏嘘),但事实上,塔勒布的主张恰恰是不预测。一个主张不预测的人接二连三地预测对了黑天鹅事件,也是很有趣的。在第二版中,塔勒布又写了 9 章的内容(第一版有 19 章),虽然比较短,但不亚于 1/3 本新书了(为什么你看不出来呢?对,因为中信出版社的翻译和排版错误,第一版的目录只有 18 章,而且第二版增补的内容和第一版的后记都杂糅在一起了,就是这么优秀)。

  2. 最好读英文原版,如果不行可以读繁体中文版(需要电子版的可以私信我),千万不要读中信出版社出版的任何版本(因为他们只会请人重新设计封面以卖出更高的价格,却不会修订里面上百处的翻译错误)。如果想亲自体验一下中信出版社的优秀翻译,可以看这里

本文目录:

1. 《黑天鹅》 一书的核心思想是什么?
2. 正确理解「黑天鹅」的概念
3. 为什么会出现「黑天鹅」?
4. 环境因素:平均斯坦和极端斯坦
5. 人类认知缺陷因素
    5.1. 人类无法正确地理解历史
    5.2. 人类生来是「黑天鹅盲」
        5.2.1. 内部机制:证实偏差和叙事谬误
        5.2.2. 外部机制:他人给我们造成的情绪伤害
        5.2.3. 其他导致「黑天鹅盲」的机制
    5.3. 如何解决这些认知缺陷造成的问题?
6. 「黑天鹅」推论:人类无法预测未来
    6.1. 内在原因:认知傲慢
    6.2. 外在原因:极端斯坦和信息不完备
7. 如何应对充满「黑天鹅」的世界?
    7.1. 否定经验主义:尽可能避免认知缺陷
    7.2. 不预测,只是做好准备
    7.3. 向大自然学习,提高稳健性

以下是笔记。








1. 《黑天鹅》 一书的核心思想是什么?


《黑天鹅》一书讨论的是一种重大的认知局限,即知识的局限性。这种局限性既是心理上的(认知傲慢和认知偏见),也是哲学上的(数学工具层面的);既是个体的,也是群体的。之所以说「重大的」,是因为「黑天鹅」关注于有影响力的稀有事件。我们的知识,无论是经验知识还是理论知识,都会在这些事件发生时变得毫无用处——事件越不常发生,我们就越无法预测它们,但这类事件影响力是最大的。
因此,《黑天鹅》一书讨论的是某些领域的人为错误,这种错误被长期的科学主义传统和大量的信息(这些信息助长了信心,但却没有增加知识)所放大。专家问题属于这种错误的一个子类。这个世界上存在着看起来很科学的假行家(有的会用方程式,有的不会),以及对自己的方法比证据更有信心的普通科学家(倒不是假行家),由于对他们的依赖所造成的伤害,就是专家问题。
这个问题的关键在于,不要在重要的领域成为「养鸡场的火鸡」,在影响不太大的领域,做个犯错的傻瓜一点问题也没有。
注意:
  • 「黑天鹅」并不是对所有观察者都是「黑天鹅」;
  • 重点不在于这种随机是本质上的随机性,还是由于信息不完备导致的看似随机,重点应该是分辨极端斯坦和平均斯坦;
  • 塔勒布并不是建议「不要用模型」,而是「不要用误差很大的没用的模型」以及「不要在不应该用模型的地方用模型」。

2. 正确理解「黑天鹅」的概念


我发现,直到我阅读本书之前,我在市面上听到的关于「黑天鹅」的说法居然大多都是错的。
根据书中的定义,「黑天鹅」需要满足三个特征:
  1. 超预期性(稀有性)。「黑天鹅」往往是一个异乎寻常的情况,不在常规的预期范围内。之所以如此,是因为过去没有任何能够令人信服地判断它发生概率的依据。
  2. 极大的冲击性。这种事件往往会产生巨大的影响。
  3. 事后可预测性。尽管这种情况异乎寻常,但人类的天性使我们在事后为它的发生寻找合理性的解释,使它成为可解释和可预测的。
这三点也是很多人都会提到的。但是他们没有提到的(也是他们错误理解「黑天鹅」这一概念的地方)是:
首先,「黑天鹅」的着眼点不仅仅是概率,还要考虑发生后事件产生的影响,重要的是「期望值」而不仅仅是「概率」。
其次,「黑天鹅」所谓的稀有事件,其概率往往是未知的,而不仅仅是概率小。塔勒布在书中非常明确地提到:在世界上,正态分布是很少的,大部分的概率分布我们无法先验的知道,也因此没办法很好地预测。
最后,「黑天鹅」是一个主观现象,不存在一个在所有观察者眼中都是不变的「客观黑天鹅」。「黑天鹅」描述的是人类心理上、甚至可能是生理上的盲目性。「黑天鹅」的问题不在于事件本身,而在于我们对事件的认知方式。「黑天鹅」与预期有关。如果可以的话,可以通过科学方法或开放的心态消除「黑天鹅」现象。

3. 为什么会出现「黑天鹅」?


「黑天鹅」的出现,既和环境有关,也和人自身的认知缺陷有关。
塔勒布认为,现实世界是复杂的,尤其是现代社会,其复杂性更高。复杂往往意味着难以(在不丢失信息的情况下)概括和抽象。但是,人们却倾向于用容易理解的模型和思维方式来理解这个世界。
这种「地图」和「疆域」(「地图不是疆域」)的差异,导致了「黑天鹅」的产生。这个差异部分,塔勒布将其称为「柏拉图褶皱(The Platonic fold)」地带。
「柏拉图式思想(Platonicity)」,是指我们往往会把地图当做疆域,往往会专注于单纯而定义完善的「理型(forms)」,无论是物体(如三角形),还是社会概念(如乌托邦,即根据某种「理性」蓝图建立的社会),甚至是国籍或民族。
柏拉图褶皱(The Platonic fold)是柏拉图式思维模式与混乱的现实接触产生的冲突边界,在褶皱区域,你真实知道的和你以为你知道的之间存在巨大的、危险的认知差距。

4. 环境因素:平均斯坦和极端斯坦


斯坦(-stan)是指国度,充满……的地方。
平均斯坦(Mediocristan)是指在这个领域中,当样本量足够大时,任何个体都不会对总体产生很大影响。极值对于总体的影响微不足道。在平均斯坦,你可以根据已有数据的总结归纳获得知识,知识往往会随着信息供给的增加而迅速增加。
典型属于平均斯坦的数据:
  • 体重、身高、卡路里消耗等物理变量;
  • 烘焙师、小餐厅老板、妓女、牙医的收入;
  • 赌博的利润(单次投入固定金额);
  • 车祸发生概率;
  • 死亡率;
  • 智商分布。
极端斯坦(Extremistan)则不同,是指在这个领域中,哪怕样本足够量足够大,单一个体也依然能够对总体产生不成比例的影响力。在极端斯坦,你需要持续对从数据中获得的结论保持怀疑。从数据中获得的知识并不会随着信息增加而迅速增加,甚至有可能不是正相关关系。
典型属于极端斯坦的数据:
  • 财富、收入;
  • 图书销量、学术著作引用量;
  • 名人的出名程度;
  • Google 相关信息条数;
  • 城市人口;
  • 单词表中词汇的使用频率;
  • 不同语言的人口数量;
  • 地震产生的危害程度;
  • 战争死亡人数、恐怖事件的伤亡人数;
  • 行星的大小;
  • 不同物种的身高;
  • 股价表现、金融市场、商品价格、通胀率等经济数据。
对比平均斯坦极端斯坦
规模可变程度规模不可变规模可变
随机性类型I 型(温和型)II 型(狂野型)
典型代表平庸普通的大多数要么特厉害,要么特差劲,没有典型
输赢分布赢者拿走很小一部分赢者通吃
时代古代更多现代更多
对「黑天鹅」的反应不受影响反应剧烈
是否存在均值回归
领域物理变量信息变量
公平性相对公平极端不公平
可知性和可预测性观察一段时间能够了解,并可以基于此做出预测需要花很长时间了解,并很难从过去信息中预测
运行规律大数定律充满意外和无序
历史发展规律渐进式发展跳跃式发展
概率分布正态分布未知

「黑天鹅」与平均斯坦、极端斯坦的关系如下图所示:




  1. 大部分「黑天鹅」发生在极端斯坦;

  2. 极端斯坦中并不只有「黑天鹅」,还有「灰天鹅」(或称为曼德布罗特式随机)。「灰天鹅」是罕见的,但却是可以预期的,在科学上是可以解决的。了解其运行规律有助于避免「灰天鹅」的发生;

  3. 平均斯坦中也有「黑天鹅」。这往往是由于人们遗忘了随机性,或者由于人们目光狭隘、忽视了随机性导致的。

补充:「灰天鹅」是什么?

塔勒布认为,有一些随机性可以用分形的模型来描述,即有一些极端斯坦可以使用如下公式来近似:

说明:
  • :超过特定「超越水平(exceedance)」的事件数量;
  • :特定的「超越水平(exceedance)」;
  • :推断幂次(assumed exponet),不同事件的推断幂次赋值不同。
举例:假设图书销量的推断幂次是 1.5,且已知每年只有 96 种图书能够卖出超过 25 万册。问:有多少图书可以每年卖出 50 万册?
代入公式:
可知,大概有 34 本()图书可以每年卖出 50 万册。
一些重要提示:
  • 的性质:数字越小,极端值对总体的影响越大;数字的一点点变化会引起结果的巨大差异。
  • 模型并不准确, 的推断基于历史,并不能用来预测,只能让我们有点基本的概念。
  • 假面舞会难题(masquerade problem):一般推断幂次会比真实值更大,也就是说你看到的部分会显得更不具「黑天鹅」性。比如,真实的幂次可能是 1.7,但是根据数据得出的推断幂次可能是 2.4。
这个模型的启示:
  • 任意大的数字都是可能出现的,即使这个数字从来没有出现过;
  • 不同维度的相似是自仿射(self-affine)的,而不是自相似(self-similar)的;
  • 模式是用来理解的,不是用来预测的;
  • 使用分形来描述随机性并不会消除「黑天鹅」,它只是将极端事件变得可想像(淡化了不可知性,将黑的变成灰的),从而减轻了「黑天鹅」问题;
  • 并不是所有的「黑天鹅」都可以用分形来描述,只有一小部分可以用模型来描述的从「黑天鹅」变成了「灰天鹅」,还有大量「未知的未知(unknown unknown)」依然是「黑天鹅」,比较明确的两种「黑天鹅」包括:
    • 事件本身具备随机性,但我们忽视了其具有随机性;
    • 高估了分形随机中的幂次,低估了极端事件的影响力。

5. 人类认知缺陷因素


5.1. 人类无法正确地理解历史

塔勒布认为,当我们思考历史、并企图通过历史来指引未来时,人类的思维会受到三种认知偏差的影响,并将这三种偏差称之为「历史的三重迷雾(triplet of opacity)」,包括:
  1. 理解幻觉(以为自己懂了):事实上,这个世界比我们以为的更加难以理解、难以解释,以及难以预测;
  2. 回溯性扭曲(将历史合理化):我们只有在事后才能评估问题,就像在后视镜中一样(历史在历史书中似乎比在经验现实中更清晰,更有条理)。回溯的难点在于正向过程(forward process)和逆向过程(backward process)的非对称性。逆向过程比正向过程复杂多了。所谓「正向过程」,是指想象一块冰融化成水是什么样的。这种往往是物理研究范畴;所谓「逆向过程」,是指想象一滩水原来处于冰的状态下是什么样的。这种往往是历史研究范畴。哪怕我们准确知道蝴蝶煽动翅膀导致一个月后龙卷风的整个传导路径,我们也无法根据龙卷风回溯到到底是蝴蝶煽动翅膀还是什么其他的因素导致的。
  3. 对信息有效性的过度估计及「柏拉图式」简化问题。一方面,关于历史,更多的信息并不能让你更好的预测,但是会增加你的自信心,反而可能出问题。这一点在知识越多的人身上体现的越明显。知识丰富的人往往拥有更强的自信心而不是更好的判断能力。另一方面,「柏拉图式」简化(通过「贴标签」来理解世界)往往是黑天鹅事件产生的重要来源,它让我们错误地理解了真实世界。
在理解历史时,非常容易出现「火鸡问题」:火鸡每天都被人喂养,每次喂养都会坚定火鸡的信念:人类是关注火鸡最佳利益的友好伙伴,他们每天会喂养我。这个信念会不断坚定,直到感恩节前夕。喂养你的那只手或许就是拧断你脖子的那只手。
这里蕴含着一个归纳法的缺陷:向过去学习。所有的经验来自于历史的实际数据,历史的数据越好,并不能得出未来更加会一直这样下去,反而会增强我们的信心,导致「黑天鹅」的出现。
其实,哪怕就在最近,类似的例子也接二连三地出现,比如 Luna 暴雷、教培行业双减政策等。

在理解历史时,另一个非常容易出现的问题是「未来盲视(future blindness)」,即我们无法具备历史的同理心。当我们考虑明天时,我们并不会设身处地回到前天,想一想当时我们是如何考虑明天(也就是昨天)的。
因此,塔勒布认为,我们对待历史应该采取这样的态度:历史是故事、是叙事,和虚构的奇闻逸事一样,能够满足人们的自我认同愿望。历史传统是一种潜移默化的东西,是人们行动的基础,但仅此而已。
切记:
  1. 不要企图从历史中总结出什么一般知识,或者形成特定理论。
  2. 不要建立任何因果链条,不要尝试过多地逆向工程(理解过去)。
  3. 警惕「简单粗暴的类比」。

5.2. 人类生来是「黑天鹅盲」

内部机制和外部机制的共同作用下,我们会忽视看不见的东西和抽象的东西,从而导致「黑天鹅盲」。

5.2.1. 内部机制:证实偏差和叙事谬误

证实偏差(confirmation bias)是指,人类固有的天真经验主义(naïve empiricism)思维方式,是人类本能的认知倾向,习惯于寻找事例证实我们的故事、逻辑以及对世界的看法。这种事例总能找到,人们往往认为这个例子就是证据(evidence)。但事实上,我可以为任何事情找到证实的例子(find confirmation)。
证实偏差中有一类特殊的谬误,被称为往返谬误(the round-trip fallacy):两种说法,虽然在逻辑上这两种说法看上去差不多,但事实上完全不同。这两种说法是不可互换的(interchangeable)。擅自交换语序就是往返谬误。
典型的往返谬误:
  • 混淆「没有证据显示(no evidence of)」和「证据显示没有(evidence of no)」;
  • 混淆「大部分 A 都是 B(almost all As are Bs)」和「大部分 B 都是 A(almost all Bs are As)」。比如虽然大部分恐怖分子都是穆斯林,但不代表大部分穆斯林都是恐怖分子。
叙事谬误(narrative fallacy)是指,人们无法在不编造理由或强加一种逻辑关系的情况下看待一系列事实。解释将事实绑在一起,更容易被记忆,也更说得通。但这种解释并不一定是事实,但却往往让我们以为我们对事物有了更好的了解。
人们为什么会喜欢简化和解释事实?可能和以下因素有关:
  • 生理学角度:人们看到事实、记住它们却不作判断和解释是需要花费很大精力的,人类认知的默认选项就是解释并合理化。有的学者将其解释为左右脑的功能差异(左脑负责解释,右脑负责事实),也有的学者认为多巴胺可能导致人们更容易过度解释。
  • 信息论角度:信息的获取、存储、处理、提取过程是有代价的。人们倾向于将信息简化,以便能被获取、存储、处理、提取。信息越具有随机性,事物就越复杂,越难以概括,信息论上使用「柯氏复杂度(Kolmogorov complexity)」来衡量信息的随机性程度。叙事往往能够通过添加逻辑关系减少复杂度
简化和解释事实时可能出现的问题?简化和解释事实有生理学和信息论的基础,是人们天生的倾向,但在这个过程中会出现问题:
  • 忽略没有被解释的事实:人们更容易记住那些符合某种逻辑的事实,而忽略那些看上去在某个叙事体系下不扮演因果关系的事实;
  • 记忆会对事件的发生顺序进行重构,甚至会改写记忆,使其符合逻辑。这也是为什么「事后诸葛亮」的事情特别多;
  • 同样的信息会被演绎为多种符合逻辑的叙事,但符合事实的只有一种
  • 有些事实无法找到合适的原因,但人们倾向于不断寻找原因,只能得到精确的错误。
叙事谬误如何影响我们对「黑天鹅」的理解?
  • 如何描述、叙述事件会扰乱我们对事件概率的预测。最典型的例子是,比较这两句话哪句更可能发生?A:一个人似乎快乐地结婚了。这个人杀了他的妻子;B:一个人似乎快乐地结婚了,他为了得到妻子的遗产而杀了她。一般会认为第二句话更可能发生,但事实上,第一句话代表了更宽泛的情形,甚至包括了更多种可能的原因;
  • 人们倾向于高估具体的、已知的、能够被解释的「黑天鹅」,低估抽象的、无人提及的、无法被解释的「黑天鹅」。比如,历史上没有重复发生的事件在发生之前是被忽视的,但在发生后的一段时间内则被过度估计(比如飞机坠毁事件发生后,很多人不想坐飞机)。再比如,人们会觉得枪击案是很严重的恶性事件,却没有想到车祸或者环境导致的死亡人数数量更多。
证实偏差和叙事谬误的区别:证实偏差讨论的是基于我们已有的信息,推断未知信息时会出现的问题,这个谬误发生在信息集之外(outside the information set)。叙事谬误讨论的就是我们处理已有信息时发生的扭曲,这个谬误发生在信息集之内(within the information set)。处理已有信息时发生的扭曲有很多,叙事谬误讨论的更多是信息简化带来的扭曲

5.2.2. 外部机制:他人给我们造成的情绪伤害

从事属于极端斯坦的工作,会让人受到双重伤害:
  • 同侪压力。整个社会的奖励机制和评价机制(社会不会评估过程而只会评估结果)构建于平均斯坦之上。从事属于极端斯坦的工作,往往会缺乏社会认可,缺乏他人给予的尊重,导致自身缺乏足够的勇气和自信;
  • 荷尔蒙的奖励机制,对即时反馈的渴求。长时间的毫无进展会让人沮丧。幸福感来自于积极情绪出现的频率而不是强度,同样,不幸福感也是如此,而这与极端斯坦的属性不一致。

5.2.3. 其他导致「黑天鹅盲」的机制

沉默证据(幸存者偏差)
幸存者偏差可能让我们对很多事情有错误认识,比如:
成功者成功的原因并不仅仅是能力,还有很多运气:还有大量缺乏运气、同样有能力的人没有显露出来。注意,这里想表达的不是说这些知名的人没有能力,而是想说他们没有我们想象的那么独特。
特定因素可能是事物的筛选结果,而不是导致事物的原因,存在多样性特征的事件往往会出现这种偏差:
  • 实验室的老鼠显得更强壮,是因为不强壮的老鼠已经死掉了,实验室对所有老鼠都造成了不好的影响,但很多人会认为实验室加强了老鼠的能力;
  • 物种灭绝率比我们想象的高得多,因为很多物种并没有留下化石。生命比人们以为的脆弱得多;
  • 罪犯的模样并不是我们看到的样子,因为我们看到的罪犯的样子只能代表不够聪明而被捕的罪犯。而且罪犯抓捕率也远远低于披露的数字;
  • 初来乍到的赌徒手气比较好,是因为手气不好的赌徒离开了赌场,没有被统计到样本中;
  • 游泳运动员身材苗条,健身的人身材壮硕,但并不代表游泳和健身能够导致这种身材,很有可能是逆向选择,身材壮硕的人在游泳中缺乏成就感,苗条的人在健身中缺乏成就感,而不再喜欢从事这类运动。
具体的因素往往会被注意,抽象的因素往往会成为沉默的证据:
  • 灾害过后,政府用财政支持灾后重建,减少了科研研发的经费,可能导致更多的死亡。但灾害是具体的,科研成果对病人的治愈效果是抽象的;
  • 飞机空难虽然死了人,但人们因为担心飞机出问题而转去坐汽车,往往会导致死亡率的提升而不是下降。飞机空难是具体的,但车祸死亡率是抽象的;
  • 如果一个药的疗效很好,但副作用是少数人死亡,医生不会开这种药。因为死人的病患是具体的,被药治好的人是抽象的,他们不会再出现。
沉默的证据对「黑天鹅」会产生什么样的影响?
因为「黑天鹅」的风险是不可见的,往往会成为沉默的证据,导致我们低估过去的风险。
冒险家都认为自己是命运的宠儿。事实上,很多人冒险不是出于勇敢,而是出于无知和对不确定性的无视。
不要基于幸存从历史中找理由。就好像我们从祖先能够一路活到现在是非常小概率的事情,想要寻找这个事情的原因,不应该去问「是什么原因导致我现在还能活着」,也许就是随机性导致的,没有原因。
训练场谬误(ludic fallacy)
有个人跟你说:假设硬币是公平的,正反的概率相同,我把它抛出 99 次,每次都得到正面向上。那么我下一次的得到反面向上的概率是多大?
下面哪一个更接近正确答案?
A. 50% B. 1%
学究气比较重的人会选择 A,他们会在既定的框架下理性思考,但他们会犯的错误就是「训练场谬误」。正确答案应该是 B,因为在硬币抛出 99 次,每次都得到正面朝上的情况下,那种声称的假定很可能是错误的。
ludic 本身在拉丁文里面是 game 的意思,书中也将其翻译为游戏谬误。但是我理解这里更适合翻译为训练场,因为塔勒布想表达的意思是,人们将很多现实进行柏拉图化抽象,并借助抽象后的模型对现实进行判断时会出现这种谬误。
塔勒布想表达的意思是,我们在现实生活中面临的不确定性的属性与我们在考试和游戏中遇到的不确定的属性没有什么联系,在课堂中学到的知识往往是存在于真空中的、故弄玄虚的,这些知识可能会阻碍人们理解现实生活中发生的事情。
现实生活中你是不知道概率的,你需要去发现他们,而且不确定性的来源是不确定性 。学校学习的往往是服从正态分布的假的随机性,而现实中往往不是这样。

5.3. 如何解决这些认知缺陷造成的问题?

如何解决证实偏差?持否定经验主义(negative empiricism)的态度,通过寻找否定事例,而不是证实事例来接近真相。具体做法是,首先提出一个(大胆的)假设,然后开始寻找能够证明猜想错误的事例。
如何解决叙事谬误?避免叙事谬误的办法就是采用更多的实证检验,通过提出假设并进行检验来理解因果性。此外,还有一个办法就是采用日志的方式记录当下的判断,并对判断结果进行统计。另外就是「去叙事化(denarrate)」,也就是说,关闭电视机,尽量减少阅读报纸的时间,忽略博客的内容。训练你的推理能力来控制你的决定;把系统 1(启发式或经验式系统)从重要的决定中移开。训练自己辨别感性认知与实证事实之间的区别
如何解决情绪伤害问题?对未来的结果充满期待和希望。保持期待和希望的技巧:
  • 认识到我们对尊严和尊重的需要,找到同伴或加入一个群体,创造一个与外界隔绝的小环境,避免同侪压力;
  • 只关注长期的大变化,让大脑避免短期负面结果的不良影响。
如何避免受沉默证据影响?尽可能考虑沉默的证据,并基于此对结论进行修正。

6. 「黑天鹅」推论:人类无法预测未来


6.1. 内在原因:认知傲慢

认知傲慢(epistemic arrogance)是指我们对自己知识局限性的狂妄自大,即随着知识的增长,自信心往往增长的更多。我们以为我们知道的比我们实际知道的多。
认知傲慢有一个推论,即在通过信息了解真实情况的过程中,更多信息往往对了解真实情况有害
为什么会出现这种情况?主要是因为思维惯性,一旦形成一个观点,我们就很难改变,所以情况对那些推迟形成观点的人更有利。背后的机制:
  • 证实偏差(the confirmation bias):天真经验主义是人类本能的认知倾向,习惯于寻找事例证实我们的故事、逻辑以及对世界的看法;
  • 信念坚持(belief perseverance)倾向:人们很容易坚持自己已经持有的观点。
认知傲慢会有两方面影响:高估我们自己知道的、低估不确定性
人们(尤其专家)往往会高估自己的预测能力:
  1. 存在信念坚持(belief perseverance)和自尊捍卫(the protection of self-esteem)机制,对失败的预测进行事后解释。
    1. 不在能力范围:「预测的领域我不擅长,或信息不充分」;
    2. 归因于意外:但事实上,这种意外往往是模型过度简化的结果;
    3. 差点成功:这种看法源于人们对于随机事件认知上的不对称性。一种不对称性的表现是,成功是自己能力强,失败是外部变化快;另外一种不对称性的表现是,小概率好事自己遇到的概率大,小概率坏事自己遇到的概率小。
  2. 专家往往过于专注某一领域,缺乏信息广度,并且由于存在叙事谬误(编造理由或强加一种逻辑关系的情况下看待一系列事实),虽然听起来头头是道,但预测准确率很低。
人们往往会低估不确定性,通过压缩可能存在不确定状态的范围,即我们以为不确定性的范围变小了,但实际没有。一个典型的例子是在做计划时会出现系统性误差,因为:
  1. 人类本性的问题
    1. 做计划时闭目塞耳(Tunneling):即在做计划时会忽略计划外的不确定性来源。如果计划偏常规性,那么预测性往往较好;如果计划非常规性的,那么预测性往往较差(因为不确定性来源迅速增加);
    2. 科技发展让概率坍缩,并通过「锚定效应」影响预测:未来本来是抽象和多种可能性的,但是科技的发展让我们能够比较具体地描绘未来的某一种情况(比如用 Excel 进行公司的业绩预测),而这种概率分布被坍缩到某一种具体的情况上了,并在「锚定效应」下,影响了我们的预测。
  2. 世界复杂性的问题:平均斯坦(正态分布)中,小概率事件发生后,继续发生小概率事件的条件概率越来越小,但是在极端斯坦中,小概率事件发生后,继续发生小概率事件的条件概率反而可能变大。举例来说,一个人岁数越大,其预期往后能够活的平均寿命越少,但是如果一个工程拖了很久没有完工,很有可能要预期永远不会完工了,预期完工的时间随着时间的推移反而变长了。
  3. 现实工作中的预测往往只注意预测的预测值本身,往往会忽视可能的错误率,导致三种谬误:
    1. 忽略变化幅度。决策更依赖于结果的可能范围,而不是平均期望值。比如一个地方平均温度是 21 度,我告诉你上下波动可能会有 40 度,和我告诉你上下波动可能会有 5 度是完全不一样的。误差范围比预测值本身的意义要大得多,甚至在决策时,最糟糕的情况比预测的正常情况要重要得多
    2. 忽略在近期预测和远期预测上的能力差别。人们在预测远期的事情上能力很差。
    3. 错误估计了随机变量的分布,将属于极端斯坦的变量误认为属于平均斯坦。
认知傲慢的一个衍生话题:专家可靠吗?
这个问题不能一概而论,有的领域存在真正的专家,有的领域不存在真正的专家,但无论在什么领域,都应该对他得出结论的信心程度表示怀疑
什么领域存在专家?什么领域不存在专家?
存在专家不存在专家
事物不太变化的领域事物会不断变化,需要了解真实情况的领域
「know-how」的领域「know-what」的领域
需要技术、工艺的领域需要知识、科学的领域
宇航员、检验员、运动员、会计师心理医生、法官、HR、分析师、经济学家


6.2. 外在原因:极端斯坦和信息不完备

即使不考虑人类自身的认知缺陷,预测也是没办法实现的。

首先,历史上的新发明或新发现也不是预测出来的。

  1. 经典的发现模型是这样的:我们在寻找已知东西的过程中找到了我们未知的。比如哥伦布准备去寻找去往印度的路,结果发现了美洲;人们在找导致噪音产生的鸟粪时发现了宇宙背景微波辐射。

  2. 预测的发明或发现并没有如期到来。比如之前有人认为电脑的出现会替代书、世界语会替代其他语言等等。

  3. 很多时候先有的解决方案才有的问题本身,工具的发明是兴趣的产物,却带来了意外发现。比如计算机的发明、互联网的发明都不是为了解决目前的这些问题的。我们制造玩具,有些玩具改变了世界。

其次,预测未来存在悖论。为了预测某个历史事件,你需要预测技术创新,而技术创新从根本上是不可预测的。如果你能够预测未来的技术创新,那么在你能够预测的这个时点,这个技术创新就已经被发明或发现了。预测要求我们知道将在未来发现的技术,但只要认识到这一点,我们就会立刻开始开发这些技术,因此,我们不可能知道我们将知道什么。

再次,这个世界的本质就存在不可预测性。比较典型的如亨利·庞加莱的「三体问题」、爱德华·洛伦茨的「蝴蝶效应」。

最后,现实中的不完全信息让我们无法区分真随机和信息不完全导致的随机(或者区分这两种随机性缺乏实践意义)。


7. 如何应对充满「黑天鹅」的世界?


7.1. 否定经验主义:尽可能避免认知缺陷

在自我认知层面,要努力练习通过实证、证伪的方式(否定经验主义)认识世界。尽量做到去叙事化,训练自己辨别感性认知与实证事实之间的区别。这些内容在上文「如何解决这些认知缺陷造成的问题?」中有很好的论述。

7.2. 不预测,只是做好准备

塔勒布明确提出了一套解决方案。他认为,预测是人类的固有天性,人们需要花费精力才能让自己保持不急于做出判断的状态。因此他的解决方案是,在小事上(日常生活中)顺势而为,在大事上做好准备。
如何判断一个事情是小事还是大事?考虑事情可能造成的损害,根据程度来区分大事还是小事。
如何做好准备?关注各种可能性的结果,而不是可能性的概率,构造非对称性结果组合。
首先,需要从观念上乐于接受失败和波动性
  • 乐于接受失败:学会反复试错(Trial and error),承认小的失败是生活的必需,最好能够爱上失败(You need to love to lose)。
  • 乐于接受波动性:本质上还是耻于遭受失败,在随机性存在的地方,控制波动往往会增加黑天鹅出现的风险。
其次,从策略上构造巨大的非对称性结果组合(非对称性是本书的核心思想),通过这个让自己从预测失败和认知傲慢中获益。
  • 在金融领域,这个策略被称为杠铃策略(barbell strategy)。具体做法是:85~90%的仓位买入极度安全的资产,比如国债;10~15%的仓位买入极具投机性的资产,比如期权,或者一篮子风投式投资组合(注意,这个投资组合必须是由大量小仓位资产组成的)。
  • 在生活领域,塔勒布提供了一些具体的建议:
    • 区分正向黑天鹅和负向黑天鹅,做一些具有正向黑天鹅特征的事情(小损失换大收益,比如出版影视或文字作品、科学研究、风险投资等),并对负向黑天鹅事件保持警惕。需要注意的是,出价过高可能让本来具有正向黑天鹅特征的事件变为具有负向黑天鹅的事件,比如互联网平台过去花了大价钱买断了电视剧。
    • 不要精确的错误,把精力花在做准备而不是预测上。
    • 敢于尝试,敢于反复试错,抓住一切像机会的东西。确保损失有限的情况下,尽可能主动出击。比如人际交流。
    • 当心权威的预测,不要太当回事。
    • 不和不懂随机性的人(证券分析师、经济学家、社会学家)争论。
关注各种可能性的结果,而不是可能性的概率,是应对随机性的关键。这里需要明白,我们只需要关注特定事件发生造成的影响(收益率),并尽可能考虑各种情境(可能性),却并不需要预测每种情境的发生概率。
非对称性就是在各种可能性结果上做到损失有限,收益无限。

7.3. 向大自然学习,提高稳健性

塔勒布认为,大自然给我们提供了一个非常好的稳健性的样本。他认为有三种提高稳健性的方式:冗余、规模适度、加入随机性。
1. 大自然喜爱冗余(redundancy)。以人体为例,冗余主要表现为三种形式:
  • 器官冗余(organ redundancy):一般人都有两只眼睛、两个肺、两个肾……这种冗余也被称为防御性冗余(defensive redundancy)。冗余就是保险。
  • 功能冗余(functional redundancy):同一个功能可以由两种不同的结构来完成。
  • 单器官功能冗余:一个器官不仅仅有一种功能,在特定条件下,某些非主要功能可以发挥作用,比如嘴不仅可以用来进食,还可以用来亲吻,甚至做更多事。
与冗余对立的叫做盲目优化(naïve optimization),塔勒布举了三个例子:
  • 经济学就是一门盲目优化的课程,如果按照经济学的思维模式,我们应该将自己两个器官的一个卖掉,然后在需要的时候从市场上租。
  • 过度专业化的全球化也是盲目优化的表现,只会让全球经济更加脆弱。这一点在今天体现的更加明显。
  • 债务。债务的前提是对未来的预测,要求你对未来有更好的预测,但事实上你做不到。
当你有大量冗余时,随机性总的来说是有帮助的,但有一个条件——你能从随机性中获得的好处多于它对你的伤害。
2. 大自然不喜欢规模太大的东西。大自然不会限制彼此之间的连接,但是会限制节点的大小,这一点适用于公司规模(似乎也适用于公司服务的市场?持股的集中度?)。
3. 活的有机体(人体或者经济活动)需要可变性和随机性,具体来说,需要的是极端斯坦的那种随机性,否则其脆弱性就会增强
塔勒布简要阐述了他自己极端斯坦杠铃式生活方式(Extremistan barbell lifestyle):
  • 走路方式:每天长时间的漫步(意识不到自己在运动的那种),辅之以随机、短时的拼命狂奔;
  • 健身方式:数周时间完全不锻炼,但偶尔在饿了一阵子以后去健身房举大重量,把自己搞得精疲力尽,但是单次不超过 15 分钟;
  • 着装方式:偶尔不穿外套在大冷天外出;
  • 睡觉方式:利用旅行的机会,先经历长时间不睡,之后再大睡一觉;
  • 饮食方式:在美食圣地胡吃海塞,之后便是连续几顿不吃饭。
注意:要将痛苦的部分集中在很短时间内完成,这样幸福感较高。


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存