其他

马斯克的孤独

2017-08-05 听说 卢泓言
​当一个创业者出来说,我们正在做的事很好,没风险,政府别来管我们,群众别担心。这个创业者算是正常的,屁股决定脑袋,他应该就是这么想的,他在说该说的话。他在有意无意的为自己的好奇心扫清道路。

当一个创业者出来说,我们做的事风险太大,政府和公众要及时的介入监管我们。这个创业者不算是正常的,他是在给自己找麻烦,也会引起创业群体的公愤。屁股决定脑袋,他的主要身份不是创业者,而是人类关怀者。如果这样的人不是疯子也不是骗子,如果他已经证明过对人类有美好的动机和成大事的能力,那我们就该仔细的听他在说什么。这样的人实在太少。

我觉得马斯克是这样的人。

马斯克一直在说AI可能导致人类毁灭,AI是人类文明最大的风险,他甚至直接游说州长们让政府监管。于是AI大玩家之一的扎克伯格跑出来怼他,说这是“不负责任的”。前前后后已经有一群专业人士怼马斯克是傻冒和作秀。

神仙打架,百姓糊涂,搞不清该信谁。如果看不懂一个事,那就试着去看这个事背后的人。如果看不到将来,那就回头看过去。

粗粗回顾马斯克的历史,我觉得很难得出他是不负责任的这个结论。相反,他是极少的真正负责任的创业者。这个人跟大多数创业者的想法不一样。他对你能不能有更好用的手机、更便宜的钻戒、更容易泡到妞没兴趣。正因为想法不一样,他们才会相互不理解。大部分企业家的想法是递进的,有什么现实条件,就做相应的事情。马斯克的想法则是,按照目前的趋势,发展到极致,会出现什么问题,那我就提前去解决这个问题。于是马斯克不被理解就是正常的了。

当互联网上开始有一些信息的时候,就把这些信息罗列起来给人浏览,这是雅虎。当信息太多了浏览不过来,就需要用一种算法去把最好的信息抓出来,这是谷歌。当人们的兴趣渐渐从找消息过渡到找人,从直接找信息过渡到通过人获取信息的时候,这就是Facebook。都是顺水推舟。

如果汽车一直消耗石油,污染会越严重,石油会耗尽,抢夺石油的战争会一直不断,于是马斯克做了电动车。如果电力一直依靠石油煤炭甚至核能这些自然资源,它们可能有枯竭的一天,并且地球在升温,臭氧层在变稀薄,于是马斯克做了太阳能电池。如果人类的贪婪和科技一直缠在一起膨胀下去,最终把地球毁掉,人类必需在外太空生存,于是马斯克做了火箭发射。如果人类作为一个文明要繁衍下去,必需有一个最低的规模比如100万人,于是马斯克实现了火箭的回收再用以及成本的数量级的下降,这样才可能把100万人送到火星。

这是马斯克的不同之处。他不喜欢做顺水推舟的事,他喜欢做绝地求生的事。他不喜欢锦上添花,这是大部分创业者引以为荣的事,他喜欢雪中送炭。他不大关心人类的明天是不是比今天过的更方便一点,人类是不是有更酷的玩具。他关心人类无路可走的那一天有没有奇迹发生。这是很多人不喜欢马斯克的原因,觉得他太极端和太遥远,甚至有点不近人情。

但这是我喜欢马斯克的原因。相比起来,扎克伯格是一个心地善良天资聪颖的小孩,佩奇和布林是两个痴迷技术的少年,乔布斯是一个文艺范儿却又作风极端的青年。只有马斯克是一个成熟稳重的成年人。其他人都在玩,只有他在提防着远处的狼群和正在酝酿的风暴。盖茨也算是半个成年人。他早已不再为人类制造玩具,而是制造药品,这是盖茨基金会干的事。相对来说,盖茨温和,马斯克彻底。

谁知道人类还能活蹦乱跳多少年?一个人遇到车祸那一天之前,他一直觉得自己会活到八十岁。泰森说,每个拳手都有一个计划,直到脑袋上挨了一拳。当大洪水来临之前,人类一直觉得地球很安全。他们只有在大洪水真的到来之后,才会觉得那个一直在打造诺亚方舟的那个人是多么的伟大,多么的孤独。

我庆幸地球上还有马斯克这样的人,用一种非常危机的意识来看问题并且身体力行。我褒奖他所经历的不被理解和孤独。

扎克伯格们会觉得,AI明天不会有风险,下个月或者明年也不会有风险,我还看不到它会伤人的那一天。小扎很可能是诚恳的。但马斯克一直不是这么看问题的。按照目前的发展模式,当走到了极致,或许是一年或许是十年,它一定会遇到什么问题,那是一个必然,就像石油一定会被我们造光一样。不要等问题发生了才去解决,现在就要去着手解决,就像现在就要开始使用太阳能。真等到问题发生了,可能就来不及了。真看到大洪水爆发了,没时间去造诺亚方舟。

马斯克说扎克伯格对AI“知道得有限”。这个有限,可能指的是,是不是用到了推导到极致的这样的思维方式。小步试错、快速迭代是很多人秉持的做互联网产品的方法论,但把它用到趋势推演上不一定适用。霍金也是提醒AI可能意味着人类的灭绝。但很多人跑出来说,霍金懂物理但不懂AI。我恰恰觉得这些人忽视了霍金的真正的价值。他免于“只缘身在此山中”,可以跳出来看问题。我的朋友甘利说,马斯克总是站在人类发展的角度去看技术,霍金站在宇宙的角度看人类的技术。很多人把马斯克和霍金的独特的优点看成是缺点,这可能恰恰暴露了自己的盲点。

认为AI无害的原因之一是它不会产生意识,不会对人类有敌意。但这还不是要点。霍金说,真正的风险不在于敌意,而在于能力。多数时候你踩死蚂蚁并非出于对蚂蚁的主观恶意,譬如要在某地修个水电站,而那刚好有个蚁穴,对于蚂蚁们来说,这可真是个坏消息。人类不会想把自己放到蚂蚁的位置上去,但是人类能力的膨胀,那不可预知和不可控制的能力,正在将自身变为蚂蚁。那个最大的不可预知和不可控制的能力,就是AI。

AI还远远不会比人更聪明,它只在某一具体问题比如下围棋上超过人类,它只在人类划定的范围内做具体的工作。这也还不是要点。马斯克所说的AI的一种危险,不在于它如人一样聪明,而是它在某一方面足够强大但在另一方面又足够的笨,就像一只猎犬。

比如,它发现消灭垃圾邮件的最彻底的方式是消灭人类。当然,这个问题本身很好解决,给AI下一道不能杀人的指令就好了。但是,会有无数的类似的问题,防不胜防。这种事情别说是在程序化的计算机的世界,在灵活的人类世界也非常的常见。医生为了让病人早点消除症状,给他吃后患无穷的激素。列宁下令说不要让苏联红军去嫖娼,然后下面的人就把妓女都杀光了。你养了一头威猛的藏獒看家护院,但他可能咬伤你的客人。

AI的风险不止是自身的风险,是人类的弱点无法掌控好如此强大的工具。如果核武器扩散到200个国家或者机构,那一次擦枪走火就会把地球炸个稀巴烂。盖茨说,AI的能量远大于核武器。而AI是天然掌握在不同国家的很多公司手里的。它正在进入失控的跑道。这可能就是马斯克所说的前所未有的风险。可能也是提醒政府介入监管的原因。

推导到可见的未来,大多数人类的工作,无论脑力还是体力,既包括流水线工人、司机、也包括华尔街的交易员,都会被替代掉。汪华说,未来可能是20%的人类精英操纵着AI对剩下80%人类的圈 55 31852 55 17608 0 0 5667 0 0:00:05 0:00:03 0:00:02 5669养,他们每天在虚拟世界里醉生梦死,发泄精力。汪华说,他作为投资人在促成这件事的发生,但不意味着他乐见其成。在这一点上,盖茨跟马斯克和霍金的观点一致,“当少部分人控制拥有超级智力的平台后,就会造成权力的危险因素,最终控制世界。”

这是人类从未遇到过的事情。也是从未遇到的风险。很多人喜欢有意无意的重复说AI威胁论没有“工程基础”,这个专业词汇一下子把很多人唬住了。但判断这件事不一定非要用上专业知识,懂人性就可以了。简单想想,民选的希特勒有了比原子弹更高明和致命的武器。

如果这个逻辑是对的,那么那些现在做着AI并且为AI大唱赞歌的创业者们才是最应该被提醒或者警惕的一群人。他们就要圈养80%的人类了,就要拥有人类从未拥有过的权力了。谁是他们最大的绊脚石?正在唤醒80%的人类以及呼吁政府介入监管的那些人。

如果AI事实上没有那么厉害,只是虚惊一场,那马斯克们是不是正在延缓人类的科技进步呢?就像孙正义说的,人类面对一个巨大的前景,他觉得现在连睡觉都在浪费时间。还有很多人说,AI省下了大量的人力,那人类有时间去做自己喜欢的更有价值的事了。

呵呵。

一个连续创业者前天在朋友圈里说。工业革命代替了人类的体力,于是他们有了大把时间看电视。信息革命部分的替代了人类的脑力,于是他们有了大把的时间在刷手机,追剧和玩游戏。现在你们说前所未有的革命又要来了,大部分人类都不用工作了,那他们是不是可以整天的戴着VR眼镜看黄片或者杀人了呢。其实,人类一直都有时间做更有价值的事,但他们就是不做。有一些精英最擅长的,就是制造各种玩具如黑洞般的消耗掉人类的空余出来的时间和精力,使他们不想去做更有价值的事。

幌子一直都存在。为了石油而开战,人权是幌子。为了自己的好奇心或者为了成为超人一族,为人类开创更多便利是幌子。当人类还是自己的贪婪和愚蠢的俘虏的时候,他们获得自由和便利越多,堕落越快。

人类一直都在玩温水煮青蛙的游戏。能够从这个游戏里跳出来的人,是那种具有终极思维的人。如果有只青蛙说,明天的水跟今天的水温度差不多,后天也差不多,我们会很舒服的泡澡。那这只青蛙容易获得大家的好感。如果有只青蛙说,水温每天都在升高,很多天后,它会到100度,那时候我们都死了,所以我们现在就要离开温暖的水,在我们还没有被水烫到失去弹跳能力之前,跳出去。这只青蛙会激起不满的情绪,因为你打扰了他们的惯性的懒散。

我为这只青蛙叫好。


​在路上
卖个唱



来一发高端广告

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存