查看原文
其他

V神表示人工智能可能超越人类成为“顶尖物种”

ChandlerXiang Minima研究所 2023-12-15

以太坊联合创始人维塔利克·布特林 (Vitalik Buterin) 表示,如果不加以控制,超级先进的人工智能很有可能超越人类,成为地球下一个“顶尖物种”。

但他表示,这将归结为人类如何干预人工智能的发展。

在 11 月 27 日的一篇博文中,被一些人视为加密货币领域思想领袖的 Buterin 认为人工智能与其他近期发明“根本不同”——例如社交媒体、避孕、飞机、枪支、轮子和汽车。印刷机——因为人工智能可以创造一种新型的“思维”,可以违背人类的利益,并补充道:

“人工智能是一种正在迅速获得智力的新型思维,它很有可能超越人类的智力,成为地球上新的顶尖物种。”

Buterin 认为,与气候变化、人为流行病或核战争不同,超级智能人工智能有可能终结人类并且不留任何幸存者,特别是如果它最终将人类视为对其自身生存的威胁的话。 

“人工智能出错可能让世界变得更糟的一种方式(几乎)是最糟糕的方式:它实际上可能导致人类灭绝。”

“即使是火星也可能不安全,”Buterin 补充道。

Buterin 引用了 2022 年 8 月对 4,270 多名机器学习研究人员进行的一项调查,他们估计人工智能杀死人类的可能性为 5-10%。

然而,尽管 Buterin 强调这种性质的主张是“极端的”,但人类也有办法获胜。

大脑接口和技术乐观主义

Buterin 建议整合脑机接口(BCI),让人类能够更好地控制基于人工智能的强大计算和认知形式。

BCI 是大脑电活动与外部设备(例如计算机或机器人肢体)之间的通信路径。

Buterin 表示,这将把人与机器之间的双向通信循环从几秒缩短到几毫秒,更重要的是,确保人类在世界上保留某种程度的“有意义的代理权”。

Buterin 表示这条路线会“更安全”,因为人类可以参与人工智能机器做出的每个决定。

“我们可以减少将高层规划责任交给人工智能本身的动机,从而减少人工智能自行做出完全不符合人类价值观的事情的机会。”

这位以太坊联合创始人还建议“积极的人类意图”将人工智能引向造福人类的方向,因为利润最大化并不总是引导人类走上最理想的道路。

Buterin 的结论是,“我们人类是宇宙中最明亮的星星”,因为我们已经开发了数千年的技术来扩展人类的潜力,并希望未来能有更多的发展:

“二十亿年后,如果地球或宇宙的任何部分仍然拥有地球生命的美丽,那么太空旅行和地球工程等人类的技巧将使它成为现实。

关注公众号了解链圈最新资讯

推荐阅读:

XRP 价格可能会重拾 2017 年 61,000% 的涨幅

2023-11-26

币安的赵长鹏在宣判前寻求回国

2023-11-26

FTX代币(FTT)飙升276%:又一轮上涨正在酝酿之中吗?

2023-11-25

XRP Ledger 发布令人兴奋的大更新!

2023-11-25

Shiba Inu (SHIB) 近期有望突破 15个百分点

2023-11-24

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存