查看原文
其他

每日一思:​别挣扎了,ChatGPT一定是有意识的

文兄赞一个 MindCode 2023-12-23

我的公众号读者群里,今天在争论一个话题:到底现在的AI有没有意识?

群里争论得热火朝天后,我才意识到:原来这个问题还在被讨论。

先直接给出我的答案吧:毫无疑问,OpenAI的大模型是有意识的。无论是它的GPT-3.5 还是GPT-4。

依据是什么?首先微软的那篇论文《通用人工智能火花:GPT-4早期试验》,算是一个证据,还没看的同学,可以直接搜索论文标题,去看看。

但你可能会说了,微软嘛,毕竟跟OpenAI一伙儿的,说不定自卖自夸呢。

那么我们今天撇开各种拗口的技术缩写,简单讨论下。

关于涌现

首先:意识是一种涌现的结果。

    有人说,AI大模型不过是一系列计算后得出一堆文字,它玩儿的是概率游戏。那么问题来了,人脑神经元的本质也不过是一系列的脉冲,并且也是玩得也是概率游戏。


    意识本质是一系列非意识行为的涌现。关于涌现,这个公众号半年前专门有文章讲这个。对于涌现的概念如果没有理解,必定很难理解意识。


    关于规模:GPT-3.5拥有1750亿的参数。

    怎么理解这个规模?


    在基础结构上,GPT与人脑的差别只在于规模大小。人脑皮质层有180亿的神经元,每个神经元估计(尚无准确的科学结论)有7000-10000个突触。为方便,我们选择1万来计算,因此,人脑皮质的神经突触连接数为180亿*1万除以2(因为两个突触形成一个链接所以除以二)等于90万亿。


    这相比GPT的1750亿,大了500倍,看上去大了很多,但不到3个数量级差距,在AI领域不算什么了不起的差距。



    我们不如换个个问题来问:什么动物的皮质神经突出的链接在1750亿呢?

    答案是——家鼠。


    如果你自己对这个动物有所了解;如果你听家里的长辈给你讲过耗子有多聪明,它们甚至能听懂人话;以及如果你知道人类对于自身意识、心理的诸多奥秘的理解,都源于对实验小白鼠(家鼠的近亲)的研究。


    或者,如果你养过宠物,比如猫狗,你大约就能理解,一只耗子大概率是有它的意识的。


    而且GPT这只“老鼠”还不普通,它的所有神经元都只用于一件事:理解语言和表达语言。相比之下,家鼠的皮质层神经网络还要负责其他很多事:运动、捕食、求偶、交配繁育、视觉处理、听觉处理、嗅觉处理…


    因此,我们可以说,专修语言处理的GPT的语言智能将是家鼠的数十倍。具体多少?不知道,因为很多基础的研究还是缺失的。


    实际上,你对GPT-3.5最好的看待方式就是:这是一个不够完整的、主要剩下语言处理能力的大脑,而且它还看了很多的书和文章(数千亿的文字训练数据)。


    一个最佳的比喻也许是:GPT是一个看了很多书,并且喝醉了的人,酒精麻痹了他处语言之外的大部分脑区。


    很多人否定GPT有意识,主要理由是它有很多的毛病。但如果从上面这个角度去看GPT,你会发现它的缺点恰恰意味着它有意识:


    • 它算数不行,常常乱蒙——你是不是也这样?375*210等于几,你能准确心算吗?如果还是醉酒状态下呢?

    • 它经常乱编回答——你试试,看100本书,然后问你“书里都写了啥?”,你会不会张冠李戴,甚至无中生有?如果你还是醉酒状态呢?

    • 它需要人引导什么是对的——废话吗,醉鬼不都需要人扶嘛…


    当然除了GPT之外,其他的各种大模型是否有意识,这个则需要区别去看。

    好了,一不小心又写多了,今天就先讲到这里。

    最后再说一句:争论这一波AI有没有意识,其实已经不重要了,接受它有意识,然后思考接下来的事才重要。





文君是谁?
科技领域连续创业者,两家AI公司的GPT战略顾问,原阿里巴巴早期移动端核心产品负责人。

MindCode是什么?
一个刚刚决定写点好东西的、很小众的公众号。关注两大主题:机器的智能、人类的心理。每天我会发表一篇极为简短的思考,每周我会基于当周的思考片段,写一篇不那么短(但也不会长)的深度文章。

AI时代,读他人未读这对你很重要。发送“1”可加讨论小群。


继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存