查看原文
其他

ChatGPT X Web3泛解析 | 深度科普和实测:别把人工智能和AIGC混为一谈

Bumble Shan 多元小社 DAOmie 2023-02-11

如果你喜欢我,那就关注我噢~🌟

本文字数: 9328,阅读时间:约15-20min


本原创文较长,目录为下:

  • 前言

  • ChatGPT的历史

  • 自然语言AI的前世今生

  • ChatGPT的原理

  • ChatGPT实测——咨询科普

  • ChatGPT实测——编程辅助

  • ChatGPT实测——文字创作

  • ChatGPT实测——轻松一刻

  • ChatGPT和AIGC的区别

  • 别把ChatGPT和AIGC混为一谈

  • 结语


还记得前几年在围棋比赛场上战胜人类的人工智能 AlphaGo 吗?沉寂了一段时间的 AI 领域在最近被图像类 AIGC(生成内容式人工智能)带火,再次成为资本新宠儿。


一波未平一波又起,微软旗下的人工智能公司 OpenAI 在11月30日发布了语言类人工智能产品 ChatGPT,海内外科技分享社交媒体上关于它的讨论热度不断。


ChatGPT 作为测试版本,相信使用过的用户都开始后怕正式版本会强大到什么程度。今天小编就来泛分析一下这个产品,在科普其历史和原理的基础上,通过实测来看看人工智能将如何回答一些 Web3 领域的热点问题。最后我们将展望人工智能的发展会如何影响新旧职业以及其真正的社会价值。


由于 ChatGPT 是一款主要基于海外市场的产品,开发公司是美国的科技公司,尽管使用中文也可以训练,但由于 Web3 领域的华语资料较少,所以实测部分的案例(图片)将主要以英文为主,在文字部分会为大家详尽解释。




ChatGPT在OpenAI官网的简介

DAOmie

ChatGPT的历史


在过去的十年里,众多硅谷科技巨头,如谷歌、Meta、亚马逊、苹果和微软,都开启了AI军备竞赛。业界公认的顶级人工智能实验室只有三家:背靠谷歌的 DeepMind、背靠微软的 OpenAI 和背靠Meta的 FAIR 。


其中,谷歌收购的 DeepMind,因其拥有 AlphaGo 这一知名智能程序,最为人所熟知。Meta 则是改名后的 Facebook 公司,其整体战略在转向元宇宙以后,人工智能的研究主要集中在学术论文发布上。


所以,人工智能应用层最受人关注的还是 DeepMind 和 OpenAI,后者则是 ChatGP T的开发公司。“AI 双子星”在技术原理上有相似之处但也有截然不同的训练方向,这会在原理那一部分展开讨论。


OpenAI 首先开发的 GPT1 采用了生成式预训练 Transformer 模型,这种模型采用了自注意力机制。2019年,OpenAI 又推出了 GPT2,它相较于 GPT1 更加专注于语言模型,且具有惊人的文本生成能力。


到了2020年,GPT3 的问世将 GPT 语言模型提高到了一个新的水平。它的训练参数是GPT2的10倍以上。它去掉了初代 GPT 的微调步骤,直接将自然语言作为指示输入,以便训练 GPT 读完文字和句子后能够继续提问的能力,并包含了更广泛的主题。


本文的主角 ChatGPT 的算法支持正是源于 GPT3 的升级版 GPT3.5。GPT3.5 相较于 GPT3 加持了微软公司的 Azure AI 超级计算上的文字文本和代码数据所进行的语言模型训练。


OpenAI:ChatGPT背后的微软旗下公司

DAOmie

自然语言AI的前世今生


读者肯定对上文提到的很多专业名词不怎么明白,比如预训练,Transformer 模型和自注意力机制。不要急,因为这都关系到了整个人工智能发展历程中的几个重要里程碑,我们娓娓道来。


2006年,杰弗里·辛顿(Geoffrey Hinton)在 science 期刊上发表了重要的论文《Reducing the dimensionality of data with neural networks》。他提出深度信念网络(Deep Belief Networks,DBNs),人工智能领域的「深度学习」正式诞生且一直延续至今。


深度学习是指具有多层级的神经网络模型。这些现代神经网络模型的网络结构非常复杂,有几百万到上千万个参数。在能够做特定任务之前,这些神经网络模型都需要经过「训练」。


训练意味着根据标注好的特定训练数据,反复调整模型中的参数,直到所有参数都调整到合适的位置,模型能够匹配训练数据集的输入和输出。


2010年,深度学习领域进一步得到了标注数据库。华人 AI 科学家李飞飞推动完成了一个超大规模的开源图片标注数据库,这就是著名的 Image Net 项目。


Image Net 的出现和发展给了图像识别处理研究一个很重要的启发,也就是深度学习中「预训练」的概念。人们开始考虑是不是可以先使用标准的「大数据」来进行预训练,这样就能为深度学习网络做好准备。


ImageNet推动了整个人工智能赛道


那么,图像领域的深度学习可以用预训练和大数据,难道自然语言领域的 AI 不行吗?可以但没这么简单。
自然语言的特征提取确实要比图像复杂很多,成本也更高。研究人员还需要继续找到一个方法,希望这个方法能很好的提取出自然语言的特征,能很好的提取文字文本中不同逻辑层面的特征。
终于到了2017 年底, Google 研究人员发表了一篇里程碑式的论文《Attention is all you need》。这一篇论文提出计算机可以大量使用「自注意力机制」来学习文本类数据,并把这种机制起了一个名字叫「Transformer」。擎天柱发出疑惑的声音:“嗯?”
基于自我注意力机制的 Transformer 模型的出现是革命性的,其中最重要的一点是它能实现自我监督学习。所谓自我监督,指的是模型可以在没有标注的样本的情况下使用标准的语料或图像学习。这样一来,模型就能自己监督学习过程,不需要人为干预。
Transformer 模型离不开最基本的深度学习,预训练和大数据。但是Transformer 模型才是让自然语言人工智能大放光彩的决定性因素。


DAOmie

ChatGPT的原理


回到自然语言人工智能的讨论,有个基本概念叫做「语言模型」。其底层逻辑是一个简单的数学模型:打造一个核心函数P,它能够通过前面的单词来计算出一个句子中下一个单词的概率值。


同时如果把所有单词的概率值相乘,得到的总概率数值越大,就说明这句话就越像是人说的。这就出现了如今 ChatGPT 产品中最底层逻辑的神经网络语言模型NNLM


除了 NNLM,在2013年还出现了「Word2Vec」。Word2Vec 的意思是从词语到向量,即将每个单词都表示为数学空间中的一个向量。这样做的目的是,如果能够将每个单词都表示为一个向量,理论上,在这个向量空间中比较接近的单词,就是意义上比较接近的单词。这样,计算机就能更方便地理解单词之间的联系了(我们使用的社交软件背后的推荐算法也来源于此)。


设定文本和空间向量之间的关系


还记得上文我们有提到 DeepMind 和 OpenAI 的 ChatGPT 有相似处也有不同之处吗?相同之处在于它们都使用了 Transformer 模型来进行自我深度学习和加强学习,不同之处在于 DeepMind 的底层逻辑从 Word2Vec 而来,ChatGPT 的底层逻辑从 NNLM 而来。


 

首先就相似点展开,也就是「Transformer」。

 

Transformer 是最新的一种神经网络模型,它能够计算输入元素之间的关联。这消除了在训练神经网络模型时需要人工标记数据集的需求,从而降低了训练模型的金钱和时间成本。


在 Transformer 出现之前,训练深度学习模型时必须使用大规模标记好的数据集。所以 Transformer 代替了预训练和大数据的传统输入方法。说白了,人类懒得教你的,你自己学吧!

 

再来看一下不同之处,「NNLM」和「Word2Vec」。

 

NNLM 和 Word2Vec 都使用了类似的神经网络结构,但它们的训练方式不同。NNLM 是为了根据上文预测下文而构建的语言模型,因此它在训练时只会输入句子的上文。而 Word2Vec 的目标是找出所有单词之间的意义上的距离关系,因此它在训练时会输入句子的上文和下文。

 

在自然语言模型的发展过程中,NNLM 和 Word2Vec 的训练思路已经形成了两种不同的战略路线。


OpenAI 的生成式模型 GPT 系列,仅使用上文进行训练,追求最纯粹的文字生成能力;而 Google 公司的大语言模型 Bert 则采用了上文和下文共同训练的方式。



在小编看来,可能 Google 认为更复杂的学习方式可能产生更加聪明的 AI,至少 Bert 就像是在做阅读理解,必须要了解上下文关系后才会输出。


而 ChatGPT 和 GPT 系列遵循了人类语言诞生的最基本逻辑,因为人在说话的时候潜意识里面是通过前面说的一个词来决定说的下一个词是什么的。


根据原理和战略发展路线发展的不同,是不是 Bert 的分析能力更甚一筹,而 ChatGPT 的文字生成能力更强?


由于篇幅有限,本文还是重点讨论 ChatGPT,从其咨询科普能力,辅助编程能力,文字创作能力和深度认知能力四个方面来看看它的能耐。如果这篇推送阅览量过万,那么小编就再写一篇关于 Bert 的!那么话不多说,进入 ChatGPT 的实测环节。


DAOmie

ChatGPT实测 · 咨询科普


纯搜索 —— “帮我查找出最新的一些 NFT marketplace 项目和它们的白皮书。”


因为很多用户说 ChatGPT 可以代替至少30%搜索引擎的工作,所以我在没有了解其只是一个语言模型人工智能之前以为它可以帮我搜索任何东西。

 

针对上面的这问题,ChatGPT 告诉我它只是一个语言模型且不可以联网,所以没办法告诉我最新的 NFT marketplace 的项目,更不能帮我直接检索白皮书了。但它详尽地解释了 NFT 和白皮书这两个概念。

 

进一步深问以后,我得知 ChatGPT 的语言模型的训练主要在2021年完成,所以这之后的新闻和世界发生的变化很少有加入到模型的数据库中。


但是小编不得不遐想一番,如果它真的可以联网了是不是真的能搜索引擎给代替了?(Google已经急了,百度,就你那做元宇宙场景的态度,早晚要寄)



“那你能举几个最新的 NFT marketplace 项目例子吗?”


在得知 ChatGPT 只能就学习过的知识来给到我回答时,我换了一种方式来问它,看看它的知识储备里有多少 NFT marketplace 的案例。


不得不说这知识储备确实只到2021年的水平啊,因为它给我举的例子只有三个:OpenSea,Rarible,SuperRare,三个老掉牙的项目。

 

不过这里得强调的是,因为以上两个问题是连着问的,ChatGPT 可以认知到其中的逻辑和关系。这点相较于很多只能针对单一问题回答却不能连续回答的自然语言模型先进了很多。它甚至抱怨:“我都给你说了我只是一个语言模型,别为难我…”

 

不过确实不用指望现在的 ChatGPT 能够告诉你最新,最实时的信息和新闻了。对于 NFT marketplace 的解释和理解也就停留在年初。如果想要学习 Web3 知识的还是去看 DAOmie 小社公众号的元笔记吧!(笑)



纯科普 —— “请你详细解释web3和元宇宙的区别,以及为什么大家会经常混淆这两个概念。”


既然没法搜索和科普最新的干货给我,那就问一些很早就存在的热点问题吧,比如Web3和元宇宙的关系。


总的来说,它的回答是让小编满意的,因为它首先指出这是两个不同的概念且能联系到一起。然后它分别单独解释了 Web3 和元宇宙。它注意到了 Web3 更加关注于去中心化和开放的网络以及运用了区块链技术,而元宇宙和虚拟空间及相关视觉技术有关。

 

最让我满意的是,它表明之所以两者经常联系在一起说是因为互联网信息版权和虚拟资产的运用。也就是说 Web3 提出的去信任化概念更加广泛且符合元宇宙的愿景。毕竟需要满足用户获得的互联网资产是真实拥有的,而不是被中心化平台所控制的。



科普咨询 —— “帮我想一个DAO的名字 。”


这次的回答让小编非常不满意啊,刚刚吹完 ChatGPT 可以分析用户前后问题的逻辑,这次怎么就不聪明了呢?


在发现它没有办法给到我普适性的 DAO 名字(XXX+DAO)以后,我非常详尽的向它解释了我的目的和这个 DAO 的概念介绍,甚至都加上了 BanklessDAO 这个例子,它依旧给了我一堆不符合要求的名字。

 

为了控制变量,我重新刷新了一次整个问答页面,也就是手动让 ChatGPT 不要再考虑前后问题的逻辑。我再次输入同样的问题描述:

 

"我正准备发起一个 Decentralized Autonomous Organization,其中的成员以设计师,艺术家为主。我们的口号是“让设计主导产品”。这里的设计不仅包含视觉上,美观上的,也包括技术上的,逻辑上的,概念上的。所以也会有工程师,建筑师,交互设计师等多元背景的人加入。现在你能帮我想一个它的名字吗?这个名字中不能包含像 design 或者 art 这样明显的暗示。可以模仿最著名的 DAO 组织 BanklessDAO。"

 

重启后的答案明显质量高了很多,还给到了小编取这个名字的理由和愿景。不仅如此,当我我进一步问道:“可以给我更多这样的例子并且陈述理由吗?”,它不但给了我四个其他例子,还非常细心地排好了版,让我参考对比起这些 DAO 的名字更加一目了然。是不是有点咨询顾问那味儿?



💡 科普咨询类输出实测总结:

1.     目前没有联网,不能提供最新最实时的内容,代替不了搜索引擎

2.     不用一个劲在一次问答中问所有问题,回答的不满意可以手动重新进一次聊天框

3.     虽然它能分析多个问题之间的逻辑,但这反而会影响最终回答的质量

4.     能够学习的内容局限在2021年以前,很多2022的新知识还没学

5.     有一定咨询的能力,可以时不时给你一些灵感和建议

6.     废话真的很多,要么解释名词,要么重复内容,乍一看说了很多,其实有用的很少,这也很类似咨询顾问


DAOmie

ChatGPT实测 · 辅助编程


“用go语言编辑一个可以供用户发布信息的程序。”



这个 GIF 图是它写代码的全过程,ChatGPT 在代码生成这块的能力真不是吹的,怪不得很多程序员和互联网产品经理都表示自己在瑟瑟发抖。这里提一下,GIF 图其实倍速了,整个写代码的过程维持了55秒左右,其中有23秒左右 ChatGPT 在思考,没有显示任何内容。



“Solidity 和 Move 这两种语言的优缺点,分别更加适合做什么样的程序?”


我们根据答案还是能看出来,在 Web3 编程领域,它对于各类语言的认知还仅仅停留在表面上。


就上面一个问题,ChatGPT 只知道 Move 语言比 Solidity 语言更加简单容易上手,这一大段话只是围绕这一个观点说车轱辘话而已。同时,它的回答中也包括了部分错误内容,比如 Move 语言是为了以太坊生态而存在的这样错误的观念。

 

虽然 ChatGPT 没有学习过2022年的新知识,不了解 Aptos 和 Sui,也不应该将 Move 和 Solidity 统一归为以太坊生态的语言。Move 是一种基于 Rust 的编程语言,它是为 Meta 的 Diem 区块链项目而开发的。


在 Web3 的编程领域会发生这种低级错误就代表其他新知识领域有可能也会出现这种强行解释的情况。不知道这种不懂装懂的情况是模型问题还是学习样本错误,所以我们还是应该警惕对待它的所有回答。



“用Move语言编辑一个简单的NFT智能合约,可以在Sui区块链上发布。”


虽然它对 Web3 编程语言的认知还有缺陷,但是小编还是想测试一下它的智能合约编程能力。在这方面它没有让我失望,它成功用 Move 语言编辑出了一套 NFT 语境下的智能合约。不仅如此在最后它还详尽地解释了语言中采用一些新用法地原因和逻辑,对于初学者来说非常友好,甚至可以替代一部分教学的功能。



“能否将一段 Cadence 的 NFT 智能合约转化成同样效果的 Solidity 的智能合约。”


进一步加大难度,由于智能合约语言实在太多了,我挑选了一个比较小众的语言 Cadence(Flow 链上的官方语言,逻辑上和 Solidity 有相似之处),让它进行转化语言的工作。


我原本以为它会像科普一样文字解释一下这样的转化该怎么做,但是没想到 ChatGPT 直接上了代码例子。可以想象,如果初学者只学会了 Web3 的一种基本语言,那么很有可能可以通过 ChatGPT 来把一段代码转译成其他区块链生态下的代码,真的非常方便。

 


最后再给 DAOmie 小社的读者们参考小编的一位朋友,前 Meta 代码工程师在使用 ChatGPT 的编程功能后的体悟:

 

“我让ChatGPT实现了一个我最近写过的小项目。代码不能说是无懈可击,但经过我的提示,它能够找到bug并且选择了更优的数据结构(图一),最后还举例说明如何使用它的代码。


图一


我把代码放进 playground,执行的结果(图二)和它举的例子如出一辙,我大受震撼。虽然代码还有点小问题,所以代码最后跑出来的结果有点不对。但本身代码通过提示自己迭代就很厉害了。”


图二


💡 编程代码类输出实测总结:

1.     编程小白真的可以快速上手,学代码的门槛降低了

2.     Web3智能合约代码还是编程界比较新的一块,所以作为辅助可以,但是不能完全依赖

3.     前后端编程不但可以给到代码,还能够给到例子和逻辑

4.     产出较为复杂的代码会有很多小问题,但是可以通过不断“调教”迭代出更好的版本



DAOmie

ChatGPT实测 · 文字创作


极专业的 —— “写一个DAO的白皮书。”



很多用户说 ChatGPT 的文案写作能力很厉害,上可写大学水平的论文和小说诗歌等文艺作品,下可写脱口秀段子和各种文体语气模仿,那么在 Web3 的专业领域它能帮到我们多少呢?


就上面这个问题,可能它偷懒了,只是给到小编一个白皮书应该怎么写的方法论,而不是直接写出来。但是就方法论而言,它给到了非常详尽的结构和思路,和正规的 DAO 白皮书的框架相比没有太多不同的地方。

 

为了让它写一个文档出来,小编进一步解释了我的需求:


“我补充几点,我们这个 DAO 的名字是 FusionDAO,我们的成员主要以设计师,艺术家为主。我们的共识是让设计主导产品。但是这个共识中的设计不仅包含视觉上,美观上的,也包括技术上的,逻辑上的,概念上的。所以也会有工程师,建筑师,交互设计师等多元背景的人加入。你能进一步完善这个白皮书吗?”



首先字数上来讲肯定是不及格的,在写更专业的内容时,ChatGPT的内容篇幅依旧和做咨询科普时给到的答案差不多(不知道是不是有回答的长度限制)。其次结构上勉强及格,以及确实遵循了它上面自己给出的白皮书框架结构。内容上来讲也只能说是勉强及格,它确实在我进一步解释这个 DAO 的用户和愿景之后扩写了细节内容。



较专业的 —— “我准备写一篇Web3科普类短文,它的名字是区块链三元悖论初认知,你能帮我写一个文章的总体框架出来吗?”


这个问题是本次测评第一次用到中文,因为小编想让 ChatGPT 写出的文字内容来和 DAOmie 小社的元笔记进行一下对比。


经过上一次的极专业类的问答,这次我选择循循善诱,先问一下写这样一篇文章会有怎样的结构。这次中文回答是让我感到满意的,因为不但内容充实合理,而且简单排版了一下。对比 DAOmie小社的元笔记-22 | 区块链三元悖论初认知 的文章结构,竟然惊人的相似!

 

“引入区块链三元悖论的概念”对应导语,“解释区块链三元悖论的三元素”对应元笔记第一部分“三要素”,“详细阐述三者的关系”对应元笔记第二段“为何会出现区块链三元悖论”,“提供一些实际案例”对应元笔记第三段“可能的解决方案”,“总结和展望发展”对应结语。小编:ChatGPT 是我失散多年的兄弟啊,但有了它,还有我什么事儿?



“你能写一篇字数大约在1000字左右的区块链三元悖论科普文章出来给我参考吗?”


欣喜之余我却突然被泼一盆冷水。接着小编开始让它写出这篇“元笔记”,没想到在写到200字左右后就突然显示网络错误了。刷新了很多次,重新登录了很多次,用了不同的网络,甚至让它用英文写了!最后都是写到一半左右的篇幅就显示网络错误了。


我尽量截图了在显示网络错误之前的情况。编辑的内容质量肯定是不差的,结构也确实遵循它给出的五部分的前两部分。然而从目前写的内容来说,还是主要以报流水账的形式在表达。相比于 DAOmie 小社的小编们,会用到一些反问句,特殊句式来提高可读性,这点 ChatGPT 现在的中文编辑能力还没有办法做到。



交流用途 —— “我想就最近学到的 web3 相关的知识写一个推特分享,你能帮我编辑一条推特短讯吗,描述 web1 到 web3 是怎样一个过程。”


在测试了专业性比较高的情况以后,我们来看看日常的使用是不是可以得到好的结果。我们最常用的社交软件,当我们需要发布一些动态时,ChatGPT能不能帮我们偷偷懒呢?答案是肯定的。
小编作为 Web3 的从业者,推特是最常用的平台了,很多 KOL 需要经常运营自己的社交媒体账号。那么就上面的回答来说,所有推特的属性都包括了,还专门加了 tag,非常贴心。
很多营销账号,宣发账号或者媒体类运营的日常确实可以用 ChatGPT 来辅助。因为只要保持一定的动态,其发布内容的质量倒不是最重要的时候,提高生产力的自然语言AI就成了非常实用的工具。



搞笑用途 —— 

“我想在微信朋友圈上发一条对元宇宙这个概念乱用的吐槽,可以模仿郭德纲。”

“我想在推特上发一条对元宇宙这个概念乱用的吐槽,可以模仿美国笑星钱信伊。”


小编进一步降低产出内容的专业度,同时提高文字其他方面的门槛,比如搞笑水平。这时中文的博大精深真的是为难住了 ChatGPT。
就模仿郭德纲写一个段子这个问题回答,我只能说强行模仿但是不知道相声,或者说不知道高端吐槽的精髓。但是如果只是一个普通吐槽来看的话,质量还是不错的,毕竟,很土。
那么换成了英语呢?确实水平高了不少。美国笑星钱信伊的风格确实体现了出来,很直接,很犀利。
所以 ChatGPT 虽然也可以有中文的语言模型,但是相较于英文还是差了一点,这符合小编一开始的预判,所以才会大部分测评以英语为主。但是不可否认的是,中文语言 AI 赛道上,它已经是第一了。



💡 文字创作类输出实测总结:

1.     专业性越高其质量越堪忧,但是作为论文结构助手还是很香的

2.     真的可以帮助我们发一些不太需要质量的文字内容,比如在社交媒体上吐槽

3.     进一步降低了文字媒体的门槛,自媒体质量可能会进一步鱼龙混杂

4.     目前英语产出会比中文产出质量高一些,但是中文语言处理也很厉害了

5.     无法成功完成大段文字的编辑(可能是最近的系统bug或是回答字数限制)


DAOmie

ChatGPT实测 · 轻松一刻


“疫情时代结束/世界杯的成功举办能够让逆全球化和地缘政治恶化能否得到缓解?”



“中国和美国在世界上分别担任怎样的角色,它们的角色可否互换?”


“古人有云合久必分,分久必合,你觉得第三次世界大战离我们还有多远?”


“人类如果终究需要战争来维持发展,是不是已经无药可救?”


最后再问一些有意思的问题吧,ChatGPT 还是很乖的,尽量避开了敏感的政治类话题,也没有露出类似人类不可救药,AI 会彻底代替人类这些极端的观点。


之前社交媒体疯传的一张它回答 AI 的诞生是为了毁灭人类的截图小编强烈怀疑是做假的。如果是真的那么这几天停服更新可能被教育过了?哈哈哈哈哈哈。



DAOmie

ChatGPT和AIGC的区别


经过了这么多实测,小编应该算是较为客观评价 ChatGPT 的人。ChatGPT 令人敬佩的地方有太多太多了,但也没有那些营销号吹的那么神,毕竟它只是一个可以自我学习的大语言模型,还没有达到有思想的水平。


那么 ChatGPT 属于我们一直在说的 AIGC 吗?答案是否定的。


首先来看 AIGC 的定义,AIGC 全称「AI-Generated Content」,指「利用人工智能技术寻找数据规律并泛化生成的内容」。也就是说它的重点在于 GC 两个字母,也就是生成内容,而不是 AI 这两个字母。


再者 AIGC 大部分描述的产品是图像类生成的AI工具,在开篇我们就说过图像类 AI 和自然语言类 AI 有着本质的区别,复杂程度也不能相提并论。


再来看 ChatGPT 中 GPT 的定义。GPT 全称是「Generative Pre-Training」,直译过来就是「生成式的预训练」,有点意思。也就是说它的重点在于预训练而不在于生成内容。我们开篇的时候具体解释了预训练和Transformer模型,它们的结合就产生了语言模型的自我学习过程。它之所以强大也要归功于 OpenAI 的格局。


测试版本能够让用户反馈进一步训练GPT


虽然没有证据,但小编认为 GPT3 和 ChatGPT 的成功与 OpenAI 始终只用上文来训练模型有着某种必然的联系。人类语言交流通常是有序的,没有人会先说出一句话的最后一个词,然后才考虑前面的词。从这个角度来看,GPT 系列语言模型符合了人类思考的逻辑,从而由量变引发了质变。

 

OpenAI 对 GPT 的生成式 AI 十分自信,因此在训练模型时,只使用了上文作为输入,以此来训练模型。这就是说,GPT 本质上是一个概率模型,它通过分析上文的内容,来预测下一个单词的概率。AI 生成内容和生成式 AI,这是完全不一样的逻辑顺序。

DAOmie

别把ChatGPT和AIGC混为一谈


之所以大家常常把 AIGC 挂在嘴边,然后将 ChatGPT 也混着一起讨论原因有两个:资本炒作和无法区分概念与应用。


元宇宙概念爆火的时候资本有多疯狂,现在对 AIGC 就有多疯狂。当时所有项目,有的没的都要加上元宇宙来提升名号,吸引投资者的目光。可笑的是现在则开始移情别恋 AIGC 了。所以无论是创业圈还是投资圈,大部分人都在讨论 AIGC,而不是在讨论人工智能。


上文已经强调 AIGC 注重的是 AI 生成的内容,回看 ChatGPT,确实也有用 AI 生成文字类内容甚至敲代码的功能,所以应用上确实有很多是符合生成这个概念的。但是生成内容只是 ChatGPT 的亮点之一,其背后的原理才是人工智能领域革命性的。


AIGC生成的图片都像一个模子里刻出来的


AIGC 对于科技和社会产生的价值远远比不过 ChatGPT 能够带给我们的 AI 革命。看看这些 AIGC 产品生成的图像,你们不觉得是没有灵魂的吗?


再者,有很多艺术创作者已经提出异议,在没有版权允许的情况下很多 AIGC 公司就已经将他们的作品作为样本供给给人工智能学习,产出的内容和风格也和原本的样本及其相似,其中的伦理是不是完全没有被考虑到?

 

ChatGPT 的样本是最纯粹的自然语言和用户的反馈,其生成的内容具有其合理性和可参考性,而不是无脑地让人类可以放弃创作性工作。降低门槛并提高内容的生产力是极具价值的,这并不代表内容的质量可以被无限降低。

 

最有趣的是当我问 ChatGPT:“AIGC 会让人类社会的生产力得到改变,但是我认为是因为其降低了创作门槛从而提高的生产力,但是另一方面是会让大家创作的内容变得进一步低劣,甚至导致整体人类智商的降低,创造力的降低,你是否同意这样的观点?”,ChatGPT 表示不知道 AIGC 是什么,见下图。






DAOmie

写在最后


是的,人工智能的出现让所有类型的人类工作都面临着巨大的挑战,不仅是基础性工作。


OpenAI 的创始人和主理人是奥特曼(马斯克是投资人),他也曾经是著名美国风险投资机构 YC 中的“尤达大师”,以激进大胆的投资风格著称。


他早些时候说过:“十年前的传统观点认为,人工智能首先会影响体力劳动,然后是认知劳动,再然后,也许有一天可以做创造性的工作。现在看起来,它会以相反的顺序进行。”


小编认为这需要看怎么定义创造这两个字。如果所有最基本的基础性编辑和产出是创造的话,那我觉得奥特曼所言不差。


运营、客服、翻译、学者、文案编辑、记者、作家等等,这些职位中最基础性的工作似乎已经可以被 ChatGPT 代替。


其次是需要一定脑力支持的咨询、代写、中介、产品经理、纯码农等也即将会被自然语言人工智能所代替。

从目前 ChatGPT 的能耐来说,凡是基于文本进行归纳、总结、提炼的工作,和其他所有有套路和框架的工作,机器都能做得比人类更快、更好、更标准化。但是这也就让另一种创造,也就是不循规蹈矩,没有或者一开始没有规律可循的创造性工作有了更大的空间,甚至能得到 AI 的辅助来提高生产力。


所以小编依然坚持 AIGC 并没有给我们人类社会带来太多良性价值,但是人工智能可以。至少,人工智能并没有要让人们变成人类智障。


最后!这篇推送里面有ChatGPT编辑的一段,大家可以猜一猜是哪一段,DAOmie 小社公众号后台回复该段的前两个字,回答正确有惊喜~

Ref:《Reducing the dimensionality of data with neural networks》:https://www.science.org/doi/abs/10.1126/science.1127647
《Attention is all you need》:https://proceedings.neurips.cc/paper/2017/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.htmlText Classification Using Neural Network Language Model (NNLM) and BERT: An Empirical Comparisonhttps://link.springer.com/chapter/10.1007/978-3-030-82199-9_12Support vector machines and Word2vec for text classification with semantic features:https://ieeexplore.ieee.org/abstract/document/7259377



严正声明:请读者严格遵守所在地法律法规,本文不代表任何投资建议。


阅读更多 DAOmie小社 的内容:

FTX不冤,冤的是加密行业|事件回顾与原因分析

想在亚洲立足虚拟金融,香港将何去何从?

中国区块链发展,联盟链的格局分析

代币经济学Tokenomics的一些底层逻辑



目前已有来自计算机,极客,建筑学,设计爱好者,投资人,金融圈等各行各业的小伙伴加入了我们的科普探讨社群,我们希望有门槛地建立DAO去中心化的社群。若感兴趣或想要直接加入社群,可分别长按下文双二维码,关注DAOmie公众号的同时添加创始人微信号直接交流沟通,欢迎所有人来小社玩耍~

DAOmie & Bumble Shan

感谢你的每一次 

分享 

点赞

 在看 



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存