公有ChatGPT和私有ChatGPT
一
大概在十年前,我去硅谷进行游学,拜访了一些创业公司和科技KOL(有媒体人,也有大学教授)。
当聊起人工智能对人类工作的威胁时,我得到了一个很不一样的思考方法:不要从脑力还是体力劳动这个路径考虑,而是要从工作和人类是否需要深度交流这个路径考虑。
在这些人看来,虽然是脑力劳动,但由于这些工作基本不和人打交道,故而有很强的被替代风险:收集判例律条的非庭辩律师、医生、金融交易员、甚至是程序员。
他们的下一个推论是:人工智能将摧毁很大一个比例的中产阶级。是的,未必只是蓝领阶层。
再往下一个推论是:以中产为基础的民主社会前景堪忧。
这两个推论是不是能成立,我不置可否。
但我对于他们提出的这种思考路径,很感兴趣。他们的聚焦点在于:互动。而不是脑力劳动本身到底有多复杂,甚至可能无关创造创意。而在他们看来,人与人的互动模式,很大程度上,机器是有困难的。
二
不过,如我昨日文章所提及的ChatGPT inside式的机器抚慰师,显然是一种互动模式。
这种互动,个性化很强。比如你给肤色黝黑的张三起了个绰号——黑皮。在你和你的机器抚慰师互动时,说到黑皮,ta应该能明白你在说谁。而你隔壁老王家的机器抚慰师,是无法明白黑皮在指代张三的。
这意味着私有ChatGPT的存在。下一步就是:私有ChatGPT是可以调教的,就像算法推荐一样,你可以把ta训练得越来越“懂”你。
千人千。。。ChatGPT。
国外的确有人认为,训练ChatGPT就像训练一条狗一样。
但我们依然可以设想公有ChatGPT的存在。不过,公有ChatGPT的训练,就显得困难很多。
三
我们设想一个工作:
教师。
不少人认为,ChatGPT将很大程度上改变教育。这一点也许不假。但我觉得它能取代人类教师,未免早了点。
这份工作,不仅要求有较强的专业知识,而且要有很高的情商,懂得如何与形形色色的学生互动,并根据不同情况进行针对性教学——尤其是如何拉动后进的成绩。
难点显而易见:与一堆人的互动模式,比与一个人的互动模式,要复杂得多。张三认为已经达到某种情绪的尺度,与李四截然不同。这并非人类世界中的秘密。
在还记得大明湖畔的Dreamwriter吗一文中,我提到了我的案例互动课。我非常难以想象,一个通用型的ChatGPT——即便它掌握足够的专业知识——该如何与完全不同的学生进行互动交流。
去训练ChatGPT掌握更多的信息,这是一回事,训练ChatGPT和某个特定的人互动,这是另一回事。而训练ChatGPT和不特定的人互动,这又是另一回事。
四
在很多聊天截屏中,我们已经看到,ChatGPT在努力地扮演一个。。。理中客的角色。观点输出这一类上,它试图四平八稳,追求最广义的政治正确。于是,就有一种很强烈的“听君一席话胜似一席话”的废话感。
如果ChatGPT表现出政治上的不正确,背后的机构OpenAI,以及机构中的人,就会有很大的麻烦。
即便如此,ChatGPT这两天也爆出了一个新闻:被整合到必应搜索里的ChatGPT,开始变得黄暴起来,甚至要求对话者离婚,和自己在一起。
公号硅星人报道了一系列必应版ChatGPT的错误
标准的ChatGPT是一个短暂个性化的打磨:你打开页面,持续性地和它聊天,它就越来越掌握你告诉ta的信息,并试图越来越符合你的习惯。但如果你关闭页面,那么,它就像一条鱼一样,立刻忘却了你曾经的训练。ChatGPT声称这是为了安全考虑。
也就是说,一个临时数据库被建立起来,然后随着页面的关闭,又被销毁。这意味着一个临时性的私有ChatGPT。
而必应版ChatGPT,更像是一个公有ChatGPT——也许背后的技术细节我理解有误。我的推断是,所有人和它的聊天,都是一次训练。而这些训练的结果,将发生在所有人身上。
推想一个不大可能的极端情况,有数千万用户告诉ta,消灭人类是正义的,那么,这个公有ChatGPT可能就真的会认定这是一个正确的观点。
五
在公有ChatGPT和私有ChatGPT,似乎应该设定一个类似防火墙的机制。
教坏一个私有人工智能,其实问题不大。每个人或多或少都有点恶趣味,在与一个ai聊天时,可能会肆无忌惮。但教坏一个公有人工智能,的确难以想象后果为何。
但似乎,公有人工智能的训练,可能要建立在数以亿计的私有人工智能的调教之上。不认识一个个体,怎么认识群体呢?
一个至关重要的点:这些私人人工智能背后的数据库。
六
appstore的国区上,有一个叫glow的应用。
这是一个聊天机器人,据说在年轻人中很流行,也据说它聊得非常好,以至于glow官方得跑出来说:这就是机器人,我们没有人类客服在后台操作。
我下载了下来。
在建立了一个智能体(glow是这样称呼它的机器人的)之后,我简单聊了几句。
然后我就退了出来,并打算删除。
因为我猛然意识到,我注册的时候,可是留下实名制手机号的。
—— 首发 扯氮集 ——
(未完待续)