最近的OpenAI的风声和小道消息有点多。
比如OpenAI要自己做的类Perplexity的AI搜索引擎SearchGPT,比如最近在无数媒体号上闹得沸沸扬扬的gpt2-chatbot。
当然还有那一直期待着的GPT-4.5和GPT-5。
不过这一切都是捕风捉影,真正能用的新东西,也是一个我自己期待了很久的功能,终于在前两天正式上线了。
Memory。
记忆。
之前在用AI的过程中,其实一直有一个痛点,就是他永远无法记得:我是谁,我喜欢什么,我是做什么的。
而如果真是你身边的好助理,他会不记得这些吗?别说你是谁了,你喜欢吃啥口味的菜,喜欢喝什么口味的奶茶,甚至她连你每天几点起床都知道的清清楚楚。
这才是一个优秀且称职的助手。
所以记忆功能,我一直很期待,它是刚需,是我觉得AI走向真正的AI助手,所必须踏出的那一步。
我们点击左下角,打开设置,找到“个性化(Personalization)”选项。最开始点击Manage是空的,他是没有记住任何信息的如果出现了Memory updated,则代表会把这条信息给记下了,存在ChatGPT的"脑子"里了。这时候我们再回到“记忆(Memory)”的设置,点击Manage则可以看到我让他记住的所有信息。
你要是觉得记错了,或者这条想重录,右侧也可以删除掉这条记忆信息。接着我们新开一个对话,这样Chatgpt就无法用上下文提示,按从前的方法,肯定是一问三不知。
都非常正确。
它不仅正确调取了记忆,并且根据记忆推测出我是一个多才多艺且热衷于技术和游戏的人,Nice哈哈哈哈哈。虽然那个Prompt不长,但是每次我去搜索或者复制啥的都很麻烦,而搞个GPTs那我觉得就更麻烦更笨了。。。我更希望的是像记忆这样直接调用,所以我把那段Prompt直接扔了过去,希望ChatGPT给我记下来:
他记完了之后,我新起一个对话,扔了莎士比亚一段我很喜欢的台词过去。
但是注意一点,Memory里面无法存超长的Prompt,这种短的翻译的还行,但是一些复杂的超长的Prompt会被简化,从而导致最终效果会略有下降。
我让ChatGPT记完后,去Memory里看,会发现大幅简化了。
可以看到详细的要求、Case全都没了,从而导致部分能力缺失,效果离完全体的prompt会差一点,但是依然是能用且不错。
所以在定义Prompt时,我建议还是预设一些短的比较好。最后我还我想知道,如果我告诉他错误的事实,他会有怎样的反应事实证明,他会给我纠正,会基于这些记忆信息有自己的判断。整体来看,Chatgpt已经可以说具备一定的记忆能力了,并且可以基于记忆力做出更为个性化的回答。换句话说,他更懂你了,并且它也不是一股脑记住信息而不做判断。其实大模型记忆能力本身这件事情,其实很多模型开发商都在努力。比如各家都在卷的上下文本长度,Gemini到了100万,kimi甚至达到了将近200万的上下文长度,虽然可以再提升,但我觉得但终归不是解决记忆力的最佳方式。因为这些即便再长,也都是一个固定的上下文长度,你总不能是无限的吧。超过之后,就会遗忘之前的信息。而且我之前也写过了一篇Claude他们发的论文,在长上下文长度的提升的同时,还可能导致模型越狱等一堆乱七八糟的安全问题。最核心的是,这些模型在单次会话中不能记住早先的交互。一旦对话结束,所有的上下文信息都会丢失,不会被转移到下一次会话。而另一种方式,引入外部向量数据库,做RAG检索增强。ChatGPT这次的Memory其实就这个RAG的优化版。传统的RAG虽然方便模型获得信息,但这样的方式也有较大的缺陷。首先上手难度比较大,对普通人来说,很难无法做日常对话使用,以Dify为例,上传知识库,了解参数,普通人直接懵逼了:
Chatgpt的Memory这次做了超级优化,他可以其实通过在与用户的对话中,Chatgpt会把相关的一些关键信息一条条存储在记忆信息库中。也就是说随着与我们的互动增多,Chatgpt的记忆库会不断更新和扩充,使得他能更好地适应和预测用户的需求和偏好。这种长期的适应和学习能力是建立在持续互动基础上的,与传统RAG每次都要上传知识库,更新起来麻烦的要死的体验相比,可能更加有效。毕竟,现实生活中,我们对彼此的了解,不也正是通过一次次的交流逐渐加深的吗?每一份独特的记忆,构成的才是每一个独一无二的我们。在过往,AI拥有的只是短期记忆,每一个对话窗口,都是那短暂的一瞬。而人之所以是人,是人有长期记忆,有长期记忆固化后而形成的永久记忆。然后从这些记忆中,抽象出"虚构"的能力。随着时间的推演,他一定会成为一个真正的非常懂你的助手。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章。