花7000块实测Claude2.1 - 200K Token的超大杯效果究竟怎么样?
昨天Claude2.1正式发布了,更新了一系列的新能力,不过只对API用户开放。
大概总结一下,200K Tokens的上下文窗口、模型幻觉率的显着降低、系统提示以及他们的新测试功能:工具使用。
其他的没啥可说的,重点聊聊这个200K Tokens的上下文。
记得几个月之前,Claude率先推出100K Token,引起了不小的风波,毕竟在那个上下文都还只有4K Tokens的年代,100K Token可是扎扎实实的降维打击。
而这次,Claude2.1号称全球第一,扔出了2倍容量的200K Token。大家可能对Token没啥概念。我换种描述来说。
200K Token等于470页的PDF材料。
按Claude自己的话说,你可以扔你整个代码库和技术文档、扔一整个财务报表,甚至把《奥德赛》或者《伊利亚特》扔进去。
这下是不是就大概有点数了?以前4K的小窗口,扔个几页PDF都费劲,现在,随便扔。
但是支持这么大的容量以后,使用起来到底怎么样?你不能光加容量,但是质量不加吧,就好比你喝瑞幸,以前是个普通中杯,给你放了半杯的冰,现在他说升级了,给你来了一口缸,但是缸里依然还特么的全是冰,咖啡就那么几口,那这升级有蛋用,对吧。
Token也是一样的道理,你说是升级了200K,但你实际到50K就全都忘干净了,那你100K和200K有啥区别?
所以X上一个大佬Greg Kamradt,为了弄明白Claude2.1的200K Token,究竟实测效果怎么样,就调用Claude 的API做了个压力测试。
他做个压力测试,花了1016 美金。。。。
你没看错,1016美金,折合人民币一共7255元。。。
只能说,太特么壕了,壕特么上天了。。。
直接放他的测试结果图,为了大家阅读体验良好,我给做成中文版的了(图片可能在公众号上有压缩看不清,看完文章后可以对着我公众号私信"测试图",我自动发你高清的原图)。
这个测试Greg Kamradt将其命名为"大海捞针"压力测试。
测试的目的是评估Claude从大量文本中检索信息的能力,特别是当信息被放置在文档的不同位置时的准确率。
在20万个令牌(近470页)的文档深度下,Claude 2.1能够回忆起某些事实 位于文档最顶部和最底部的事实被几乎100%准确地回忆起来 位于文档顶部的事实的回忆表现不如底部(与GPT-4类似) 从大约90K个令牌开始,文档底部的回忆表现开始逐渐变差 在较低的上下文长度下,并不保证有良好的表现
提示工程很重要。值得对您的提示进行调整,并进行A/B测试以测量检索的准确性 不能保证您的事实一定会被检索到。 更少的上下文 = 更高的准确性 - 这是众所周知的,但是如果可能的话,减少您发送给模型的上下文量可以增加它的回忆能力 位置很重要。但是放在文档最开始和文档深度50%到100%区间的事实似乎能被更好地回忆起来。 提示工程很重要 - 值得对您的提示进行调整,并进行A/B测试以测量检索的准确性