2021年推特网黄Top10排行榜

江湖再现坑爹大戏

【少儿禁】马建《亮出你的舌苔或空空荡荡》

口爱篇:被女生用嘴“深入”是一种什么体验?

曾敲诈中国10亿美元过路费,如今遇难又求我国扶贫助弱,脸皮真厚

自由微信安卓APP发布,立即下载! | 提交文章网址

SimpleAI

作为普通NLP科研人员对ChatGPT的一些思考

根据媒体报道,ChatGPT全球用户数已经突破了一百万,早早火出了圈。我朋友圈里的做金融的、做健身教练的、做英语培训的,都玩起了ChatGPT,我一个做NLP的,却迟迟没有去体验,主要是因为有一种疲惫感,热点太多了跟不上了。昨天终于觉得,如果再不体验一下,就真的落伍了,无奈国内无法注册,于是找了人在美国刚下飞机的好哥们要了一个手机号,终于顺利注册。一些NLP任务的测试其实测试之前,早已经在知乎被耳濡目染,知道这玩意儿是个“怪物”,什么基础的问答、写诗、写程序、玩游戏啥都会。但亲自体验一下,还是感觉很不一样的。网上的测试,更多还是闲聊,但这种闲聊实际上意义不大,说的再通顺,我也不惊讶。作为一个NLP研究人员,更关心一些NLP任务的解决情况,于是我针对自己感兴趣的一些任务,做了一些测试:关键信息抽取(NER、事件抽取、关键词提取):药物NER:关键词抽取:在多轮对话中进行事件抽取:这些任务的效果相当好,而且格式十分规范。简单推理任务NLI任务:这种简单的NLI任务还是完全可以胜任的。但给一些涉及简单数学推理的,可能就在一本正经的瞎推理了:写作辅助写作辅助这个效果,真滴完美。我这最近开发的GENIUS模型,顿时显得十分弱鸡,甚至我目前看到的绝大多数开源写作辅助模型,都黯然失色了。。。需要一定知识储备的开放域问答比方我问它怎么做糖醋带鱼:还真像模像样地给你一个个步骤,但仔细一看,其实并不靠谱,我没见过谁做带鱼还需要焯水的,所以炒菜建议不要参考ChatGPT哈哈,后果人家可不负责任的...很明显,训练数据中包含了大量这样的网上教程,所以这里也可以这样一步一步地给你写出来,因此生成的文本在格式上十分规范。主观问题一定回答的很圆滑,可能存在的一定的模板相信很多朋友也发现了,但凡问一些主观的问题、找茬的问题,它基本一定给你回答的很圆滑,严丝合缝的,不给你留下把柄。比方这两个例子:主观问题一定严丝合缝主观问题一定严丝合缝然后我发现训练语料中应该存在典型的模板,导致一些回答看起来像模像样,但实际上就是“纯废话”,比如我问这个对各个国家的疫情防控的评价(最后一个问题是彩蛋🥚):真的懂写代码吗?网上很多人发ChatGPT可以直接写神经网络等高级算法,很牛皮对吧,那我们测一个简单的程序,而且网上有很多教程的程序——画爱心:诶,牛逼,像模像样给我写了一段,那咱们跑跑看?居然还真的bug-free,但是生成的结果:有亿点丑啊,而且为啥是个双层爱心?我们回头仔细看看代码就发现问题了,在画爱心的轮廓的时候,实际上画错了,所以在填色的时候,就出现了这种诡异的爱心。。。但怎么说呢,已经给出了这样的程序,我们自己也可以很方便地改一改就可以用了。其实一个问题可以让ChatGPT重新生成回答的,所以我重新生成了一次,这一次,呃。。。:所以可以明确的说,ChatGPT肯定是不懂它写的到底是个啥的,但是由于训练语料中包含了大量的程序,而且我们一般能想到的问题,都是互联网上存在的,那么ChatGPT就可以给你“搬出来”,或者给你把互联网上已有的信息“糅合”一下吐出来。所以那些营销号一天到晚上取代这个取代那个,甚至取代程序员,实在是扯淡,这种基于QA训练出来的模型,能力的上限依然是已有的知识的重新输出,如果你网上查都查不到,也不要指望ChatGPT能帮你做出来。所以,用来帮忙debug,也许是可以的,但stackoverflow上一定也有对应的答案;用来帮忙写算法,也许也是可以的,但更多的是给一个参考,从而帮我们更快上手。一个普通NLP研究者感到的迷茫一味地吹捧ChatGPT的强大能力,和对ChatGPT各种找茬找毛病,属于两种极端,都不利于思考。ChatGPT的强大,也不会导致我们任何人失业;我们找出再多ChatGPT的bad
2022年12月7日

好久不见,介绍一下,这位是GENIUS:一个基于“草稿”进行文本生成、数据增强的“小天才”模型

extraction的方式来抽取sketch,这跟GENIUS预训练中抽取sketch是有一点不同的。具体来说,我们会通过一个encoder,来得到原始样本和一个任务特定信息的fusing
2022年11月23日

数据地图---使用Training Dynamics来映射和诊断数据集

用Annoy和ThreadPool把相似度计算加速360倍劫富济贫:对长尾数据进行特征空间增强通俗科普文:贝叶斯优化与SMBO、高斯过程回归、TPE深度学习中的样本遗忘问题
2022年7月11日

盘点Controllable Text Generation(CTG)的进展

Generation,对话系统对NLG有更高的要求,因此CTG的应用就不言而喻了Storytelling,用CTG来辅助文学创作,想想就很爽,而传统的NLG,基本给了开头你就无法控制了Data
2022年4月5日

LAMBADA——用GPT-2来做文本数据增强

AI团队。一句话总结:思路相当简单,利用GPT-2强大的生成能力来进行文本增强,从而在few-shot场景下达到很好的增强效果。思路一览:本文提出的方法称为language-model-based
2022年3月28日

XLNet简读

XLNet简读XLNet发表在NeurIPS-19上,是BERT之后相当有名的一个工作,这里简单总结一下它的要点。要解决的痛点XLNet,如果做一个总结的话,可以理解为是结合了BERT、GPT、Transformer-XL这些代表性工作各自优点的一个综合体。那么自然,GPT-2、BERT都是各自有个字的缺点。BERT的优缺点BERT在pre-training中主要的技术就是Masked-language-modeling(MLM),MLM为了实现双向语言模型,在训练过程中,会随机挑选15%的token用[MASK]来替换掉,然后用带[MASK]的上下文来预测这个token。这就会造成预训练和微调时的不匹配(pretrain-finetune
2022年3月23日

​我如何用Annoy和ThreadPool把相似度计算加速360倍

your_list)函数,这个函数可以使用你自定义的process_for_item函数,在多个线程中并行地对your_list中所有item进行处理,非常方便。查看输出:[23/Feb/2022
2022年2月24日

文本检索、开放域问答与Dense Passage Retrieval (EMNLP-20)

QA则是我们可以问任何事实性问题,一般是给你一个海量文本的语料库,比方Wikipedia/百度百科,让你从这个里面去找回答任意非主观问题的答案,这显然就困难地多。总结一下,Open-domain
2022年2月18日

小样本学习与Triplet Loss,数据增强和课程学习

loss就被设计出来,把一个分类问题,转化成相似度问题,使用少量的训练样本,训练出一个相似函数,然后在预测时,就可以计算新样本跟训练集中已有的样本的相似度,从而判断类别。计算Triplet
2022年2月11日

深度学习中的样本遗忘问题 (ICLR-2019)

detection发现,噪音样本跟正常样本在遗忘次数上,分布十分不一样,遗忘次数会显著多于正常样本。因此我们可以利用这个特点,来帮助我们对数据集去噪,例如最近的文章DataCLUE:
2022年1月27日

​通俗科普文:贝叶斯优化与SMBO、高斯过程回归、TPE

贝叶斯优化是AutoML中的重要概念,近年来变得很火热。作为一种重要的基于先验的调参/策略选择技术,贝叶斯的应用范围也很广。但这个概念对于初次接触的同学可能较难理解,经过数天的论文研读、博客/教程/代码查阅,我总结了这篇科普文,也手绘了一些示意图,希望尽量在一篇文章内、通俗易懂地讲清楚什么是贝叶斯优化。本文目录:理清基本概念的关系各种超参数调节方法的对比Grid
2022年1月18日

特征空间增强|劫富济贫:对长尾数据进行特征空间增强(ECCV20)

map,这个CAM实际上就展示了该图片的那些部分是跟该类别高度相关的。更多细节可以参见知乎:https://zhuanlan.zhihu.com/p/51631163下面是计算公式:Feature
2022年1月13日