其他
【源头活水】BERT Attack: 基于BERT的文本对抗技术
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
地址:https://zhuanlan.zhihu.com/p/377412027
01
02
2.1 单词替换
先使用NLTK过滤其中的停用词; 如果是情感分类任务,候选词中可能包括同义词和反义词,使用同义词词典过滤反义词; 将替换完成的句子重新输入判别器,如果判别器给出与原label相反的判断那么输出该句子作为对抗样本; 如果上一步没能生成对抗样本,从筛选出的候选词中选择一个对logit影响最大的词作为替换词。
2.2 词组替换
用对应的词组中所有词的候选词的组合作为初步的原始候选词,如词组长度为 则一共有 个; 用类似于前面分析单个词的易攻击程度,用Masked Language Model分析整个词组的易攻击程度,然后再选出词组的topk个组合,作为原始词的候选词; 剩余过程与单词替换一致。
03
04
参考文献
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
ConTNet:在视觉任务中同时使用Transformer和Convolution
热点讨论:MLP,RepMLP,全连接与“内卷”
CVPR2021|如何估计代表性的原型是少样本学习的关键挑战-利用原语知识补全原型
SphereFace(A-softmax)论文解读:人脸识别的深度超球嵌入
ICLR 2021 | 如何减少深度学习模型的偏见?
深度循环优化器,从视频流估计深度和相机轨迹
CVPR 2021 | 无需风格图片的图像风格迁移
CVPR 2021 自监督学习论文: 理解对比损失的性质以及温度系数的作用
长尾数据真的百害而无一利吗?
Prototypical Networks for Few-shot Learning
一文教你彻底理解Google MLP-Mixer(附代码)
FaceBoxes阅读笔记
解析神经架构搜索(NAS)中权重共享的影响
CVPR2021 | 密集连接网络中的稀疏特征重激活
MLP-Mixer 里隐藏的卷积
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、在看,给个三连击呗!