其他
【源头活水】Rethinking Self-Attention in Transformer Models
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
地址:https://www.zhihu.com/people/yuan-chao-yi-83
01
02
03
04
05
06
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
测试集没标签,可以拿来测模型吗?
图神经网络GraphSage:远亲不如近邻
图神经网络笔记-GraphSage的采样聚合
用概率分布评估检测框质量的 Generalized Focal Loss V2
YOLO之外的另一选择,手机端97FPS的Anchor-Free目标检测模型NanoDet现已开源~
大白话 Generalized Focal Loss V2
impersonator-你的舞蹈我来跳
Mixtext 半监督分类
“她”教你从失败中学习
丢弃Transformer,FCN也可以实现E2E检测
目标检测新范式!港大同济伯克利提出Sparse R-CNN
Meta Transfer Learning for Few Shot Learning
浅谈多任务与联邦学习
Stacked Capsule AutoEncoder-堆叠的胶囊自编码器
针对强化学习中策略迁移的选择性探索算法
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!