其他
【综述专栏】时序预测的DL-based方法总结:Attention、Transformer、GNN、GAN、...
在科学研究中,从方法论上来讲,都应“先见森林,再见树木”。当前,人工智能学术研究方兴未艾,技术迅猛发展,可谓万木争荣,日新月异。对于AI从业者来说,在广袤的知识森林中,系统梳理脉络,才能更好地把握趋势。为此,我们精选国内外优秀的综述文章,开辟“综述专栏”,敬请关注。
地址:https://zhuanlan.zhihu.com/p/389866571
01
02
03
3.1 基础模型:Canonical与Seq2Seq
3.2 基础方法:MLP\ CNN\ RNN\ Seq2Seq
3.2.1 MLP
3.2.2 CNN
3.2.3 RNN
3.2.4 Seq2Seq
3.3 Attention-based 方法
LSTNet
MTNet
TPA-LSTM
3.4 Transformer-based 方法
N-BEATS
Informer
3.5 GNN-based 方法
MTGNN
MTAD-GAT
GDN
04
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“综述专栏”历史文章
Graph Neural Networks (GNN)综述简介
当BERT遇上知识图谱
零样本学习--一文先了解
小样本学习方法(FSL)演变过程
多智能体强化学习算法总结
A Theory of Domain Adaptation
NLP实操手册: 基于Transformer的深度学习架构的应用指南(综述)
顶会的宠儿:元学习(Meta-learning)的前世今生
多模态知识图谱前沿进展
图神经网络及其在视觉/医学图像中的应用
Transformer+self-attention超详解(亦个人心得)
DNN与两大门派,一念神魔,功不唐捐
最新最全的视觉 Transformer 综述请查收!
推荐系统里预训练的工作
高精度点云配准
更多综述专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!