其他
【源头活水】PDE遇见深度学习
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
地址:https://www.zhihu.com/people/wu-ke-73-62
01
02
03
step 1:构造 DNN 近似函数 F
step 2:建立损失函数来衡量近似的好坏
一般取的是二范意义下的损失函数。
step 3:利用优化算法极小化损失函数
Deep Galerkin method
Deep Ritz method
因此,它的损失函数为
其中
高维空间上的积分 - Monte Carlo 方法
设
可以发现
04
[1] https://www.deeplearningbook.org/
[2] https://arxiv.org/pdf/1710.00211.pdf
[3] https://www.sciencedirect.com/science/article/pii/S0021999118307125
[4] https://arxiv.org/abs/1708.07469
[5] https://arxiv.org/pdf/1912.01309.pdf
[6] https://www.sciencedirect.com/science/article/pii/S0021999120301832
[7] https://arxiv.org/abs/1512.03385
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
Seesaw Loss:一种面向长尾目标检测的平衡损失函数
预测未来-随机视频生成
从Thinker到Evolver:对可演化AI芯片的探索
探讨旋转目标检测中anchor匹配机制问题
从频域角度重新思考注意力机制——FcaNet
NeurIPS 2020:一叶知秋 —— 基于“单目标域样本”的领域自适应方法
关于attention机制的一些细节的思考
Subgraph Neural Networks
Sparse R-CNN:简化版fast rcnn
宽度学习:原理与实现
图神经网络预训练模型
Rethinking Self-Attention in Transformer Models
测试集没标签,可以拿来测模型吗?
图神经网络GraphSage:远亲不如近邻
图神经网络笔记-GraphSage的采样聚合
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、在看,给个三连击呗!