其他
【强基固本】深入探究MMD距离
“强基固本,行稳致远”,科学研究离不开理论基础,人工智能学科更是需要数学、物理、神经科学等基础学科提供有力支撑,为了紧扣时代脉搏,我们推出“强基固本”专栏,讲解AI领域的基础知识,为你的科研学习提供助力,夯实理论基础,提升原始创新能力,敬请关注。
地址:https://www.zhihu.com/people/xia-gan-yi-dan-chen-hao-tian
背景知识
从小圈移动到大圈:maximizing their specific intra-class distances. 最大化specific features,就是往common features的位置去靠拢。 通过第一步,那么上下两个小圈就开始靠拢了: minimizing theri joint variance.
为什么MMD可以这样做?它又是如何工作的呢?下面给出详细证明。
How exactly does the MMD minimize the mean deviations between the two different domains? Why does the MMD usually produce an unexpected deteriotation of the feature discriminability?
(所有点的方差矩阵) variance matrix (类内)intra-class scatter matrix 还不明白为什么要把所有类都算上,跟在模式识别上学习的不一样(想了一下应该是多个类:有共同common features的算在一起了)。 (类间)inter-class scatter matrix
定理
The First Strategy
一般取 ,直接调整类内距离 ,这样就可以通过调整 来观察到底类内距离的结果的影响了(feature discriminability)!
参考资料
Rethink Maximum Mean Discrepancy for Domain Adaptation
侠肝义胆陈浩天:Maximum Mean Discrepancy详解,含代码实现
https://zhuanlan.zhihu.com/p/150675648
https://zhuanlan.zhihu.com/p/150671706
“强基固本”历史文章
机器学习常用评价指标总览
神经网络结构下理解Logistic Regression &TF框架下构造Logistic实现Mnist分类
信息量、熵、相对熵(KL散度)、交叉熵
神经网络常用求导
深度学习算法收敛性证明之拓展SGD
看了这篇文章你还不懂SVM你就来打我
卷积神经网络(CNN)反向传播算法
边框回归(Bounding Box Regression)详解
《CV中的多视图几何》——相机模型与标定
AI 框架基础技术之自动求导机制 (Autograd)
主成分分析(PCA)
深度学习算法收敛性证明
深度学习:数学知识基础
从Binary到Swish——激活函数深度详解
“卷积”其实没那么难以理解
更多强基固本专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!