查看原文
其他

三位物理学家与陶哲轩证明的惊天定理,原来早在教科书里?

马超 AI科技大本营 2019-11-27

BDTC大会官网:https://t.csdnimg.cn/q4TY


作者 | 马超

来源 | CSDN博客


陶哲轩菲尔兹奖得主,著名华裔数学家,号称地表最强大脑的拥有者,



近日他与三位物理学家共同发表了一篇论文发现了特征值与特征向量之间的全新关系,在业内引起了不小的反响。


特征值与特征向量


特征值是线性代数中的一个重要概念。其实简单的理解特征值与特征向量就要从线性变换说起,因为大部分的线性变换都会改变向量的方向,如下图所示:


不过也存在只改变长度不改变方向的线性变换,如下图所示:


那么从定义上来讲,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,则称 m 是A的一个特征值(characteristic value)或本征值(eigenvalue)。非零n维列向量x称为矩阵A的属于(对应于)特征值m的特征向量或本征向量,简称A的特征向量或A的本征向量。 


有关特征值与特征向量关系的新发现


我们可以看到陶哲轩等4位科学家的论文名字叫作《从特征值得到特征向量》他们得到的新公式写出来是这样的



其中vi,j代表特征值入i对于特征向量的第j个元素


入i(A)为矩阵A的第i个特征值


Mj为A的第j个余子式


我们知道特征值就是直接利用公式进行求解,相对比较简单,但是特征向量是非常难解的,不过有了这个公式,实际把求解特征向量的方法也变简单了,也就是说今后再求解特征向量就直接拿出Mj既矩阵A的第j个余子式既可,因为余子式本身就是删除原矩阵的行和列的过程,所以论文中才会说“通过删除原矩阵的行为列,你可以得到一个原矩阵的余子式,将余子式的特征值与原矩阵的特征值结合,你就可以得到原矩阵的特征向量” 。


哇塞,因吹丝停。据说陶哲轩对这个新发现的第一反应是:这么完美、这么简明的定理,早就应该出现在教科书里了。笔者在看完这篇报道之后也感到非常吃惊,所以就特地留意了一下相关评论,果然有惊喜,难道这个公式真的早就在教科书中吗?


《矩阵的计算理论与方法》到底说了什么


为了求证北大徐树方老师的《矩阵的计算理论与方法》到底说了什么,笔者把应届硕士毕业的同事问了个遍,终于找到,翻开第323页的引理1如下:


我的天,这个公式和本次新发现的公式是完全等效了。不过缓过神来之后仔细看看,发现此书上的证明是前提条件的,既矩阵必须为三对角矩阵。而三对角矩阵的非零系数必须在主对角线、低对角线、高对角线这三条对角线上。书中原文如下:


而且在公式的过程中也用到了三对角矩阵的性质



而对比本次论文中的证明,陶哲轩等科学家是利用极限定理将这个公式推广了。(虽然这步证明笔者还没看懂,如果哪位读者能搞懂这步的含义请留言告知)



写在最后


近期数学方面的基础研究突破不断,如笔者前文介绍有关布尔复杂度猜想的证明(https://blog.csdn.net/BEYONDMA/article/details/98094541)。


但在这许多重大发现面前,本次定理证明的意义也绝对不遑多让,特征向量与特征值可以用于研究微分方程;可以用于统计协方差矩阵的主因分析;甚至在机器学习中也有储如数据降维等许多应用;它们是如此重要以至于一个任何一点突破都会影响深远。不过遗憾的是我国的数学家虽然很早之前就发现了此公式,但却没有把它在一般情况下进行验证,所以与其说如此简洁完美的定理为什么没有早早出现在教科书,不如说为什么没有被及时推广。

扫码查看原文
▼▼▼


(*本文为AI科技大本营转载文章,转载请联系原作者



精彩推荐



2019 中国大数据技术大会(BDTC)再度来袭!豪华主席阵容及百位技术专家齐聚,15 场精选专题技术和行业论坛,超强干货+技术剖析+行业实践立体解读,深入解析热门技术在行业中的实践落地。6.6 折票限时特惠(立减1400元),学生票仅 599 元!


推荐阅读

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存