查看原文
其他

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 附录 C、SVM 对偶问题

ApacheCN【翻译】 Python爱好者社区 2019-04-07

作者:ApacheCN【翻译】   Python机器学习爱好者
Python爱好者社区专栏作者
GitHub:https://github.com/apachecn/hands_on_Ml_with_Sklearn_and_TF


前文传送门:


【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— Chapter 0.前言

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第1章 机器学习概览(上)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第1章 机器学习概览(下)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第2章  一个完整的机器学习项目(上)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第2章 一个完整的机器学习项目(中)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第2章 一个完整的机器学习项目(中二)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第2章 一个完整的机器学习项目(下)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第3章 分类(上)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第3章 分类(中)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第3章 分类(下)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第4章( 上) 训练模型

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第4章( 中) 训练模型

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第4章( 下) 训练模型

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第5章( 上)支持向量机

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第5章( 中)支持向量机

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第5章( 中)支持向量机

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第5章( 下)支持向量机

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第6章 决策树

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第7章 集成学习和随机森林(上)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第7章 集成学习和随机森林 (中)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第7章 集成学习和随机森林 (下)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第8章 降维(上)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第8章 降维(下)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 ——  第9章 (上)启动并运行TensorFlow

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第9章 (中)启动并运行TensorFlow

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第9章 (下)启动并运行TensorFlow

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第10章 人工神经网络介绍(上)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第10章 人工神经网络介绍(中)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第10章 人工神经网络介绍(下)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第11章 训练深层神经网络(上)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第11章 训练深层神经网络(中)

【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第11章 训练深层神经网络(下)

【翻译】Sklearn与TensorFlow机器学习实用指南  ——第12章 设备和服务器上的分布式TensorFlow(上)

【翻译】Sklearn与TensorFlow机器学习实用指南 ——第12章 设备和服务器上的分布式TensorFlow(下)

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第13章 卷积神经网络(上)

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第13章 卷积神经网络(下)

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第14章 循环神经网络(上)

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第14章 循环神经网络(中)

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第14章 循环神经网络(下)

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第15章 自编码器(上)

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第15章 自编码器(中)

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第15章 自编码器(下)

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第16章 强化学习(上)

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第16章 强化学习(中)

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 第16章 强化学习(下)


为了理解对偶性,你首先得理解拉格朗日乘子法。它基本思想是将一个有约束优化问题转化为一个无约束优化问题,其方法是将约束条件移动到目标函数中去。让我们看一个简单的例子,例如要找到合适的 x 和 y 使得函数 最小化,且其约束条件是一个等式约束。使用拉格朗日乘子法,我们首先定义一个函数,称为拉格朗日函数。每个约束条件(在这个例子中只有一个)与新的变量(称为拉格朗日乘数)相乘,作为原目标函数的减数。

Joseph-Louis Lagrange 大牛证明了如果是原约束优化问题的解,那么一定存在一个,使得是拉格朗日函数的驻点(驻点指的是,在该点处,该函数所有的偏导数均为 0)。换句话说,我们可以计算拉格朗日函数

关于以及的偏导数;然后我们可以找到那些偏导数均为 0 的驻点;最后原约束优化问题的解(如果存在)一定在这些驻点里面。



Python爱好者社区历史文章大合集

Python爱好者社区历史文章列表(每周append更新一次)

福利:文末扫码立刻关注公众号,“Python爱好者社区”,开始学习Python课程:

关注后在公众号内回复“课程”即可获取:

小编的Python入门免费视频课程!!!

【最新免费微课】小编的Python快速上手matplotlib可视化库!!!

崔老师爬虫实战案例免费学习视频。

陈老师数据分析报告制作免费学习视频。

玩转大数据分析!Spark2.X+Python 精华实战课程免费学习视频。


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存