第3.1节 逻辑回归(模型的建立与求解)
各位朋友大家好,欢迎来到月来客栈,我是掌柜空字符。
本期推送内容目录如下,如果你觉得本期内容对你所有帮助欢迎点个赞、关个注、下回更新不迷路。
3.1 模型的建立与求解 3.1.1 理解逻辑回归模型 3.1.2 建立逻辑回归模型 3.1.3 求解逻辑回归模型 3.1.4 逻辑回归示例代码 3.1.5 小结
在第2章中,笔者详细地介绍了线性回归模型,从本章开始将继续介绍下一个经典的机器学习算法——逻辑回归(Logistic Regression)。如图3-1所示,此图为逻辑回归模型学习的大致路线,其同样也分为3个阶段。在第1个阶段结束后,我们也就大致掌握了逻辑回归的基本原理。下面就开始正式进入逻辑回归模型的学习。
3.1 模型的建立与求解
3.1.1 理解逻辑回归模型
通常来讲,一个新算法的诞生要么用来改善已有的算法模型,要么就是首次提出用来解决一个新的问题,而逻辑回归模型恰恰属于后者,它是用来解决一类新的问题——分类(Classification)。什么是分类问题呢?
现在有两堆样本点,需要建立一个模型来对新输入的样本进行预测,判断其应该属于哪个类别,即二分类问题(Binary Classification),如图3-2所示。对于这个问题的描述用线性回归来解决肯定是不行的,因为两者本就属于不同类型的问题。退一步讲,即使用线性回归来建模得到的估计也就是一条向右倾斜的直线,而我们这里需要的却是一条向左倾斜的且位于两堆样本点之间的直线。同时,回归模型的预测值都位于预测曲线附近,而无法做到区分直线两边的东西。既然用已有的线性回归解决不了,那么我们可不可以在此基础上做一点改进以实现分类的目的呢?答案是当然可以。
3.1.2 建立逻辑回归模型
既然是解决分类问题,那么完全可以通过建立一个模型用来预测每个样本点属于其中一个类别的概率,如果,我们就可以认为该样本点属于这个类别,这样就能解决上述的二分类问题了。该怎样建立这个模型呢?
在前面的线性回归中,通过建模来对新样本进行预测,其输出值为可能的任意实数,但此处既然要得到一个样本所属类别的概率,那最直接的办法就是通过一个函数),将和这两个特征的线性组合映射至[0,1]的范围即可。由此,便得到了逻辑回归中的预测模型
其中,、和为未知参数;称为假设函数(Hypothesis)。当大于某个值(通常设为0.5)时,便可以认为样本属于正类,反之则认为属于负类。同时,也将称为两个类别间的决策边界(Decision Boundary)。当求解得到、和后,也就意味着得到了这个分类模型。
当然,如果该数据集有个特征维度,那么同样只需要将所有特征的线性组合映射至区间 [0,1] 即可
注意:回归模型一般来讲是指对连续值进行预测的一类模型,而分类模型则是指对离散值(类标)预测的一类模型,但是由于历史的原因虽然逻辑回归被称为回归,但它却是一个分类模型,这算是一个例外。