简单粗暴理解与实现机器学习之逻辑回归:逻辑回归介绍、应用场景、原理、损失以及优化
作者 | 汪雯琦
责编 | Carol
来源 | CSDN 博客
出品 | AI科技大本营(ID:rgznai100)
知道逻辑回归的损失函数
知道逻辑回归的优化方法
知道sigmoid函数
知道逻辑回归的应用场景
应用LogisticRegression实现逻辑回归预测
知道精确率、召回率指标的区别
知道如何解决样本不均衡情况下的评估
了解ROC曲线的意义说明AUC指标大小
应用classification_report实现精确率、召回率计算
应用roc_auc_score实现指标计算
逻辑回归介绍
逻辑回归的应用场景:
广告点击率
是否为垃圾邮件
是否患病
金融诈骗
虚假账号
看到上面的例子,我们可以发现其中的特点,那就是都属于两个类别之间的判断。逻辑回归就是解决二分类问题的利器。
逻辑回归的原理
逻辑回归中,其输入值是什么 如何判断逻辑回归的输出
逻辑回归的输入就是一个线性回归的结果。
2、激活函数
sigmoid函数
判断标准
回归的结果输入到sigmoid函数当中
输出结果:[0, 1]区间中的一个概率值,默认为0.5为阈值
逻辑回归最终的分类是通过属于某个类别的概率值来判断是否属于某个类别,并且这个类别默认标记为1(正例),另外的一个类别会标记为0(反例)。(方便损失计算)
输出结果解释(重要):假设有两个类别A,B,并且假设我们的概率值为属于A(1)这个类别的概率值。现在有一个样本的输入到逻辑回归输出结果0.6,那么这个概率值超过0.5,意味着我们训练或者预测的结果就是A(1)类别。那么反之,如果得出结果为0.3那么,训练或者预测结果就为B(0)类别。
所以接下来我们回忆之前的线性回归预测结果我们用均方误差衡量,那如果对于逻辑回归,我们预测的结果不对该怎么去衡量这个损失呢?我们来看这样一张图。
那么如何去衡量逻辑回归的预测结果与真实结果的差异呢?
损失以及优化
1、损失
逻辑回归的损失,称之为对数似然损失,公式如下:
分开类别:
怎么理解单个的式子呢?这个要根据log的函数图像来理解
综合完整损失函数
看到这个式子,其实跟我们讲的信息熵类似。
接下来我们就带入上面那个例子来计算一遍,就能理解意义了。
我们已经知道,log§, P值越大,结果越小,所以我们可以对着这个损失的式子去分析
2、优化
同样使用梯度下降优化算法,去减少损失函数的值。这样去更新逻辑回归前面对应算法的权重参数,提升原本属于1类别的概率,降低原本是0类别的概率。
◆
原力计划
◆
你点的每个“在看”,我都认真当成了AI