首页 > 技术文章 > 逻辑回归算法(二分类)

xyp666 2018-05-24 23:00 原文

一、逻辑回归算法简介

目的:经典的二分类算法

机器学习算法选择:先逻辑回归再复杂算法

决策边界:可以是非线性的

逻辑回归算法分三步(原理):(1)需要确定一个预测函数,即预测出一个值来判断归属哪一类,可定义预测值大于某个阈值判断为一类,反之为另一类;(2)为了计算参数,我们需要定义一个损失函数,损失函数用来衡量真实值和预测值之间的差异,这个差值越小说明预测效果越好(3)第三步,用梯度下降法计算参数,使损失函数不断减小,得出参数后,带入预测函数就可以来进行预测了。

逻辑回归的优点: 
1)速度快,适合二分类问题 
2)简单易于理解,直接看到各个特征的权重 
3)能容易地更新模型吸收新的数据 
缺点: 
对数据和场景的适应能力有局限性,不如决策树算法适应性那么强

 

二、Sigmoid 函数

公式:

      (自变量取值为任意实数,值域[0,1])

解释:将任意的输入映射到了[0,1]区间,在线性回归中可以得到一个预测值,再将该值映射到Sigmoid 函数中这样就完成了由值到概率的转换,也就是分类任务。

图像:

 

预测函数:

  

分类任务:

    

整合:

    (为结果看起来更简洁)

解释:对于二分类任务(0,1),整合后y取0只保留,y取1只保留

 

 

三、似然函数

似然函数:

  

对数似然:

     

此时应用梯度上升求最大值,引入转换为梯度下降任务(梯度上升转换为梯度下降

求导过程:

   

   

 

四、参数更新,求解

参数更新:

     (阿发代表学习率,m是minibach)

 

五、多分类softmax

  

 

 

参考:

https://blog.csdn.net/chibangyuxun/article/details/53148005

https://mp.weixin.qq.com/s?src=11&timestamp=1562044618&ver=1703&signature=vLXDsNykZ0tATf2CiQ-uzVsnF1scHaOIKZnPgkbea-34X0fN2yPGpQOVR*8a-7HdGY4HGukRQj-fQBTT3Ulq2iqDWYUfsgvgVQBUXaCifAzXVwD8Zcr2nKdY9pjj2iXd&new=1(清晰明了)

推荐阅读