首页 > 技术文章 > 逻辑斯谛回归

douza 2016-09-19 14:49 原文

逻辑斯谛分布

X是连续随机变量,X服从逻辑斯谛分布是指X服从如下分布函数和密度函数:

 

其中,为位置参数,> 0 为形状参数。

密度函数fx和分布函数Fx的图形如图所示:

 

分布函数属于逻辑斯谛函数,其图形是一条S形曲线,该曲线以点(μ,½)为中心对称,即满足;

 

 

曲线在中心附近增长速度较快,在两端增长速度较慢,形状参数γ的值越小,曲线在中心附近增长的越快。

二项逻辑斯谛回归模型

是一种分类模型,由条件概率分布表示,形式为参数化的逻辑斯谛分布。随机变量x的取值为实数,随机变量y的取值为10,通过监督学习的方法来估计模型参数。

其条件概率模型如下:

 

 

其中x∈Rn是输入,y∈{0,1}输出,w,b是模型参数——w是权值向量,b称作偏置,w·x是向量内积。

比较两个条件概率值的大小,将实例x分到概率值较大的那一类。

为了方便将权值向量w和输入向量x加以拓充w=(w(1),w(2),…w(n),b)T,x=(x(1),…x(n),1)T,此时逻辑斯谛模型可以表示为:

  

事件发生的几率

是指该事件发生的概率和事件不发生的概率的比值。

定义对数几率:

 

逻辑斯蒂而言:

 

输出Y=1的对数几率是输入x的线性函数。或者说输出Y=1的对数几率是由输入x的线性函数表示的模型,即逻辑斯蒂回归模型。

换一个角度,通过逻辑斯谛回归模型可以将线性函数w•x转换为概率:

 

线性函数w·x的值越接近正无穷,概率值越接近1越接近负无穷,概率值越接近0。这样的模型就是逻辑斯谛回归模型。

模型参数估计

逻辑斯谛回归模型学习时,可以应用极大似然估计法估计模型参数,从而得到逻辑斯谛回归模型。(极大似然估计法参见附录)

在模型学习的时候,对于给定训练集T = {(x1,y1)…(xN,yN)},x∈Rn,y∈{0,1}

 

似然函数

 

则有对数似然函数

 

Lw)求极大值,得到w的估计值。这样问题就变成了以对数似然函数为目标函数的最优化问题。逻辑斯谛回归中通常采用的方法是梯度下降法及拟牛顿法。

多项逻辑斯谛回归

上面介绍的二分类模型可以推广到用于多分类的多项模型。假设随机变量的取值集合是{1,2,3.......K},那么多项逻辑斯谛回归模型是

附录:极大似然估计法

它是建立在极大似然原理的基础上的一个统计方法,极大似然原理的直观想法是:一个随机试验如有若干个可能的结果ABC。若在仅仅作一次试验中,结果A出现,则一般认为试验条件对A出现有利,也即A出现的概率很大。一般地,事件A发生的概率与参数theta相关,A发生的概率记为P(Atheta),则theta的估计应该使上述概率达到最大,这样的theta顾名思义称为极大似然估计。

求极大似然函数估计值的一般步骤:

1) 写出似然函数

2) 对似然函数取对数,并整理;

3) 求导数 

4) 解似然方程 。

极大似然估计,只是一种概率论在统计学的应用,它是参数估计的方法之一。说的是已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计就是通过若干次试验,观察其结果,利用结果推出参数的大概值。极大似然估计是建立在这样的思想上:已知某个参数能使这个样本出现的概率最大,我们当然不会再去选择其他小概率的样本,所以干脆就把这个参数作为估计的真实值。

当然极大似然估计只是一种粗略的数学期望,要知道它的误差大小还要做区间估计。

 参考:

《统计学习方法》

http://www.hankcs.com/ml/the-logistic-regression-and-the-maximum-entropy-model.html

百度百科

推荐阅读