Logistic Regression逻辑回归的简单解释

版权声明:本作品采用知识共享 署名-非商业性使用 3.0 中国大陆 许可协议进行许可。 https://blog.csdn.net/jinping_shi/article/details/52326980

Logistic Regression也叫Logit Regression,在机器学习中属于参数估计的模型。逻辑回归与普通线性回归(Linear Regression)有很大的关系。在应用上,它们有所区别:

  • 普通线性回归主要用于连续变量的预测,即,线性回归的输出 y 的取值范围是整个实数区间( yR
  • 逻辑回归用于离散变量的分类,即,它的输出 y 的取值范围是一个离散的集合,主要用于类的判别,而且其输出值 y 表示属于某一类的概率

一个单独的逻辑回归函数只能判别两个类,这里用0和1表示. 逻辑回归的结果会给出一个概率 p ,表示属于类别1的概率。既然是两类问题,那么属于类别0的概率自然就是 1p 。有没有发现一点二项分布(Binomial Distribution)的影子?

逻辑回归应用广泛,而且因为给出的结果是一个概率,比单纯的“是”或“不是”包含更多的信息,因此大受人们喜爱(误)。我们之前参加Kaggle广告点击率预测竞赛时使用的就是逻辑回归。因为用户要么点了广告,要么没点,我们给出一个概率,就可以判断用户的点击广告的可能性。这个预测看起来很简单,的确是,模型很简单的,难的地方在于features的分析,选取,综合等,也就是常说的pre-processing。

文章内容

很多文章介绍逻辑回归时会直接给出一个叫sigmoid的函数,该函数的值域范围是 (0,1) ,刚好是概率的取值范围(也不完全是,因为是开区间)。本文会再稍微往前一点点,从引入sigmoid函数之前介绍一下Logistic Regression。文章只做简单介绍(真的很简单),不涉及参数估计的内容。

Odds与Logit函数

逻辑回归的输入是一个线性组合,与线性回归一样,但输出变成了概率。而且逻辑回归用于预测两类问题,类似一个伯努利试验。假设在一个伯努利试验中,成功的概率是 p ,失败的概率是 1p ,我们设逻辑回归的输出是成功的概率 p ,那么需要一个函数将逻辑回归的输入(一个线性组合)与 p 联系起来。下面介绍这个函数,它的名字叫Logit.

我们定义:

Odds=p1p(1)

上式很直观,表示成功的概率是失败概率的多少倍,中文叫做 发生比

对Odds取自然对数:

ln(Odds)=ln(p1p)=ln(p)ln(1p)(2)

上式即为logit函数的定义,参数为 p ,记为:
logit(p)=ln(Odds)(3)

logit(p) 的图像如下所示,可以看到它的定义域是 [0,1] ,值域是 R
Logit函数形态

但我们要的是定义域是 R ,值域是 [0,1] 。于是我们求(3)式的反函数,并将参数 p 用另一个参数 α 表示,有:

logit1(α)=11+eα=eα1+eα(4)

上式中 α 可以取全体实数,而该函数的值域变成了 (0,1) ,这正是我们想要的效果。 logit(p) 的反函数 logit1(α) 的名称就是我们常常听到的 sigmoid函数

扫描二维码关注公众号,回复: 5097093 查看本文章

输入与输出

在(4)式中,输入的参数 α 可以是任何数,也可以将其作为一个线性组合输入。例如,另

α=θ0+θ1x1+θ2x2

则(4)式的sigmoid函数可以写成:
sigmoid(α)=logit1(α)=eθ0+θ1x1+θ2x21+eθ0+θ1x1+θ2x2(5)

上式就是逻辑回归的一般用法。注意到它的输入还是一个线性组合,跟线性回归的输入是一样的,只不过计算的时候比线性回归多了一层函数,因此这就是为什么会有文章说 逻辑回归的本质还是线性回归,也会看到有一些文章说 在特征到结果的映射中多加了一层函数映射,这个函数映射就是sigmoid。

(5)式是计算概率 p 的表达式,这个表达式也可以从 logit 函数来推导。因为 logit(p) 与一个线性组合是等价的(也再一次说明逻辑回归的本质还是线性回归)。

logit 函数等于一个线性组合(这是可以的,因为 logit 函数的定义域和值域与一个线性组合的定义域和值域是一样的),即:

logit(p)=ln(p1p)=θ0+θ1x1+θ2x2

对上式两边取自然底数,有:
p1p=eθ0+θ1x1+θ2x2

p=eθ0+θ1x1+θ2x21+eθ0+θ1x1+θ2x2

通常会将上式写成
p̂ =eθ0+θ1x1+θ2x21+eθ0+θ1x1+θ2x2

p̂  表示 p 的估计值。

上式就是(5)式。这样求概率 p 便变成了参数估计问题:估计参数 θ ,使得 p̂  最接近 p

虽然逻辑回归通常用于两个类的判别问题,但是将多个逻辑回归函数组合起来就可以解决多类判别的问题。

Refrence

Youtube上有一个关于Logistic Regression的视频的入门级系列介绍,本文就是根据这个系列的介绍写的。想对Logistic Regression有快速的了解可以参考这个系列视频(可惜要翻墙,QQ)
https://www.youtube.com/watch?v=zAULhNrnuL4

猜你喜欢

转载自blog.csdn.net/jinping_shi/article/details/52326980