从Logistic回归到神经网络的一点感悟


1 线性回归 (Linear Regression)

大略总结下

回归来源

我们关心的东西没有办法用一个或多个变量确定的表示,即无函数关系;但是又存在着较强的关联性。这种关系就叫统计关系或相关关系。衍生两个分支是回归分析和相关分析。二者侧重不同,回归分析用的更广泛。
回归分析中,x称为解释变量,是非随机变量;y称为响应变量,是随机变量。
回归有线性回归和非线性回归;以最小二乘法(Least Square)为主的线性回归是最经典的回归模型。
回归和分类的问题是相同的,仅区别于响应变量的形式。y是分类变量时(例:0-1),模型为分类;是连续变量时称为回归。

线性回归总结

Gauss-Markov 假设:

高斯-马尔科夫是核心假设,后面回归出现的问题都由此而来。

  1. 线性模型成立 y=β0+β1x1+...+βpxp+ϵy=β0+β1x1+...+βpxp+ϵ是常数。

常见问题及解决办法

  • 异方差性:即GM假设第5条不满足,σiσi不再是常数。解决办法:加权最小二乘。打个广告,解决异方差性,这篇推送写的不错:如何收服异方差性
  • 多重共线性:第3条不满足。举例:自变量同时有一天进食量和中午以后进食量。解决办法:根据多重共线性检验删除一些不重要的变量;逐步回归、主成分回归、偏最小二乘,Ridge,Lasso(岭回归与LASSO为正则化方法,在解释性上强于前面两种)
    线性回归示意图

  • 当响应变量是定性变量。解决办法:

  • 在数据处理上设置哑变量(dummy variable)
  • 响应变量是定性变量在生活中有广泛的应用,其属于广义线性模型(generialized linear model,GLM)的研究范畴。

2 感知机 (Perceptron)

定义

当响应变量 yy 是分类变量时,建模过程就是分类了。感知机(Perceptron)是二分类的线性分类模型。可以看做是线性回归的兄弟(线性分类)。同时也是神经网络和支持向量机(support vector machine)的基础。
下一篇学习笔记会试着写写从感知机到支持向量机。

在周志华老师的机器学习一书中侧重于将其作为神经网络的基础概念,对感知机的定义如下:

感知机由两层神经元组成,输入层接受外界输入信号后传递给输出层,输出层是M-P神经元,亦称“阈值逻辑单元”(threshold logic unit)。如下图所示:

这里写图片描述

学习策略

在感知机模型中,假设数据集是线性可分的。因此,感知机的目标是找到一个超平面,将两类点(正 or 负)完全分隔开来。因此,学习策略的核心是找到这样的超平面方程:wx+b=0wx+b=0

因此,训练需要得到的参数是 ww的连续可导函数,不便于优化。

损失函数:

L(w,b)=xiMyi(wxi+b)L(w,b)=−∑xi∈Myi(w⋅xi+b)是误分类点的集合。这个损失函数就是感知机学习的经验风险函数;所以问题就转化为一个求解损失函数最小的最优化问题,最优化的方法是 随机梯度下降(Stochastic gradient descent)。对于更多细节可以看李航的统计学习方法这本书;感知机这部分在书中有很全面的介绍。

3 Logistic Regression

怎么来的

在前面已经提到了广义线性模型,其一般表示形式为:

y=g1(wTx+b)y=g−1(wTx+b),而不知道被解释变量的分布情况,没啥用,什么也干不了。 (欢迎大佬补充)

因此在Logistic回归中,取连接函数为logitlogit

那大佬们说的Sigmoid函数是什么意思呢?
我们将上式写成回归函数的样子(两边取指数,挪一挪就得了):

p(y=1|x)=11+e(wTx+b)p(y=1|x)=11+e−(wTx+b)

机器学习中,一般令 z=wTx+bz=wTx+b

怎么求解

首先介绍一下常见的几种损失函数 :
  1. 平方损失:

    L=(yy^)2L=(y−y^)2 的一范数作为惩罚项。

Logistic回归的损失函数:负对数损失

我们已经得到了Logistic回归模型,等式左边的 p(y=1|x)p(y=1|x)为单调增函数,不改变损失函数的极大值点 ,且将幂运算变为乘法,简化计算,所以似然项可重写为:

p(y|x)=ylog(y^)+(1y)log(1y^)p(y|x)=y∗log(y^)+(1−y)∗log(1−y^) 。最优化理论中,我们习惯求解极小化问题,所以添个负号,变为找最小值的优化问题。

l(w,b)=ni=1[yilog(y^i)+(1yi)log(1y^i)]l(w,b)=−∑i=1n[yi∗log(y^i)+(1−yi)∗log(1−y^i)]

这个时候损失函数是高阶可导的连续凸函数,梯度下降法就可以求解了。

Tips

统计中关心的 比值 oddsodds)

OddsOdds ,值域从0到正无穷 扩大到 负无穷到正无穷,吻合一般的线性模型对响应变量的要求。

oddsodds

优势比经常被用来解释变量的变动带来的事件 风险变化

log(oddslog(odds

参加交大研究夏令营面试的时候,一位生物统计的老师问到这个,当时有点懵圈,因为上课的时候老师也没咋讲。诶,想学生物统计的还是把这一块好好了解一下吧。

4 神经网络 (Neural Network)

怎么理解

神经元:


这里写图片描述

上图是一个神经元,高中生物学过。简要来说:树突接受信号,胞体处理信号,如果信号产生的电位达到阈值(threshold),胞体变为“兴奋”状态(激活状态),通过轴突给下一个神经元传出信号。

神经元模型:

在机器学习中,谈论神经网络时指的是 “神经网络学习“,是机器学习和生物神经网络的交叉部分。

神经元模型是神经网络学习中最基本的成分。下图可以抽象的看做神经元模型,和上面的生物神经元对照着看。

这里写图片描述

左边的x1,x2,....xnx1,x2,....xn.
举个例子:用手挠一下神经元,可能强度达不到阈值,神经元不理你;如果你用针用力刺一下它,疼痛感立马大于阈值,神经元分泌化学物质,即输出相应的信号。

最简单的几种形式

感知机

前面介绍了感知机,它可以看做是两层神经元组成,激活函数是 Heaviside函数(阶跃函数)的神经元模型。当输入信号大于阈值,神经元兴奋,输出1;否则神经元抑制,输出 0。

Logistic回归

Logistic回归可以看做是两层神经元,激活函数是Sigmoid函数的神经网络。

这里写图片描述

正如前面所说,可以给Logistic回归看做两步骤,第一:z=wTx+bz=wTx+b

后记

  • 多层的我也不知道咋解释,函数一层嵌套一层的,现在也很难解释。

  • 有理论证明:神经网络层数多一点,比一层个数里面多一点效果好;可以模拟任何的函数;随着样本量的增大,效果会好起来,但是肯定有极限。

  • 反正第一次写,不知道写多了还是写少了。有什么意见尽管提,争取下次改正。大家都菜的抠脚,一起学习一起进步。


				<script>
					(function(){
						function setArticleH(btnReadmore,posi){
							var winH = $(window).height();
							var articleBox = $("div.article_content");
							var artH = articleBox.height();
							if(artH > winH*posi){
								articleBox.css({
									'height':winH*posi+'px',
									'overflow':'hidden'
								})
								btnReadmore.click(function(){
									if(typeof window.localStorage === "object" && typeof window.csdn.anonymousUserLimit === "object"){
										if(!window.csdn.anonymousUserLimit.judgment()){
											window.csdn.anonymousUserLimit.Jumplogin();
											return false;
										}else if(!currentUserName){
											window.csdn.anonymousUserLimit.updata();
										}
									}
									
									articleBox.removeAttr("style");
									$(this).parent().remove();
								})
							}else{
								btnReadmore.parent().remove();
							}
						}
						var btnReadmore = $("#btn-readmore");
						if(btnReadmore.length>0){
							if(currentUserName){
								setArticleH(btnReadmore,3);
							}else{
								setArticleH(btnReadmore,1.2);
							}
						}
					})()
				</script>
				</article>

猜你喜欢

转载自blog.csdn.net/yueguizhilin/article/details/85322346