注意:
我发现当我在阅读其他大神&前辈们发表的文章时,往往只有前二十分钟能够集中注意力。之后就慢慢的会有些懈怠了,而往往他们付出的心血可能主要就集中在中后半部分⊙﹏⊙‖∣° 。
有鉴于此,我决定以后发的博文尽可能的短。呵呵呵呵呵呵……
建议有条件的童鞋去Coursera上学习,不仅免费还精心准备了很多联系帮助理解,以下是链接(看视频需要翻墙):
https://www.coursera.org/learn/machine-learning/
逻辑回归(Logic Regression)其实解决的是分类问题
虽然叫逻辑回归,但确实是一个分类问题,引用Coursera的原话“少年们,请不要在这里迷茫!”(好吧这绝对不是原话)
什么是分类问题咧?
举个栗子:“分辨各位电子邮箱中的邮件是否是垃圾邮件”就是一个分类问题,结果只有是或者不是,或者说结果不是零就是一,即
再举一个栗子:“辨别肿瘤是否为恶性肿瘤”也是一个分类问题。如果我们用前面两章讲的回归方法来预测就有点不讲理了,请看下图。
本章所述的逻辑回归要怎样解决这类问题呢?
我们先从最简单的问题说起,仅讨论前面举得例子这种只用分两类的问题(不是0就是1),即二分类问题(Binary Classification)。
这类问题中输出的值
所以,从新定义
为了方便记录,让公式更简洁,后文中我会用向量的形式表示
那么,接下来要做的事情就很容易理解了。和线性回归一样,我们接下来要做的事情就是找到一组最佳的特征系数
就上述的判断肿瘤是良性还是恶性的例子,假设我们已经找到了一组最佳的特征系数
假如
假如
用一对多的方法解决多重分类的问题
一对多是一种非常简单的方法,其核心就是不断的使用Part1、Part2介绍的二分类问题,然后在多个二分类机的预测结果中选择可能性最大的那一个。
如下图所示,将左边的多重分类问题,分解成右边的三个二分类问题:
用训练集
最后,我们用这 3 个分类分别计算测试用例
小结
简介部分就到这里,下一章介绍逻辑回归算法中的代价函数,以及如何得到特征向量