svr的理解

昨天突然想到svm与svr的区别是啥呢?

一时突然答不上来,只想到支持向量,最大间隔,然后就很疑惑那条最大分类间隔线怎么起作用呢,怎么回归?

分析:回归的本质:就是分析特征变量与目标变量之间的关系的过程;比如说线性回归,就是在图形上画出一条线来尽可能拟合所有样本点;非线性回归,可以不用直线来尽可能拟合所有样本点,如果算法结构够强大,可以拟合到每一个点;说白了,回归就是让曲线穿越每一个点;

最简单的线性回归模型是要找出一条直线使得残差最小,最好的就是残差为0,完美拟合;对于高维的就是超平面,使得所有数据到这个超平面的距离最小,其实就是残差最小;一样的概念;

个人认为:svr也是回归问题,它的本质属性不再是原有的支持向量(最大间隔的方法)了,而是属于svm的独有损失函数,会用一个区域(虚线与实线合成的)来拟合,很粗的线条,再加上一些核函数;但最终结果是一个曲线函数,如下图中的实体线;

猜你喜欢

转载自blog.csdn.net/ningyanggege/article/details/81557598