1、logist:应用于二分类
1、与一般回归的区别在于,逻辑斯蒂变换能解决一般回归模型遇到的如下困难:
1.模型的预测概率可能落在[0,1]区间之外,logist中>=0.5取1正例,<0.5取0负例,;
2.独立变量不是正态分布的;
3.因变量的方差是不一致的.
2、logist回归引入sigmod函数(阶越函数)作为模型函数,使目标值在0,1范围内
3、引入对数似然函数作为损失函数,求的极值
softmax:多分类
1、logist:应用于二分类
1、与一般回归的区别在于,逻辑斯蒂变换能解决一般回归模型遇到的如下困难:
1.模型的预测概率可能落在[0,1]区间之外,logist中>=0.5取1正例,<0.5取0负例,;
2.独立变量不是正态分布的;
3.因变量的方差是不一致的.
2、logist回归引入sigmod函数(阶越函数)作为模型函数,使目标值在0,1范围内
3、引入对数似然函数作为损失函数,求的极值
softmax:多分类