最小二乘法线性回归、sklearn.linear_model.LinearRegression

最小二乘法线性回归:sklearn.linear_model.LinearRegression(fit_intercept=True, normalize=False,copy_X=True, n_jobs=1)

主要参数说明:

fit_intercept(添加截距):布尔型,默认为True,若参数值为True时,代表训练模型需要加一个截距项b;若参数为False时,代表模型无需加截距项。

normalize(归一化):布尔型,默认为False,若fit_intercept参数设置False时,normalize参数无需设置;若normalize设置为True时,则输入的样本数据将(X-X均值)/||X||;若设置normalize=False时,在训练模型前, 可以使用sklearn.preprocessing.StandardScaler进行标准化处理。

属性:

coef_:回归系数(斜率)

intercept_:截距项

主要方法:

①fit(X, y, sample_weight=None),返回一个实例化好的fit(就是初始化好一个线性函数)

②predict(X)

③score(X, y, sample_weight=None)
返回值为: y_pred) **2).sum() / ((y_true - y_true.mean()) ** 2).sum())
他表示预测值与标签均值的相似度。score越靠近0预测就越接近真值。

发布了49 篇原创文章 · 获赞 18 · 访问量 1399

猜你喜欢

转载自blog.csdn.net/qq_44099721/article/details/103942002
今日推荐