公开课链接:
https://study.163.com/course/courseLearn.htm?courseId=1004570029#/learn/video?lessonId=1049101127&courseId=1004570029
一些规范表达形式
训练集中样本数目:
m
变量:
X,自变量的第i个样本:
X(i)
目标:
Y,目标的第i个样本:
Y(i)
映射函数:
h,hypothesis,把
x→y,表达形式:
hθ(x)=θ0+θ1x(线性函数)
线性回归/单变量线性回归
映射函数:
hθ(x)=θ0+θ1x
θ0和θ1为模型参数(parameters of model)
优化过程就是最小化函数:
θ0,θ1min2m1i=1∑m∣hθ(x(i))−y(i)∣2 最小化误差平方和
系数
2m1是为了让数值不那么大
为了让这个概念更明晰,所以定义了代价函数(cost function)
代价函数
J(θ0,θ1):
J(θ0,θ1)=2m1i=1∑m∣hθ(x(i))−y(i)∣2
目标就是minimize cost function,代价函数也被称作平方误差函数(squared error function)
代价函数
Hypothesis:
hθ(x)=θ0+θ1x
Parameters:
θ0和θ1
Cost function:
J(θ0,θ1)=2m1i=1∑m∣hθ(x(i))−y(i)∣2
Goal:
θ0,θ1minJ(θ0,θ1)