建议在jupyter notebook里运行,更方便学习
1. 线性回归的基本要素
1.1 模型
假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。 探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系:
p
r
i
c
e
=
w
a
r
e
a
⋅
a
r
e
a
+
w
a
g
e
⋅
a
g
e
+
b
\mathrm{price} = w_{\mathrm{area}} \cdot \mathrm{area} + w_{\mathrm{age}} \cdot \mathrm{age} + b
p r i c e = w a r e a ⋅ a r e a + w a g e ⋅ a g e + b
1.2 数据集
收集一系列的真实数据,在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为训练数据集(training data set)或训练集(training set),一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两个因素叫作特征(feature)。特征用来表示样本的特点。
1.3 损失函数
在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数(均方误差,((预测值减去真实值)^2)/2)。 它在评估索引为
i
i
i 的样本误差的表达式为
l
(
i
)
(
w
,
b
)
=
1
2
(
y
^
(
i
)
−
y
(
i
)
)
2
,
l^{(i)}(\mathbf{w}, b) = \frac{1}{2} \left(\hat{y}^{(i)} - y^{(i)}\right)^2,
l ( i ) ( w , b ) = 2 1 ( y ^ ( i ) − y ( i ) ) 2 ,
l公式代表单个样本误差
L
(
w
,
b
)
=
1
n
∑
i
=
1
n
l
(
i
)
(
w
,
b
)
=
1
n
∑
i
=
1
n
1
2
(
w
⊤
x
(
i
)
+
b
−
y
(
i
)
)
2
.
L(\mathbf{w}, b) =\frac{1}{n}\sum_{i=1}^n l^{(i)}(\mathbf{w}, b) =\frac{1}{n} \sum_{i=1}^n \frac{1}{2}\left(\mathbf{w}^\top \mathbf{x}^{(i)} + b - y^{(i)}\right)^2.
L ( w , b ) = n 1 i = 1 ∑ n l ( i ) ( w , b ) = n 1 i = 1 ∑ n 2 1 ( w ⊤ x ( i ) + b − y ( i ) ) 2 . L公式小批量的误差
1.4 优化函数 - 随机梯度下降
当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(analytical solution)。 大多数深度学习模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。这类解叫作数值解(numerical solution)。
在求数值解的优化算法中,小批量随机梯度下降(mini-batch stochastic gradient descent)在深度学习中被广泛使用。它的算法很简单:先选取一组模型参数的初始值,如随机选取;接下来对参数进行多次迭代,使每次迭代都可能降低损失函数的值。在每次迭代中,先随机均匀采样一个由固定数目训练数据样本所组成的小批量(mini-batch)
B
\mathcal{B}
B ,然后求小批量中数据样本的平均损失有关模型参数的导数(梯度),最后用此结果与预先设定的一个正数的乘积作为模型参数在本次迭代的减小量。
(
w
,
b
)
←
(
w
,
b
)
−
η
∣
B
∣
∑
i
∈
B
∂
(
w
,
b
)
l
(
i
)
(
w
,
b
)
(\mathbf{w},b) \leftarrow (\mathbf{w},b) - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}} \partial_{(\mathbf{w},b)} l^{(i)}(\mathbf{w},b)
( w , b ) ← ( w , b ) − ∣ B ∣ η i ∈ B ∑ ∂ ( w , b ) l ( i ) ( w , b )
学习率:
η
\eta
η 代表在每次优化中,能够学习的步长的大小 批量大小:
B
\mathcal{B}
B 是小批量计算中的批量大小batch size
优化函数的有以下两个步骤:
初始化模型参数,一般来说使用随机初始化;
在数据上迭代多次,通过在负梯度方向移动参数来更新每个参数。
矢量计算
在模型训练或预测时,我们常常会同时处理多个数据样本并用到矢量计算。 在介绍线性回归的矢量计算表达式之前,先进行两个向量相加的两种方法。
向量相加的一种方法是,将这两个向量按元素逐一做标量加法。
向量相加的另一种方法是,将这两个向量直接做矢量加法。
2. 线性回归模型从零开始的实现
2.1 生成数据集
使用线性模型来生成数据集,生成一个1000个样本的数据集,下面是用来生成数据的线性关系:
p
r
i
c
e
=
w
a
r
e
a
⋅
a
r
e
a
+
w
a
g
e
⋅
a
g
e
+
b
\mathrm{price} = w_{\mathrm{area}} \cdot \mathrm{area} + w_{\mathrm{age}} \cdot \mathrm{age} + b
p r i c e = w a r e a ⋅ a r e a + w a g e ⋅ a g e + b
2.2 读取数据集
2.3 初始化模型参数
2.4 定义模型
定义用来训练参数的训练模型:
p
r
i
c
e
=
w
a
r
e
a
⋅
a
r
e
a
+
w
a
g
e
⋅
a
g
e
+
b
\mathrm{price} = w_{\mathrm{area}} \cdot \mathrm{area} + w_{\mathrm{age}} \cdot \mathrm{age} + b
p r i c e = w a r e a ⋅ a r e a + w a g e ⋅ a g e + b
2.5 定义损失函数
我们使用的是均方误差损失函数:
l
(
i
)
(
w
,
b
)
=
1
2
(
y
^
(
i
)
−
y
(
i
)
)
2
,
l^{(i)}(\mathbf{w}, b) = \frac{1}{2} \left(\hat{y}^{(i)} - y^{(i)}\right)^2,
l ( i ) ( w , b ) = 2 1 ( y ^ ( i ) − y ( i ) ) 2 ,
2.6 定义优化函数
在这里优化函数使用的是小批量随机梯度下降:
(
w
,
b
)
←
(
w
,
b
)
−
η
∣
B
∣
∑
i
∈
B
∂
(
w
,
b
)
l
(
i
)
(
w
,
b
)
(\mathbf{w},b) \leftarrow (\mathbf{w},b) - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}} \partial_{(\mathbf{w},b)} l^{(i)}(\mathbf{w},b)
( w , b ) ← ( w , b ) − ∣ B ∣ η i ∈ B ∑ ∂ ( w , b ) l ( i ) ( w , b )
2.7 训练
当数据集、模型、损失函数和优化函数定义完了之后就可来准备进行模型的训练了。
3. 线性回归模型使用pytorch的简洁实现
3.1 生成数据集
3.2 读取数据集
3.3 定义模型
3.4 初始化模型参数
3.5 定义损失函数
3.6 定义优化函数
3.7 训练