3.2 线性回归从零开始实现

发布时间 2023-05-26 11:53:23作者: AncilunKiang
%matplotlib inline
import random
import torch
from d2l import torch as d2l

3.2.1 生成数据集

为了简单起见,使用易于可视化的低维数据。使用线性模型 \(\boldsymbol{y}=\boldsymbol{Xw}+b+\epsilon\) 生成数据集及其标签,其中合成的数据集是一个矩阵 \(\boldsymbol{X}\in\R^{1000\times2}\),参数 \(\boldsymbol{w}=\left[2,-3.4\right]^T、b=4.2\),噪声项 \(\epsilon\in N(0,{0.01}^2)\)

def synthetic_data(w, b, num_examples):  #@save
    """生成y=Xw+b+噪声"""
    X = torch.normal(0, 1, (num_examples, len(w)))
    y = torch.matmul(X, w) + b
    y += torch.normal(0, 0.01, y.shape)
    return X, y.reshape((-1, 1))
# 真实参数
true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = synthetic_data(true_w, true_b, 1000)

print('features:', features[0], '\nlable:', labels[0])  # feature每行包含一个二维数据样本,labels每行包含一个标量标签值
features: tensor([2.1298, 0.0883]) 
lable: tensor([8.1534])
d2l.set_figsize()
d2l.plt.scatter(features[:, (1)].detach().numpy(), labels.detach().numpy(), 1)  # 用散点图可视化
<matplotlib.collections.PathCollection at 0x23f96379520>


image

3.2.2 读取数据集

定义一个 data_iter 函数,该函数接收批量大小、特征矩阵和标签向量作为输入,生成大小为 batch_size 的小批量,每个小批量包含一组特征和标签。

def data_iter(batch_size, features, labels):
    num_examples = len(features)  # 样本总数
    indices = list(range(num_examples))
    random.shuffle(indices)  # 打乱列表元素
    for i in range(0, num_examples, batch_size):
        batch_indices = torch.tensor(indices[i: min(i + batch_size, num_examples)])
        yield features[batch_indices], labels[batch_indices]  # 降低内存小妙招:生成器。区别于return,生成器函数的返回生成一个列表一波返回,而是用一个生成一个返回一个,不用的时候是暂停执行的。
batch_size = 10

for X,y in data_iter(batch_size, features, labels):  # 小批量计算大概就是这样,一波一波的读
    print(X, '\n', y)
    break
# 实际上上述函数效率很低,框架内置的迭代器效率高很多,知其意即可。
tensor([[ 0.2036,  0.4717],
        [ 0.3787, -1.5764],
        [ 1.1944,  2.7301],
        [ 0.2739, -0.4185],
        [-2.1039,  0.8665],
        [-0.1624, -1.3021],
        [ 0.8052, -0.9909],
        [ 0.3724,  0.9609],
        [ 0.0779, -0.9714],
        [-0.8306, -0.5290]]) 
 tensor([[ 3.0043],
        [10.3214],
        [-2.6861],
        [ 6.1683],
        [-2.9457],
        [ 8.3030],
        [ 9.1761],
        [ 1.6708],
        [ 7.6504],
        [ 4.3335]])

3.2.3 初始化模型参数

从均值为 0、标准差为 0.01 的正态分布中抽样随机数来初始化权重,并将偏置初始化为 0。

w = torch.normal(0, 0.01, size=(2, 1), requires_grad=True)  # 为什么非要把 w 整成(2, 1)的,以至于后面y需要reshape,向量和矩阵效果明明一样的
b = torch.zeros(1, requires_grad=True)
w, b
(tensor([[ 0.0040],
         [-0.0168]], requires_grad=True),
 tensor([0.], requires_grad=True))

3.2.4 定义模型

定义模型,将模型的输入和参数同模型的输出关联起来。

def linreg(X, w, b):  #@save
    """线性回归模型"""
    return torch.matmul(X, w) + b

3.2.5 定义损失函数

此处使用平方损失函数

def squared_loss(y_hat, y):  #@save
    """均方损失"""
    return (y_hat - y.reshape(y_hat.shape)) ** 2 / 2

3.2.6 定义优化算法

定义函数实现小批量随机梯度下降更新,该函数接收模型参数集合、学习率和批量大小作为输入。

def sgd(params, lr, batch_size):  #@save
    """小批量随机梯度下降"""
    with torch.no_grad():  # 节省内存小妙招利用with关键字自动调用 no_grad 函数 使完成运算后参数 requires_grad 均设为 False。
        for param in params:
            param -= lr * param.grad / batch_size # 为什么要除以 batch_size ?
            param.grad.zero_()

3.2.7 训练

在每次迭代中,先读取小批量样本,并通过模型来获得一组预测。计算完损失后,开始反向传播,存储每个参数的梯度。最后,调用优化算法 sgd 来更新模型参数。总的来说:

  1. 初始化参数
  2. 重复以下训练,直到完成:
    • 计算梯度 \(\boldsymbol{g}\leftarrow\partial_{(\boldsymbol{w}, b)}\frac{1}{|B|}\sum_{i\in B}l(\boldsymbol{x}^{(i)},\boldsymbol{y}^{(i)},\boldsymbol{w},b)\)
    • 更新参数 \((\boldsymbol{w},b)\leftarrow(\boldsymbol{w},b)-\eta\boldsymbol{g}\)
# lr 和 num_epochs 都是超参数,需要反复实验调整,此处忽略这些细节,在11章会详细介绍。
lr = 0.03
num_epochs = 3
net = linreg
loss = squared_loss
for epoch in range(num_epochs):
    for X, y in data_iter(batch_size, features, labels):
        l = loss(net(X, w, b), y)  # X 和 y 的小批量损失
        l.sum().backward()  # 转换成标量并计算梯度
        sgd([w, b], lr, batch_size)  # 沿梯度更新参数
    with torch.no_grad():
        train_l = loss(net(features, w, b), labels)
        print(f'epoch{epoch + 1}, loss {float(train_l.mean()):f}')
epoch1, loss 0.033048
epoch2, loss 0.000114
epoch3, loss 0.000047

由于 $ \boldsymbol{w}$ 和 \(b\) 是自己设置的,所以可以很明确的计算出训练得出的参数和真是参数间的差距

print(f'w的估计误差: {true_w - w.reshape(true_w.shape)}')
print(f'b的估计误差: {true_b - b}')
w的估计误差: tensor([ 6.8665e-05, -2.1100e-04], grad_fn=<SubBackward0>)
b的估计误差: tensor([0.0006], grad_fn=<RsubBackward1>)

练习

(1)如果我们将权重初始化为零,会发生什么?算法仍然有效吗?

w = torch.zeros(size=(2, 1), requires_grad=True)  # 初始化为 0
b = torch.zeros(1, requires_grad=True)

for epoch in range(num_epochs):
    for X, y in data_iter(batch_size, features, labels):
        l = loss(net(X, w, b), y)  # X 和 y 的小批量损失
        l.sum().backward()  # 转换成标量并计算梯度
        sgd([w, b], lr, batch_size)  # 沿梯度更新参数
    with torch.no_grad():
        train_l = loss(net(features, w, b), labels)
        print(f'epoch{epoch + 1}, loss {float(train_l.mean()):f}')

print(f'w的估计误差: {true_w - w.reshape(true_w.shape)}')
print(f'b的估计误差: {true_b - b}')
epoch1, loss 0.033627
epoch2, loss 0.000119
epoch3, loss 0.000047
w的估计误差: tensor([-0.0003, -0.0004], grad_fn=<SubBackward0>)
b的估计误差: tensor([0.0006], grad_fn=<RsubBackward1>)

可以跑,特别是对于这个简单的例子,影响很有限。但是对于更复杂的网络来说出现对称性,使隐层无论有多少神经元都等价于只有一个神经元。详细参见《谈谈神经网络权重为什么不能初始化为0


(2)假设试图为电压和电流的关系建立一个模型。自动微分可以用来学习模型的参数吗?

可以,电压电流也是线性关系 \(U=wI+b\)


(3)能基于普朗克定律使用光谱能量密度来确定物体的温度吗?

依据百度百科相关内容,普朗克定律写做能量密度频谱的形式为:

\[u_\lambda(\lambda,T)=\frac{8\pi hc}{\lambda^5}\frac{1}{e^{\frac{hc}{\lambda kT}}-1} \]

转换得:

\[T=\frac{hc}{\lambda k}\frac{1}{\log(\frac{8\pi hc}{\lambda^5}\frac{1}{u_\lambda(\lambda,T)}+1)} \]


(4)计算二阶导数时可能会遇到什么问题?这些问题如何解决?

由于调用 backward 函数计算一次梯度后,计算图会被释放。如果想要保留,需要添加 retain_graph=True。所以如果想二次求导(求高阶导倒不是必要得)则需要保留,如2.5.练习(2)

对于高阶导数,仅保留计算图是不够的,还需要使用 creat_graph=True 在保留原图的基础上再建立额外的计算图,之后二阶导直接对前一个grad 调用 backward 函数即可。

另外需要注意在第二次求导前清空梯度,否则会累加。而且需要使用 grad.data.zero_() 而非 grad.zero_(),后者会使 grad_fn=<ZeroBackward0>,导致二阶导为 0。

参考《一文解释 PyTorch求导相关 (backward, autograd.grad)

x = torch.tensor([1.], requires_grad=True)
y = x**3  # 显然一阶导应该是3 二阶导应该是6

y.backward(retain_graph=True, create_graph=True)  # 实际上对于二阶求导retain_graph=True不是必要的
grad1 = x.grad.clone()
x.grad.data.zero_()  # 注意清零
x.grad.backward()  # 在一阶梯度基础上再次反向传播
grad1, x.grad
(tensor([3.], grad_fn=<CloneBackward0>), tensor([6.], grad_fn=<CopyBackwards>))

(5)为什么再 squared_loss 函数中需要使用 reshape 函数。

因为 y_hat 是向量,而 y 是十行一列的矩阵(虽然不理解为啥非要把 y 搞成矩阵)。


(6)尝试使用不同的学习率,观察损失函数值下降的快慢成都。

num_epochs = 9

for lr in [0.01, 0.02, 0.03, 0.04, 0.05, 0.1, 0.2]:
    w = torch.normal(0, 0.01, size=(2, 1), requires_grad=True)
    b = torch.zeros(1, requires_grad=True)
    print(f'lr={lr}')
    for epoch in range(num_epochs):
        for X, y in data_iter(batch_size, features, labels):
            l = loss(net(X, w, b), y)  # X 和 y 的小批量损失
            l.sum().backward()  # 转换成标量并计算梯度
            sgd([w, b], lr, batch_size)  # 沿梯度更新参数
        with torch.no_grad():
            train_l = loss(net(features, w, b), labels)
            print(f'epoch{epoch + 1}, loss {float(train_l.mean()):f}')
    print('----------')
lr=0.01
epoch1, loss 2.171911
epoch2, loss 0.278664
epoch3, loss 0.036007
epoch4, loss 0.004719
epoch5, loss 0.000656
epoch6, loss 0.000128
epoch7, loss 0.000057
epoch8, loss 0.000048
epoch9, loss 0.000047
----------
lr=0.02
epoch1, loss 0.271833
epoch2, loss 0.004494
epoch3, loss 0.000122
epoch4, loss 0.000048
epoch5, loss 0.000047
epoch6, loss 0.000047
epoch7, loss 0.000047
epoch8, loss 0.000047
epoch9, loss 0.000047
----------
lr=0.03
epoch1, loss 0.033085
epoch2, loss 0.000116
epoch3, loss 0.000047
epoch4, loss 0.000047
epoch5, loss 0.000047
epoch6, loss 0.000047
epoch7, loss 0.000047
epoch8, loss 0.000047
epoch9, loss 0.000047
----------
lr=0.04
epoch1, loss 0.003973
epoch2, loss 0.000049
epoch3, loss 0.000047
epoch4, loss 0.000047
epoch5, loss 0.000047
epoch6, loss 0.000047
epoch7, loss 0.000047
epoch8, loss 0.000047
epoch9, loss 0.000047
----------
lr=0.05
epoch1, loss 0.000493
epoch2, loss 0.000047
epoch3, loss 0.000047
epoch4, loss 0.000047
epoch5, loss 0.000047
epoch6, loss 0.000047
epoch7, loss 0.000047
epoch8, loss 0.000047
epoch9, loss 0.000048
----------
lr=0.1
epoch1, loss 0.000048
epoch2, loss 0.000047
epoch3, loss 0.000047
epoch4, loss 0.000047
epoch5, loss 0.000048
epoch6, loss 0.000047
epoch7, loss 0.000047
epoch8, loss 0.000047
epoch9, loss 0.000047
----------
lr=0.2
epoch1, loss 0.000048
epoch2, loss 0.000048
epoch3, loss 0.000048
epoch4, loss 0.000050
epoch5, loss 0.000047
epoch6, loss 0.000047
epoch7, loss 0.000049
epoch8, loss 0.000050
epoch9, loss 0.000047
----------

可以看到学习率越大下降越快,学习率过大的后果看不出来,据说后期不容易收敛。


(7)如果样本个数不能被批量大小整除,data_iter 函数的行为会有什么变化?

epoch = 1

for X,y in data_iter(3, features, labels):  # 小批量计算大概就是这样,一波一波的读
    if epoch >= 332:
        print(X)
    epoch += 1
tensor([[-0.2145, -1.6637],
        [ 1.6249,  1.2820],
        [ 0.6924,  0.1186]])
tensor([[ 0.1038, -1.1218],
        [-0.9398, -0.2272],
        [ 0.4261,  0.1190]])
tensor([[0.5700, 0.4233]])

\(1000\div3=333\dots1\)

可以看到,最后一组由余下的组成。