BatchNorm层【对数据进行归一化】 位置: 全连接层:仿射变换与激活函数之间 卷积层:卷积层后与激活函数之前 作用: ①加快收敛速度; ②防止梯度爆炸/梯度消失 ③防止过拟合本栏目推荐文章PyTorch 的 BatchNorm 层BatchNorm归一化pytorch torch.nn.BatchNorm1dBatchNormTensorFlow10.4 卷积神经网络-batchnormBatchNormbatchnorm pytorch batchnorm1 batchnorm1d batchnorm1d batchnorm1 batchnorm pytorch 卷积 神经网络tensorflow batchnorm