关于通道注意力

发布时间 2023-07-06 16:05:57作者: 机器智能小白凡

通道注意力的代表模型是SE-Net,它分为压缩和激励两个部分,其中压缩部分的目的是对全局空间信息进行压缩,然后再通道维度进行特征学习,形成各个通道的重要性,最后通过激励部分对各个通道进行分配不同权重

在压缩部分将H*W*C压缩到1*1*C,即把H*W压缩为1*1维,这个过程全程由平均池化实现

在激励部分,需要将压缩部分得到的1*1*C的维度融入全连接层,预测各个通道的重要程度,然后再激励到前面特征图对应通道上进行操作,采用简单的门控机制与Sigmoid激活函数

具体操作:

如果要将SEBlock加入到resnet等相关完整模型中,通常加在残差之前,因为激活是sigmoid原因,存在梯度消散的问题,所以尽量不挡道主信号通道去,即使本个残差模块有弥散问题,以不至于影响整个网络模型