深度学习知识结构梳理(一)

发布时间 2023-12-19 23:35:26作者: jimchen1218

一、基础篇

1. NMS及其变种

NMS:
Soft-NMS:
IOU-NMS:

2. 损失函数Loss及其变种

CTC Loss
L1 Loss:
BCE Loss:
IOU Loss: Focal Loss:减少易分类样本权重

3. 激活函数

Sigmoid:
RELU:
Softmax:
Tan:

4. BN、LN、IN、GN

5. 卷积

卷积没有平移不变性

6.池化

a 平均池化:减少过拟合,保持池化前后梯度之和不变,同时可保留背景信息
b最大池化:可提取特征纹理,减少无用信息影响,反向时需用(需记录池化时最大像素值)
c全局池化:获得全局上下文关系,以特征图为单位进行均值化
建议:前几层用最大池化,最后几层用平均池化

7.优化算法

Adam:
SGD:
Momentum
Adagrad

二、提高篇

1.欠拟合方法:

a增加特征项;b减少正则化参数;c增加模型复杂度;d增加训练次数

2.正负样本平衡:

过采样少样本类
欠采样多样本类
合成新的少样本类

3.训练不收敛

没有数据归一化
没有数据预处理
没有正则化
BS太大
学习率设置不合理
最后一层激活函数错误
网络存在坏梯度,如Relu梯度为0
参数初始化错误
网络设计不合理,太浅或太深
数据标签有问题
隐藏层神经元有问题

4.较小卷积核的好处

相同感受野下提升网络深度,有一定效果
显著减少参数量

5.数据标准化意义

去纲量,控制在相同尺度,加速训练收敛
消除过曝图片,质量不佳对权重影响

6.如何解决梯度消失

使用ReLu,ELU等激活函数
批规范化
消除W带来的放大或缩小影响

三、进阶篇

1.小目标难检测原因?a下采样后特征图上像素少;b小目标数量少;c学习时易被大目标主导;

解决方法:a数据增强,放大图片;b特征融合;c合适的训练方法;d设置更小更稠密anchor;e利用GAN放大物体;f密集遮挡时IouLoss;g匹配策略,对于小目标不设置过于严格的阈值

2.场景问题