batchsize、iteration、epoch之间的关系

发布时间 2023-05-04 20:53:11作者: 辛宣

有的时候总是会弄错batchsize、iteration、epoch之间的关系,现在终于明白了。
1、batchsize是批次大小,假如取batchsize=24,则表示每次训练时在训练集中取24个训练样本进行训练。
2、iteration是迭代次数,1个iteration就等于一次使用24(batchsize大小)个样本进行训练。
3、epoch,1个epoch就等于一次使用训练集中全部样本训练一次。
如果训练样本为1000,batchsize=24,则训练一个完整的样本集需要1个epoch,需要迭代50(1000/24=50)次。