batchsize、iteration、epoch之间的关系其实比较简单,只是开始觉得名词有点怵

1、batchsize是批次大小,假如取batchsize=24,则表示每次训练时在训练集中取24个训练样本进行训练。
2、iteration是迭代次数,1个iteration就等于一次使用24(batchsize大小)个样本进行训练。
3、epoch,1个epoch就等于一次使用训练集中全部样本训练一次
如果训练样本为1000,batchsize=24,则训练一个完整的样本集需要1个epoch,需要迭代50(1000/24=50)次。

参考文献:
https://blog.csdn.net/Anne332/article/details/121773716


1 声望0 粉丝