1. 程式人生 > >神經網路中的Epoch、Iteration、Batchsize簡要區分

神經網路中的Epoch、Iteration、Batchsize簡要區分

分別介紹:

batchsize,批尺寸:每次訓練多少個樣本(平衡記憶體和效率),影響模型的優化程度和速度。

iteration,迭代:迭代是重複反饋的動作,神經網路中我們希望通過迭代進行多次的訓練以達到所需的目標或結果。 每一次迭代得到的結果都會被作為下一次迭代的初始值。一個迭代=一個正向通過+一個反向通過。

epoch,時期:一個時期=所有訓練樣本的一個正向傳遞和一個反向傳遞。

總結: (1)batchsize:批大小。在深度學習中,一般採用SGD訓練,即每次訓練在訓練集中取batchsize個樣本訓練; (2)Iteration:1個iteration等於使用batchsize個樣本訓練一次; (3)epoch:

1個epoch等於使用訓練集中的全部樣本訓練一次;

之間的關係:

例如有M×N個樣本,設定訓練的batchsize為N,則一次epoch需要iteration迭代M次P次epoch需要迭代M×P次。

之後再補充