1. 程式人生 > >focal loss 兩點理解

focal loss 兩點理解

png 感覺 技術 src 類別 com 大量 。。 ima

博客給出了三個算例。
技術分享圖片

技術分享圖片

可以看出,focal loss 對可很好分類的樣本賦予了較小的權重,但是對分錯和不易分的樣本添加了較大的權重。

對於類別不平衡,使用了$\alpha_t$進行加權,文章中提到較好的值是0.25,說明在訓練過程中仍然需要對正樣本進行降權。
正常的理解是訓練過程中負樣本的數量應該遠大於正樣本,0.25的值應該是經過大量實驗得出的。
一個合理的解釋就是經過權重調整,隨著訓練的進行,正樣本的權重應該逐漸下降。這個解釋感覺有點牽強附會了。。。

focal loss 兩點理解