斯坦福深度學習課程筆記(二)
阿新 • • 發佈:2018-12-11
損失函式和優化
1 損失函式
損失函式是用來定量地分析我們的模型預測效果有多糟糕的函式。損失函式輸出值越大,代表我們的模型效果越糟糕。
損失函式的通用表示: 假設我們的資料集有N個樣本,其中是樣本圖片,是對應的整數標籤;整個資料集的損失就是每個樣本的損失之和。
這裡介紹兩種損失函式
1.1 多分類SVM損失
SVM損失的形式是這樣的: 這裡的代表一個邊界(margin),即正分類比誤分類大的程度,其實這個是可以自由設定的,但是也要依據問題去考慮。
也可以把SVM Loss叫做Hinge Loss,橫軸是,隨著的增大,HInge Loss是逐漸下降的,最終降為0。
在這個問題中,我們的就是模型跑到最後,給每個樣本image的分類的一個分數值。
關於SVM Loss,有幾個問題:
-
損失的最大/最小值分別是什麼? 最小值是0,對應全部分類正確的情況; 最大值是無窮大
-
在初始化階段,很小,所以所有的,這個時候的損失是多少? 答案是,代表分類的數量。 ,再求平均值,就是
-
如果包含的情況,所有損失的和應該是多少呢? 損失的和應該會加上
-
如果我們使用平均值而非求和,損失會有怎樣的變化呢? 沒什麼變化,只是縮放而已
-
如果我們使用,會有什麼變化呢? 這就形成了一個新的損失函式。
-
如果我們找到了一個,使得損失為0,那麼損失是惟一的嗎? 不是,也能令損失為0。
既然和都能使損失降為0,那麼我們應該選哪個呢?
這裡我們引入正則