1. 程式人生 > >24.權衡模型的方差和偏差 翻譯自 吳恩達新書-Machine Learning Yearning

24.權衡模型的方差和偏差 翻譯自 吳恩達新書-Machine Learning Yearning

你可能以前聽過“權衡偏差和⽅差”。大多數機器學習改進方法中,有⼀些可以降低偏差但是會導致方差的上升,反之亦然。這個時候就需要在偏差和方差中進行權衡了。

舉例來說,增加你的模型的規模,不管是在神經網路中增加神經元/隱藏層,還是增加輸入特徵,可以普遍減少偏差但是會增加⽅差。另一方便,增加正則化⼀般會增加偏差,但是可以減少方差。

現在,因為可以使用大量的資料並且可以訓練大型的神經網路(深度學習)。我們有了更多的選擇,我們可以在不降低方差的同時,來讓偏差降低,反之亦然。

比如,可以使用擴大神經網路規模和應用正則化的方法,來減少偏差的同時不會明顯的影響偏差。通過增加訓練的資料量,你可以在不影響偏差的前提下,減少⽅差。

⼀旦你選定了⼀個適用與你當前任務的模型架構,你可能需要同時減少偏差和方差。當然選擇這樣的架構並不容易。

在接下來章節中,我們會討論⼀些特定的方法,來降低偏差和方差。