1. 程式人生 > >神經網路於過擬合

神經網路於過擬合

“Small” neural network (fewer parameters; more prone to underfitting)

Computationally cheaper

"Large" neural network (more parameters; more prone to overfitting)

Computationally more expensive.

Use regularization (λ) to address overfitting.

簡單的神經網路(更少的引數)容易出現欠擬合,但優點是計算簡單。

複雜的神經網路(跟多引數,更復雜的結構)一般情況下意味著更好的效能,但是計算成本高,而且容易出現過擬合現象,這時需要運用正則化解決過擬合問題。