1. 程式人生 > >為什麼神經網路中需要啟用函式(activation function)?

為什麼神經網路中需要啟用函式(activation function)?

在看tensorflow的時候,發現書中程式碼提到,使用ReLU啟用函式完成去線性化

為什麼需要啟用函式去線性化?

查了一下quaro,覺得這個回答能看明白(順便問一句,截圖算不算引用??)

----------------------------------------------------------------------------

個人理解:

如果不用啟用函式,多層神經網路和一層神經網路就沒什麼區別了

經過多層神經網路的加權計算,都可以展開成一次的加權計算