1. 程式人生 > >Tensorflow學習筆記之tf.nn.relu

Tensorflow學習筆記之tf.nn.relu

Tensorflow學習筆記之tf.nn.relu
關於Tensorflow的學習筆記大部分為其他部落格或者書籍轉載,只為督促自己學習。

線性整流函式(Rectified Linear Unit,ReLU),又稱修正線性單元。其定義如下圖,在橫座標的右側,ReLU函式為線性函式。在橫座標的左側,ReLU函式值為0。
在這裡插入圖片描述
因此tf.nn.relu()的目的就是將輸入小於0的值設為1,輸入大於0的值不變。