Tensorflow學習筆記之tf.nn.relu
阿新 • • 發佈:2018-10-31
Tensorflow學習筆記之tf.nn.relu
關於Tensorflow的學習筆記大部分為其他部落格或者書籍轉載,只為督促自己學習。
線性整流函式(Rectified Linear Unit,ReLU),又稱修正線性單元。其定義如下圖,在橫座標的右側,ReLU函式為線性函式。在橫座標的左側,ReLU函式值為0。
因此tf.nn.relu()的目的就是將輸入小於0的值設為1,輸入大於0的值不變。