1. 程式人生 > >TensorFlow函式之tf.nn.relu()

TensorFlow函式之tf.nn.relu()

tf.nn.relu()函式是將大於0的數保持不變,小於0的數置為0,函式如圖1所示。

ReLU函式是常用的神經網路啟用函式之一。

 圖1 ReLU函式影象

 

下邊為ReLU例子:

import tensorflow as tf

v = tf.constant([-3, 5, 6, -6,9])

sess = tf.Session()
print('v的原始值為:', end='')
print(sess.run(v))

print('v的ReLu後的值為:', end='')
print(sess.run(tf.nn.relu(v)))

sess.close()

輸出為:

v的原始值為:[-3  5  6 -6  9]
v的ReLu後的值為:[0 5 6 0 9]