1. 程式人生 > >TensorFlow之張量(tensor)

TensorFlow之張量(tensor)


張量(tensor)

在Tensorflow中,所有資料都通過張量的形式來表示,從功能上看,張量可以簡單的被理解為多維陣列。其中零階張量表示標量(scalar),也就是一個數;第一階張量為向量(vector),也就是一個一維陣列;同理第n階張量就是n維陣列。 但是張量在Tensorflow中的實現並不是採用陣列的形式,他只是對Tensorflow中運算結果的引用。在張量中並沒有真正的儲存數字,它儲存的是如何得到這些數字的計算過程。 
       Tensorflow的張量和Numpy的陣列是不同的,Tensorflow計算的結果不是一個具體數字,而是一個張量結構。 
一個張量主要儲存三個屬性:名字(name)、維度(shape)、型別(type) 
      張量的第一個屬性名字不僅是一個張量的唯一識別符號,它同樣給出了這個張量是如何計算出來的。Tensorflow的計算都可以通過計算圖的模型來建立,而計算圖的每一個節點代表一個計算,計算的結果就儲存在張量中,所以張量和計算圖上的節點所代表的計算結果是對應的。這樣張量的命名就可以通過“node:src_ouput”的形式給出,node是節點名,src_output表示當前張量來自節點的第幾個輸出。 

  在tensorflow中,有很多操作張量的函式,有生成張量、建立隨機張量、張量型別與形狀變換和張量的切片與運算

1、生成張量

生成固定張量值

建立所有元素設定為零的張量。此操作返回一個dtype具有形狀shape和所有元素設定為零的型別的張量。

tf.zeros(shape, dtype=tf.float32, name=None)

給tensor定單張量(),此操作返回tensor與所有元素設定為零相同的型別和形狀的張量。

tf.zeros_like(tensor, dtype=None, name=None)

建立一個所有元素設定為1的張量。此操作返回一個型別的張量,dtype形狀shape和所有元素設定為1。

tf.ones(shape, dtype=tf.float32, name=None)

建立一個填充了標量值的張量。此操作建立一個張量的形狀dims並填充它value。

tf.fill(dims, value, name=None)

建立一個常數張量。

tf.constant(value, dtype=None, shape=None, name='Const')

用常數張量作為例子

t1 = tf.constant([1, 2, 3, 4, 5, 6, 7])

t2 = tf.constant(-1.0, shape=[2, 3])

print(t1,t2)

我們可以看到在沒有執行的時候,輸出值為:

(<tf.Tensor 'Const:0' shape=(7,) dtype=int32>, <tf.Tensor 'Const_1:0' shape=(2, 3) dtype=float32>)

一個張量包含了一下幾個資訊

  • 一個名字,它用於鍵值對的儲存,用於後續的檢索:Const: 0
  • 一個形狀描述, 描述資料的每一維度的元素個數:(2,3)
  • 資料型別,比如int32,float32

   建立隨機張量

       一般我們經常使用的隨機數函式 Math.random() 產生的是服從均勻分佈的隨機數,能夠模擬等概率出現的情況,例如 扔一個骰子,1到6點的概率應該相等,但現實生活中更多的隨機現象是符合正態分佈的,例如20歲成年人的體重分佈等。

       假如我們在製作一個遊戲,要隨機設定許許多多 NPC 的身高,如果還用Math.random(),生成從140 到 220 之間的數字,就會發現每個身高段的人數是一樣多的,這是比較無趣的,這樣的世界也與我們習慣不同,現實應該是特別高和特別矮的都很少,處於中間的人數最多,這就要求隨機函式符合正態分佈。

從截斷的正態分佈中輸出隨機值,和 tf.random_normal() 一樣,但是所有數字都不超過兩個標準差,若超過兩個標準差則重新賦值。

tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)

從正態分佈中輸出隨機值,由隨機正態分佈的數字組成的矩陣

tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)

 例如:

# 正態分佈的 4X4X4 三維矩陣,平均值 0, 標準差 1
normal = tf.truncated_normal([4, 4, 4], mean=0.0, stddev=1.0)

a = tf.Variable(tf.random_normal([2,2],seed=1))
b = tf.Variable(tf.truncated_normal([2,2],seed=2))
init = tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)
    print(sess.run(a))
    print(sess.run(b))

輸出:
[[-0.81131822  1.48459876]
 [ 0.06532937 -2.44270396]]
[[-0.85811085 -0.19662298]
 [ 0.13895047 -1.22127688]]

從均勻分佈輸出隨機值。生成的值遵循該範圍內的均勻分佈 [minval, maxval)。下限minval包含在範圍內,而maxval排除上限。

tf.random_uniform(shape, minval=0.0, maxval=1.0, dtype=tf.float32, seed=None, name=None)

 例如:

a = tf.random_uniform([2,3],1,10)

with tf.Session() as sess:
  print(sess.run(a))

 沿其第一維度隨機打亂:

tf.random_shuffle(value, seed=None, name=None)

設定圖級隨機種子:

tf.set_random_seed(seed)

 要為跨會話生成一個可操作的序列,請為op設定種子:

a = tf.random_uniform([1], seed=1)
b = tf.random_normal([1])


print ("Session 1")
with tf.Session() as sess1:
  print sess1.run(a)
  print sess1.run(a)
  print sess1.run(b)
  print sess1.run(b)

print ("Session 2")
with tf.Session() as sess2:
  print sess2.run(a)
  print sess2.run(a)  
  print sess2.run(b)
  print sess2.run(b)

2、張量變換

TensorFlow提供了幾種操作,您可以使用它們在圖形中改變張量資料型別。

     改變型別

提供瞭如下一些改變張量中數值型別的函式:

  • tf.string_to_number(string_tensor, out_type=None, name=None)
  • tf.to_double(x, name='ToDouble')
  • tf.to_float(x, name='ToFloat')
  • tf.to_bfloat16(x, name='ToBFloat16')
  • tf.to_int32(x, name='ToInt32')
  • tf.to_int64(x, name='ToInt64')
  • tf.cast(x, dtype, name=None)

我們用一個其中一個舉例子

將輸入Tensor中的每個字串轉換為指定的數字型別。注意,int32溢位導致錯誤,而浮點溢位導致舍入值

tf.string_to_number(string_tensor, out_type=None, name=None)
n1 = tf.constant(["1234","6789"])
n2 = tf.string_to_number(n1,out_type=tf.types.float32)

with tf.Session() as sess:

    result = sess.run(n2)
    print (result)

   改變形狀

可用於確定張量的形狀並更改張量的形狀

 

  • tf.shape(input, name=None)
  • tf.size(input, name=None)
  • tf.rank(input, name=None)
  • tf.reshape(tensor, shape, name=None)
  • tf.squeeze(input, squeeze_dims=None, name=None)
  • tf.expand_dims(input, dim, name=None)

靜態形狀與動態形狀

靜態形狀是指當你在建立一個張量或者由操作推匯出一個張量時,這個張量的維度是確定的。它是一個元祖或者列表。TensorFlow將盡最大努力去猜測不同張量的形狀(在不同操作之間),但是它不會總是能夠做到這一點。特別是如果您開始用未知維度定義的佔位符執行操作。tf.Tensor.get_shape方法讀取靜態形狀。

t = tf.placeholder(tf.float32,[None,2])
print(t.get_shape())

動態形狀 當你在執行你的圖時,動態形狀才是真正用到的。這種形狀是一種描述原始張量在執行過程中的一種張量。如果你定義了一個沒有標明具體維度的佔位符,即用None表示維度,那麼當你將值輸入到佔位符時,這些無維度就是一個具體的值,並且任何一個依賴這個佔位符的變數,都將使用這個值。tf.shape來描述動態形狀: 

t = tf.placeholder(tf.float32,[None,2])
print(tf.shape(t))

 

tf.squeeze()函式的作用是將input中維度是1的那一維去掉。但是如果你不想把維度是1的全部去掉,那麼你可以使用squeeze_dims引數,來指定需要去掉的位置。
tf.squeeze(input, squeeze_dims=None, name=None)

 例如:

 

import tensorflow as tf

sess = tf.Session()
data = tf.constant([[1, 2, 1], [3, 1, 1]])
print (sess.run(tf.shape(data)))
d_1 = tf.expand_dims(data, 0)
d_1 = tf.expand_dims(d_1, 2)
d_1 = tf.expand_dims(d_1, -1)
d_1 = tf.expand_dims(d_1, -1)
print (sess.run(tf.shape(d_1)))
d_2 = d_1
print (sess.run(tf.shape(tf.squeeze(d_1))))
print (sess.run(tf.shape(tf.squeeze(d_2, [2, 4]))))

 

tf.expand_dims()函式作用與squeeze相反,新增一個指定維度
tf.expand_dims(input, dim, name=None)

 切片與拓展

TensorFlow提供了幾個操作來切片或提取張量的部分,或者將多個張量加在一起

 張量複製與組合

  • tf.slice(input_, begin, size, name=None)
  • tf.split(split_dim, num_split, value, name='split')
  • tf.tile(input, multiples, name=None)
  • tf.pad(input, paddings, name=None)
  • tf.concat(concat_dim, values, name='concat')
  • tf.pack(values, name='pack')
  • tf.unpack(value, num=None, name='unpack')
  • tf.reverse_sequence(input, seq_lengths, seq_dim, name=None)
  • tf.reverse(tensor, dims, name=None)
  • tf.transpose(a, perm=None, name='transpose')
  • tf.gather(params, indices, name=None)
  • tf.dynamic_partition(data, partitions, num_partitions, name=None)
  • tf.dynamic_stitch(indices, data, name=None)
  • tf.identity(input, name=None)
  • tf.tuple(tensors, name=None, control_inputs=None)
  • tf.group(inputs, *kwargs)
  • tf.no_op(name=None)
  • tf.count_up_to(ref, limit, name=None)

張量的邏輯運算

  • tf.logical_and(x, y, name=None)
  • tf.logical_not(x, name=None)
  • tf.logical_or(x, y, name=None)
  • tf.logical_xor(x, y, name='LogicalXor')

張量的比較運算

  • tf.equal(x, y, name=None)
  • tf.not_equal(x, y, name=None)
  • tf.less(x, y, name=None)
  • tf.less_equal(x, y, name=None)
  • tf.greater(x, y, name=None)
  • tf.greater_equal(x, y, name=None)
  • tf.select(condition, t, e, name=None)
  • tf.where(input, name=None)