1. 程式人生 > >機器學習Tensorflow基礎知識、張量與變數

機器學習Tensorflow基礎知識、張量與變數

TensorFlow是一個採用資料流圖(data flow graphs),用於數值計算的開源軟體庫。節點(Nodes)在圖中表示數學操作,圖中的線(edges)則表示在節點間相互聯絡的多維資料陣列,即張量(tensor)。它靈活的架構讓你可以在多種平臺上展開計算,例如臺式計算機中的一個或多個CPU(或GPU),伺服器,移動裝置等等。TensorFlow 最初由Google大腦小組(隸屬於Google機器智慧研究機構)的研究員和工程師們開發出來,用於機器學習和深度神經網路方面的研究,但這個系統的通用性使其也可廣泛用於其他計算領域。

一、Tensorflow的特徵

  • 高度的靈活性

TensorFlow 不是一個嚴格的“神經網路”庫。只要你可以將你的計算表示為一個數據流圖,你就可以使用Tensorflow。你來構建圖,描寫驅動計算的內部迴圈。我們提供了有用的工具來幫助你組裝“子圖”(常用於神經網路),當然使用者也可以自己在Tensorflow基礎上寫自己的“上層庫”。定義順手好用的新複合操作和寫一個python函式一樣容易,而且也不用擔心效能損耗。當然萬一你發現找不到想要的底層資料操作,你也可以自己寫一點c++程式碼來豐富底層的操作。

  • 真正的可移植性(Portability)

Tensorflow 在CPU和GPU上執行,比如說可以執行在臺式機、伺服器、手機移動裝置等等。想要在沒有特殊硬體的前提下,在你的筆記本上跑一下機器學習的新想法?Tensorflow可以辦到這點。準備將你的訓練模型在多個CPU上規模化運算,又不想修改程式碼?Tensorflow可以辦到這點。想要將你的訓練好的模型作為產品的一部分用到手機app裡?Tensorflow可以辦到這點。你改變主意了,想要將你的模型作為雲端服務執行在自己的伺服器上,或者執行在Docker容器裡?Tensorfow也能辦到

  • 多語言支援

Tensorflow 有一個合理的c++使用介面,也有一個易用的python使用介面來構建和執行你的graphs。你可以直接寫python/c++程式,也可以用互動式的ipython介面來用Tensorflow嘗試些想法,它可以幫你將筆記、程式碼、視覺化等有條理地歸置好。當然這僅僅是個起點——我們希望能鼓勵你創造自己最喜歡的語言介面,比如Go,Java,Lua,Javascript,或者是R

  • 效能最優化

比如說你又一個32個CPU核心、4個GPU顯示卡的工作站,想要將你工作站的計算潛能全發揮出來?由於Tensorflow 給予了執行緒、佇列、非同步操作等以最佳的支援,Tensorflow 讓你可以將你手邊硬體的計算潛能全部發揮出來。你可以自由地將Tensorflow圖中的計算元素分配到不同裝置上,Tensorflow可以幫你管理好這些不同副本。

二、下載以及安裝

選擇型別

必須選擇以下型別的TensorFlow之一來安裝:

  • TensorFlow僅支援CPU支​​持。如果您的系統沒有NVIDIA®GPU,則必須安裝此版本。請注意,此版本的TensorFlow通常會更容易安裝(通常在5或10分鐘內),因此即使您有NVIDIA GPU,我們建議先安裝此版本。
  • TensorFlow支援GPU。TensorFlow程式通常在GPU上比在CPU上執行得更快。因此,如果您的系統具有滿足以下所示先決條件的NVIDIA®GPU,並且您需要執行效能關鍵型應用程式,則應最終安裝此版本。

Ubuntu和Linux

如果要安裝GPU版本的,需要安裝一大堆NVIDIA軟體(不推薦):

  • CUDA®Toolkit 8.0。有關詳細資訊,請參閱 NVIDIA的文件。確保您將相關的Cuda路徑名附加到 LD_LIBRARY_PATH環境變數中,如NVIDIA文件中所述。與CUDA Toolkit 8.0相關的NVIDIA驅動程式。
  • cuDNN v5.1。有關詳細資訊,請參閱 NVIDIA的文件。確保CUDA_HOME按照NVIDIA文件中的描述建立環境變數。
  • 具有CUDA Compute Capability 3.0或更高版本的GPU卡。有關支援的GPU卡的列表,請參閱 NVIDIA文件。
  • libcupti-dev庫,即NVIDIA CUDA Profile Tools介面。此庫提供高階分析支援。要安裝此庫,請發出以下命令:

使用pip安裝,分別有2.7和3.6版本的

# 僅使用 CPU 的版本
$  pip install https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-1.0.1-cp27-none-linux_x86_64.whl

$  pip3 install https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-1.0.1-cp36-cp36m-linux_x86_64.whl

Mac

macX下也可以安裝2.7和3.4、3.5的CPU版本

# 2.7
$ pip install https://storage.googleapis.com/tensorflow/mac/cpu/tensorflow-1.0.1-py2-none-any.whl

# 3.4、3.5
$ pip3 install https://storage.googleapis.com/tensorflow/mac/cpu/tensorflow-1.0.1-py3-none-any.whl

三、初識tf

使用 TensorFlow, 你必須明白 TensorFlow:

Tensorflow有一下幾個簡單的步驟:

  • 使用 tensor 表示資料.
  • 使用圖 (graph) 來表示計算任務.
  • 在會話(session)中執行圖s

關於新版本

TensorFlow提供多種API。最低階API為您提供完整的程式設計控制。請注意,tf.contrib.learn這樣的高階API可以幫助您管理資料集,估計器,培訓和推理。一些高階TensorFlow API(方法名稱包含的那些)contrib仍在開發中。某些contrib方法可能會在隨後的TensorFlow版本中發生變化或變得過時。這個模組類似於scikit-learn中演算法模型。

在 TF 中發生的所有事,都是在會話(Session) 中進行的。所以,當你在 TF 中編寫一個加法時,其實你只是設計了一個加法操作,而不是實際新增任何東西。所有的這些設計都是會在圖(Graph)中產生,你會在圖中保留這些計算操作和張量,而不是具體的值。

TensorFlow程式通常被組織成一個構建階段和一個執行階段. 在構建階段, op的執行步驟被描述成一個圖. 在執行階段, 使用會話執行執行圖中的op。我們來構建一個簡單的計算圖。每個節點採用零個或多個張量作為輸入,併產生張量作為輸出。一種型別的節點是一個常數。像所有TensorFlow常數一樣,它不需要任何輸入,它輸出一個內部儲存的值。我們可以建立兩個浮點型常量node1 ,node2如下所示:

node1 = tf.constant(3.0, tf.float32)
node2 = tf.constant(4.0)
print(node1, node2)

最終的列印宣告生成

Tensor("Const:0", shape=(), dtype=float32) Tensor("Const_1:0", shape=(), dtype=float32)

他為什麼不是輸出結果,那是因為tensorflow中的圖形節點操作必須在會話中執行,稍後介紹

構建圖

構建圖的第一步, 是建立源 op (source op). 源 op 不需要任何輸入, 例如 常量 (Constant). 源 op 的輸出被傳遞給其它 op 做運算.TensorFlow Python 庫有一個預設圖 (default graph), op 構造器可以為其增加節點. 這個預設圖對 許多程式來說已經足夠用了.,後面我們會接觸多個圖的使用

預設Graph值始終註冊,並可通過呼叫訪問 tf.get_default_graph()

import tensorflow as tf

# 建立一個常量 op, 產生一個 1x2 矩陣. 這個 op 被作為一個節點,加到預設圖中.構造器的返回值代表該常量 op 的返回值.
matrix1 = tf.constant([[3., 3.]])

# 建立另外一個常量 op, 產生一個 2x1 矩陣.
matrix2 = tf.constant([[2.],[2.]])

# 建立一個矩陣乘法 matmul op , 把 'matrix1' 和 'matrix2' 作為輸入.返回值 'product' 代表矩陣乘法的結果.
product = tf.matmul(matrix1, matrix2)

print tf.get_default_graph(),matrix1.graph,matrix2.graph

重要注意事項:此類對於圖形構造不是執行緒安全的。所有操作都應從單個執行緒建立,或者必須提供外部同步。除非另有說明,所有方法都不是執行緒安全的

在會話中啟動圖

構造階段完成後,才能啟動圖。啟動圖的第一步是建立一個Session物件,如果無任何建立引數,會話構造器將啟動預設圖。

呼叫Session的run()方法來執行矩陣乘法op, 傳入product作為該方法的引數,會話負責傳遞op所需的全部輸入,op通常是併發執行的。

# 啟動預設圖.
sess = tf.Session()

# 函式呼叫 'run(product)' 觸發了圖中三個 op (兩個常量 op 和一個矩陣乘法 op) 的執行.返回值 'result' 是一個 numpy `ndarray` 物件.
result = sess.run(product)
print result

# 任務完成, 關閉會話.
sess.close()

Session物件在使用完後需要關閉以釋放資源,當然也可以使用上下文管理器來完成自動關閉動作。

op

計算圖中的每個節點可以有任意多個輸入和任意多個輸出,每個節點描述了一種運算操作(operation, op),節點可以算作運算操作的例項化(instance)。一種運算操作代表了一種型別的抽象運算,比如矩陣乘法、加法。tensorflow內建了很多種運算操作,如下表所示:

型別示例
標量運算Add、Sub、Mul、Div、Exp、Log、Greater、Less、Equal
向量運算Concat、Slice、Splot、Constant、Rank、Shape、Shuffle
矩陣運算Matmul、MatrixInverse、MatrixDeterminant
帶狀態的運算Variable、Assign、AssignAdd
神經網路元件SoftMax、Sigmoid、ReLU、Convolution2D、MaxPooling
儲存、恢復Save、Restore
佇列及同步運算Enqueue、Dequeue、MutexAcquire、MutexRelease
控制流Merge、Switch、Enter、Leave、NextIteration

feed

TensorFlow還提供了feed機制, 該機制可以臨時替代圖中的任意操作中的tensor可以對圖中任何操作提交補丁,直接插入一個 tensor。feed 使用一個 tensor 值臨時替換一個操作的輸入引數,從而替換原來的輸出結果.

feed 只在呼叫它的方法內有效, 方法結束,feed就會消失。最常見的用例是將某些特殊的操作指定為"feed"操作, 標記的方法是使用 tf.placeholder() 為這些操作建立佔位符.並且在Session.run方法中增加一個feed_dict引數

# 建立兩個個浮點數佔位符op
input1 = tf.placeholder(tf.types.float32)
input2 = tf.placeholder(tf.types.float32)

#增加一個乘法op
output = tf.mul(input1, input2)

with tf.Session() as sess:
  # 替換input1和input2的值
  print sess.run([output], feed_dict={input1:[7.], input2:[2.]})

如果沒有正確提供feed, placeholder() 操作將會產生錯誤

四、張量的階和資料型別

TensorFlow用張量這種資料結構來表示所有的資料.你可以把一個張量想象成一個n維的陣列或列表.一個張量有一個靜態型別和動態型別的維數.張量可以在圖中的節點之間流通.其實張量更代表的就是一種多位陣列。

在TensorFlow系統中,張量的維數來被描述為階.但是張量的階和矩陣的階並不是同一個概念.張量的階(有時是關於如順序或度數或者是n維)是張量維數的一個數量描述.比如,下面的張量(使用Python中list定義的)就是2階.

t = [[1, 2, 3], [4, 5, 6], [7, 8, 9]]

你可以認為一個二階張量就是我們平常所說的矩陣,一階張量可以認為是一個向量.

數學例項Python例子
0純量(只有大小)s = 483
1向量(大小和方向)v = [1.1, 2.2, 3.3]
2矩陣(資料表)m = [[1, 2, 3], [4, 5, 6], [7, 8, 9]]
33階張量(資料立體)t = [[[2], [4], [6]], [[8], [10], [12]], [[14], [16], [18]]]
nn階(自己想想看)....

資料型別

Tensors有一個數據型別屬性.你可以為一個張量指定下列資料型別中的任意一個型別:

資料型別Python 型別描述
DT_FLOATtf.float3232 位浮點數.
DT_DOUBLEtf.float6464 位浮點數.
DT_INT64tf.int6464 位有符號整型.
DT_INT32tf.int3232 位有符號整型.
DT_INT16tf.int1616 位有符號整型.
DT_INT8tf.int88 位有符號整型.
DT_UINT8tf.uint88 位無符號整型.
DT_STRINGtf.string可變長度的位元組陣列.每一個張量元素都是一個位元組陣列.
DT_BOOLtf.bool布林型.
DT_COMPLEX64tf.complex64由兩個32位浮點陣列成的複數:實數和虛數.
DT_QINT32tf.qint32用於量化Ops的32位有符號整型.
DT_QINT8tf.qint8用於量化Ops的8位有符號整型.
DT_QUINT8tf.quint8用於量化Ops的8位無符號整型.

五、張量操作

在tensorflow中,有很多操作張量的函式,有生成張量、建立隨機張量、張量型別與形狀變換和張量的切片與運算

生成張量

固定值張量

tf.zeros(shape, dtype=tf.float32, name=None)

建立所有元素設定為零的張量。此操作返回一個dtype具有形狀shape和所有元素設定為零的型別的張量。

tf.zeros_like(tensor, dtype=None, name=None)

給tensor定單張量(),此操作返回tensor與所有元素設定為零相同的型別和形狀的張量。

tf.ones(shape, dtype=tf.float32, name=None)

建立一個所有元素設定為1的張量。此操作返回一個型別的張量,dtype形狀shape和所有元素設定為1。

tf.ones_like(tensor, dtype=None, name=None)

給tensor定單張量(),此操作返回tensor與所有元素設定為1 相同的型別和形狀的張量。

tf.fill(dims, value, name=None)

建立一個填充了標量值的張量。此操作建立一個張量的形狀dims並填充它value。

tf.constant(value, dtype=None, shape=None, name='Const')

建立一個常數張量。

用常數張量作為例子

t1 = tf.constant([1, 2, 3, 4, 5, 6, 7])

t2 = tf.constant(-1.0, shape=[2, 3])

print(t1,t2)

我們可以看到在沒有執行的時候,輸出值為:

(<tf.Tensor 'Const:0' shape=(7,) dtype=int32>, <tf.Tensor 'Const_1:0' shape=(2, 3) dtype=float32>)

一個張量包含了一下幾個資訊

  • 一個名字,它用於鍵值對的儲存,用於後續的檢索:Const: 0
  • 一個形狀描述, 描述資料的每一維度的元素個數:(2,3)
  • 資料型別,比如int32,float32

建立隨機張量

一般我們經常使用的隨機數函式 Math.random() 產生的是服從均勻分佈的隨機數,能夠模擬等概率出現的情況,例如 扔一個骰子,1到6點的概率應該相等,但現實生活中更多的隨機現象是符合正態分佈的,例如20歲成年人的體重分佈等。

假如我們在製作一個遊戲,要隨機設定許許多多 NPC 的身高,如果還用Math.random(),生成從140 到 220 之間的數字,就會發現每個身高段的人數是一樣多的,這是比較無趣的,這樣的世界也與我們習慣不同,現實應該是特別高和特別矮的都很少,處於中間的人數最多,這就要求隨機函式符合正態分佈。

tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)

從截斷的正態分佈中輸出隨機值,和 tf.random_normal() 一樣,但是所有數字都不超過兩個標準差

tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)

從正態分佈中輸出隨機值,由隨機正態分佈的數字組成的矩陣


# 正態分佈的 4X4X4 三維矩陣,平均值 0, 標準差 1
normal = tf.truncated_normal([4, 4, 4], mean=0.0, stddev=1.0)

a = tf.Variable(tf.random_normal([2,2],seed=1))
b = tf.Variable(tf.truncated_normal([2,2],seed=2))
init = tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)
    print(sess.run(a))
    print(sess.run(b))

輸出:
[[-0.81131822  1.48459876]
 [ 0.06532937 -2.44270396]]
[[-0.85811085 -0.19662298]
 [ 0.13895047 -1.22127688]]

tf.random_uniform(shape, minval=0.0, maxval=1.0, dtype=tf.float32, seed=None, name=None)

從均勻分佈輸出隨機值。生成的值遵循該範圍內的均勻分佈 [minval, maxval)。下限minval包含在範圍內,而maxval排除上限。

a = tf.random_uniform([2,3],1,10)

with tf.Session() as sess:
  print(sess.run(a))

tf.random_shuffle(value, seed=None, name=None)

沿其第一維度隨機打亂

tf.set_random_seed(seed)

設定圖級隨機種子

要跨會話生成不同的序列,既不設定圖級別也不設定op級別的種子:

a = tf.random_uniform([1])
b = tf.random_normal([1])

print "Session 1"
with tf.Session() as sess1:
  print sess1.run(a)  
  print sess1.run(a)  
  print sess1.run(b)
  print sess1.run(b)  

print "Session 2"
with tf.Session() as sess2:
  print sess2.run(a)
  print sess2.run(a)
  print sess2.run(b)
  print sess2.run(b)

要為跨會話生成一個可操作的序列,請為op設定種子:

a = tf.random_uniform([1], seed=1)
b = tf.random_normal([1])


print "Session 1"
with tf.Session() as sess1:
  print sess1.run(a)
  print sess1.run(a)
  print sess1.run(b)
  print sess1.run(b)

print "Session 2"
with tf.Session() as sess2:
  print sess2.run(a)
  print sess2.run(a)  
  print sess2.run(b)
  print sess2.run(b)

為了使所有op產生的隨機序列在會話之間是可重複的,設定一個圖級別的種子:

tf.set_random_seed(1234)
a = tf.random_uniform([1])
b = tf.random_normal([1])


print "Session 1"
with tf.Session() as sess1:
  print sess1.run(a)
  print sess1.run(a)
  print sess1.run(b)
  print sess1.run(b)

print "Session 2"
with tf.Session() as sess2:
  print sess2.run(a)
  print sess2.run(a)
  print sess2.run(b)
  print sess2.run(b)

我們可以看到結果

張量變換

TensorFlow提供了幾種操作,您可以使用它們在圖形中改變張量資料型別。

改變型別

提供瞭如下一些改變張量中數值型別的函式

  • tf.string_to_number(string_tensor, out_type=None, name=None)
  • tf.to_double(x, name='ToDouble')
  • tf.to_float(x, name='ToFloat')
  • tf.to_bfloat16(x, name='ToBFloat16')
  • tf.to_int32(x, name='ToInt32')
  • tf.to_int64(x, name='ToInt64')
  • tf.cast(x, dtype, name=None)

我們用一個其中一個舉例子

tf.string_to_number(string_tensor, out_type=None, name=None)

將輸入Tensor中的每個字串轉換為指定的數字型別。注意,int32溢位導致錯誤,而浮點溢位導致舍入值

n1 = tf.constant(["1234","6789"])
n2 = tf.string_to_number(n1,out_type=tf.types.float32)

sess = tf.Session()

result = sess.run(n2)
print result

sess.close()

形狀和變換

可用於確定張量的形狀並更改張量的形狀

  • tf.shape(input, name=None)
  • tf.size(input, name=None)
  • tf.rank(input, name=None)
  • tf.reshape(tensor, shape, name=None)
  • tf.squeeze(input, squeeze_dims=None, name=None)
  • tf.expand_dims(input, dim, name=None)

tf.shape(input, name=None)

返回張量的形狀。

t = tf.constant([[[1, 1, 1], [2, 2, 2]], [[3, 3, 3], [4, 4, 4]]])
shape(t) -> [2, 2, 3]

靜態形狀與動態形狀

靜態維度 是指當你在建立一個張量或者由操作推匯出一個張量時,這個張量的維度是確定的。它是一個元祖或者列表。TensorFlow將盡最大努力去猜測不同張量的形狀(在不同操作之間),但是它不會總是能夠做到這一點。特別是如果您開始用未知維度定義的佔位符執行操作。tf.Tensor.get_shape方法讀取靜態形狀

t = tf.placeholder(tf.float32,[None,2])
print(t.get_shape())

結果

動態形狀 當你在執行你的圖時,動態形狀才是真正用到的。這種形狀是一種描述原始張量在執行過程中的一種張量。如果你定義了一個沒有標明具體維度的佔位符,即用None表示維度,那麼當你將值輸入到佔位符時,這些無維度就是一個具體的值,並且任何一個依賴這個佔位符的變數,都將使用這個值。tf.shape來描述動態形狀

t = tf.placeholder(tf.float32,[None,2])
print(tf.shape(t))

tf.squeeze(input, squeeze_dims=None, name=None)

這個函式的作用是將input中維度是1的那一維去掉。但是如果你不想把維度是1的全部去掉,那麼你可以使用squeeze_dims引數,來指定需要去掉的位置。

import tensorflow as tf

sess = tf.Session()
data = tf.constant([[1, 2, 1], [3, 1, 1]])
print sess.run(tf.shape(data))
d_1 = tf.expand_dims(data, 0)
d_1 = tf.expand_dims(d_1, 2)
d_1 = tf.expand_dims(d_1, -1)
d_1 = tf.expand_dims(d_1, -1)
print sess.run(tf.shape(d_1))
d_2 = d_1
print sess.run(tf.shape(tf.squeeze(d_1)))
print sess.run(tf.shape(tf.squeeze(d_2, [2, 4])))

tf.expand_dims(input, dim, name=None)

該函式作用與squeeze相反,新增一個指定維度

import tensorflow as tf
import numpy as np

sess = tf.Session()
data = tf.constant([[1, 2, 1], [3, 1, 1]])
print sess.run(tf.shape(data))
d_1 = tf.expand_dims(data, 0)
print sess.run(tf.shape(d_1))
d_1 = tf.expand_dims(d_1, 2)
print sess.run(tf.shape(d_1))
d_1 = tf.expand_dims(d_1, -1)
print sess.run(tf.shape(d_1))

切片與擴充套件

TensorFlow提供了幾個操作來切片或提取張量的部分,或者將多個張量加在一起

  • tf.slice(input_, begin, size, name=None)
  • tf.split(split_dim, num_split, value, name='split')
  • tf.tile(input, multiples, name=None)
  • tf.pad(input, paddings, name=None)
  • tf.concat(concat_dim, values, name='concat')
  • tf.pack(values, name='pack')
  • tf.unpack(value, num=None, name='unpack')
  • tf.reverse_sequence(input, seq_lengths, seq_dim, name=None)
  • tf.reverse(tensor, dims, name=None)
  • tf.transpose(a, perm=None, name='transpose')
  • tf.gather(params, indices, name=None)
  • tf.dynamic_partition(data, partitions, num_partitions, name=None)
  • tf.dynamic_stitch(indices, data, name=None)

其它一些張量運算(瞭解查閱)

張量複製與組合

  • tf.identity(input, name=None)
  • tf.tuple(tensors, name=None, control_inputs=None)
  • tf.group(inputs, *kwargs)
  • tf.no_op(name=None)
  • tf.count_up_to(ref, limit, name=None)

邏輯運算子

  • tf.logical_and(x, y, name=None)
  • tf.logical_not(x, name=None)
  • tf.logical_or(x, y, name=None)
  • tf.logical_xor(x, y, name='LogicalXor')

比較運算子

  • tf.equal(x, y, name=None)
  • tf.not_equal(x, y, name=None)
  • tf.less(x, y, name=None)
  • tf.less_equal(x, y, name=None)
  • tf.greater(x, y, name=None)
  • tf.greater_equal(x, y, name=None)
  • tf.select(condition, t, e, name=None)
  • tf.where(input, name=None)

判斷檢查

  • tf.is_finite(x, name=None)
  • tf.is_inf(x, name=None)
  • tf.is_nan(x, name=None)
  • tf.verify_tensor_all_finite(t, msg, name=None) 斷言張量不包含任何NaN或Inf
  • tf.check_numerics(tensor, message, name=None)
  • tf.add_check_numerics_ops()
  • tf.Assert(condition, data, summarize=None, name=None)
  • tf.Print(input_, data, message=None, first_n=None, summarize=None, name=None)

六、變數的的建立、初始化、儲存和載入

其實變數的作用在語言中相當,都有儲存一些臨時值的作用或者長久儲存。在Tensorflow中當訓練模型時,用變數來儲存和更新引數。變數包含張量(Tensor)存放於記憶體的快取區。建模時它們需要被明確地初始化,模型訓練後它們必須被儲存到磁碟。值可在之後模型訓練和分析是被載入。

Variable類

tf.Variable.init(initial_value, trainable=True, collections=None, validate_shape=True, name=None)

建立一個帶值的新變數initial_value

  • initial_value:A Tensor或Python物件可轉換為a Tensor.變數的初始值.必須具有指定的形狀,除非 validate_shape設定為False.

  • trainable:如果True,預設值也將該變數新增到圖形集合GraphKeys.TRAINABLE_VARIABLES,該集合用作Optimizer類要使用的變數的預設列表

  • collections:圖表集合鍵列表,新變數新增到這些集合中.預設為[GraphKeys.VARIABLES]

  • validate_shape:如果False允許使用未知形狀的值初始化變數,如果True,預設形狀initial_value必須提供.

  • name:變數的可選名稱,預設'Variable'並自動獲取

變數的建立

建立當一個變數時,將你一個張量作為初始值傳入建構函式Variable().TensorFlow提供了一系列操作符來初始化張量,值初始的英文常量或是隨機值。像任何一樣Tensor,建立的變數Variable()可以用作圖中其他操作的輸入。此外,為Tensor該類過載的所有運算子都被轉載到變數中,因此您也可以通過對變數進行算術來將節點新增到圖形中。

x = tf.Variable(5.0,name="x")
weights = tf.Variable(tf.random_normal([784, 200], stddev=0.35),name="weights")
biases = tf.Variable(tf.zeros([200]), name="biases")

呼叫tf.Variable()向圖中添加了幾個操作:

  • 一個variable op儲存變數值。
  • 初始化器op將變數設定為其初始值。這實際上是一個tf.assign操作。
  • 初始值的ops,例如 示例中biases變數的zeros op 也被新增到圖中。

變數的初始化

  • 變數的初始化必須在模型的其它操作執行之前先明確地完成。最簡單的方法就是新增一個給所有變數初始化的操作,並在使用模型之前首先執行那個操作。最常見的初始化模式是使用便利函式 initialize_all_variables()將Op新增到初始化所有變數的圖形中。
init_op = tf.global_variables_initializer()

with tf.Session() as sess:
  sess.run(init_op)
  • 還可以通過執行其初始化函式op來初始化變數,從儲存檔案還原變數,或者簡單地執行assign向變數分配值的Op。實際上,變數初始化器op只是一個assignOp,它將變數的初始值賦給變數本身。assign是一個方法,後面方法的時候會提到
with tf.Session() as sess:
    sess.run(w.initializer)

通過另一個變數賦值

你有時候會需要用另一個變數的初始化值給當前變數初始化,由於tf.global_variables_initializer()初始化所有變數,所以需要注意這個方法的使用。

就是將已初始化的變數的值賦值給另一個新變數!

weights = tf.Variable(tf.random_normal([784, 200], stddev=0.35),name="weights")

w2 = tf.Variable(weights.initialized_value(), name="w2")

w_twice = tf.Variable(weights.initialized_value() * 0.2, name="w_twice")

所有變數都會自動收集到建立它們的圖形中。預設情況下,建構函式將新變數新增到圖形集合GraphKeys.GLOBAL_VARIABLES。方便函式 global_variables()返回該集合的內容。

屬性

name

返回變數的名字

weights = tf.Variable(tf.random_normal([784, 200], stddev=0.35),name="weights")
print(weights.name)

op

返回op操作

weights = tf.Variable(tf.random_normal([784, 200], stddev=0.35))
print(weights.op)

方法

assign

為變數分配一個新值。

x = tf.Variable(5.0,name="x")
w.assign(w + 1.0)

eval

在會話中,計算並返回此變數的值。這不是一個圖形構造方法,它不會向圖形新增操作。方便列印結果

v = tf.Variable([1, 2])
init = tf.global_variables_initializer()

with tf.Session() as sess:
    sess.run(init)

    # 指定會話
    print(v.eval(sess))
    # 使用預設會話
    print(v.eval())

變數的靜態形狀與動態形狀

TensorFlow中,張量具有靜態(推測)形狀和動態(真實)形狀

  • 靜態形狀:

建立一個張量或者由操作推匯出一個張量時,初始狀態的形狀

  • tf.Tensor.get_shape:獲取靜態形狀
  • tf.Tensor.set_shape():更新Tensor物件的靜態形狀,通常用於在不能直接推斷的情況下
  • 動態形狀:

一種描述原始張量在執行過程中的一種形狀

  • tf.shape(tf.Tensor):如果在執行的時候想知道None到底是多少,只能通過tf.shape(tensor)[0]這種方式來獲得
  • tf.reshape:建立一個具有不同動態形狀的新張量

要點

1、轉換靜態形狀的時候,1-D到1-D,2-D到2-D,不能跨階數改變形狀

2、 對於已經固定或者設定靜態形狀的張量/變數,不能再次設定靜態形狀

3、tf.reshape()動態建立新張量時,元素個數不能不匹配

4、執行時候,動態獲取張量的形狀值,只能通過tf.shape(tensor)[]

管理圖中收集的變數

tf.global_variables()

返回圖中收集的所有變數

weights = tf.Variable(tf.random_normal([784, 200], stddev=0.35))

print(tf.global_variables())