1. 程式人生 > >TensorFlow 之快速上手詳解

TensorFlow 之快速上手詳解

TensorFlow 基本使用簡述

一、概念簡述

1、學習目標

  • 使用圖 (graph) 來表示計算任務.
  • 在被稱之為 會話 (Session) 的上下文 (context) 中執行圖.
  • 使用 tensor 表示資料.
  • 通過 變數 (Variable) 維護狀態.
  • 使用 feed 和 fetch 可以為任意的操作(arbitrary operation) 賦值或者從其中獲取資料.

2、TensorFlow 概述

  • TensorFlow 是一個程式設計系統, 使用圖來表示計算任務. 圖中的節點被稱之為 op (operation 的縮寫). 一個 op 獲得 0 個或多個 Tensor, 執行計算, 產生 0 個或多個 Tensor. 每個 Tensor 是一個型別化的多維陣列. 例如, 你可以將一小組影象集表示為一個四維浮點數陣列, 這四個維度分別是 [batch, height, width, channels] .

  • 一個 TensorFlow 圖描述了計算的過程. 為了進行計算, 圖必須在 會話 裡被啟動. 會話 將圖的 op 分發到諸如 CPU 或 GPU 之類的 裝置 上, 同時提供執行 op 的方法. 這些方法執行後, 將產生的 tensor 返回. 在 Python 語言中, 返回的 tensor 是 numpy ndarray 物件; 在 C 和 C++ 語言中, 返回的 tensor 是 tensorflow::Tensor 例項.

3、計算圖

  • TensorFlow 程式通常被組織成一個構建階段和一個執行階段. 在構建階段, op 的執行步驟 被描述成一個圖. 在執行階段, 使用會話執行執行圖中的 op.

  • 例如, 通常在構建階段建立一個圖來表示和訓練神經網路, 然後在執行階段反覆執行圖中的訓練 op.

  • TensorFlow 支援 C, C++, Python 程式語言. 目前, TensorFlow 的 Python 庫更加易用, 它提供了大量的輔助函式來簡化構建圖的工作, 這些函式尚未被 C 和 C++ 庫支援.

  • 三種語言的會話庫 (session libraries) 是一致的.

4、構建圖

  • 構建圖的第一步, 是建立源 op (source op). 源 op 不需要任何輸入, 例如 常量 (Constant). 源 op 的輸出被傳遞給其它 op 做運算.

  • Python 庫中, op 構造器的返回值代表被構造出的 op 的輸出, 這些返回值可以傳遞給其它 op 構造器作為輸入.

  • TensorFlow Python 庫有一個預設圖 (default graph), op 構造器可以為其增加節點. 這個預設圖對 許多程式來說已經足夠用了. 閱讀 Graph 類 文件 來了解如何管理多個圖.


    例子如下 :
import tensorflow as tf 
# 建立一個常量 op, 產生一個 1x2 矩陣. 這個 op 被作為一個節點
# 加到預設圖中
#
# 構造器的返回值代表該常量 op 的返回值.
matrix1 = tf.constant([[3., 3.]])

# 建立另外一個常量 op, 產生一個 2x1 矩陣.
matrix2 = tf.constant([[2.],[2.]])

# 建立一個矩陣乘法源 matmul op, 把 'matrix1' 和 'matrix2' 作為輸入.
# 返回值 'product' 代表矩陣乘法的結果.
product = tf.matmul(matrix1,matrix2)
  • 預設圖現在有三個節點, 兩個 constant( ) op, 和一個matmul( ) op. 為了真正進行矩陣相乘運算, 並得到矩陣乘法的結果, 你必須在會話(Session)裡啟動(run)這個圖。

5、在一個會話中啟動圖

  • 構造階段完成後, 才能啟動圖. 啟動圖的第一步是建立一個 Session 物件, 如果無任何建立引數, 會話構造器將啟動預設圖.

  • 欲瞭解完整的會話 API, 請閱讀TensorFlow 的 Session 類.
# 啟動預設圖
sess = tf.Session()

# 呼叫 sess 的 'run()' 方法來執行矩陣乘法 op, 傳入 'product' 作為該方法的引數. 
# 上面提到, 'product' 代表了矩陣乘法 op 的輸出, 傳入它是向方法表明, 我們希望取回
# 矩陣乘法 op 的輸出.
#
# 整個執行過程是自動化的, 會話負責傳遞 op 所需的全部輸入. op 通常是併發執行的.
# 
# 函式呼叫 'run(product)' 觸發了圖中三個 op (兩個常量 op 和一個矩陣乘法 op) 的執行.
#
# 返回值 'result' 是一個 numpy `ndarray` 物件.
result = sess.run(product)
print result
# ==> [[12.]] 

# 任務完成,關閉會話,注意,若 會話是在 with 語句中啟動的話,由於區域性變數自動銷燬,可省去這一步
sess.close()
[[12.]]
  • Session 物件在使用完後需要關閉以釋放資源. 除了顯式呼叫 close 外, 也可以使用 “with” 程式碼塊 來自動完成關閉動作.
with tf.Session() as sess:
    result = sess.run([product])
    print result
[array([[12.]], dtype=float32)]
  • 在實現上, TensorFlow 將圖形定義轉換成分散式執行的操作, 以充分利用可用的計算資源(如 CPU 或 GPU). 一般你不需要顯式指定使用 CPU 還是 GPU, TensorFlow 能自動檢測. 如果檢測到 GPU, TensorFlow 會盡可能地利用找到的第一個 GPU 來執行操作。

  • 如果機器上有超過一個可用的 GPU, 除第一個外的其它 GPU 預設是不參與計算的. 為了讓 TensorFlow 使用這些 GPU, 你必須將 op 明確指派給它們執行.

  • with…Device 語句用來指派特定的 CPU 或 GPU 執行操作:
with tf.Session() as sess:
    with tf.device("/gpu:1"):
        matrix1 = tf.constant([[3., 3.]])
        matrix2 = tf.constant([[2.],[2.]])
        product = tf.matmul(matrix1, matrix2)
        ...

裝置用字串進行標識. 目前支援的裝置包括:

  • “/cpu:0”: 機器的 CPU.
  • “/gpu:0”: 機器的第一個 GPU, 如果有的話.
  • “/gpu:1”: 機器的第二個 GPU, 以此類推.
  • 閱讀使用GPU章節, 瞭解 TensorFlow GPU 使用的更多資訊.

二、讀取資料相關

2.1 互動式使用

  • 文件中的 Python 示例使用一個會話 Session 來 啟動圖, 並呼叫 Session.run() 方法執行操作.

  • 為了便於使用諸如 IPython 或者 Jupyter 之類的 Python 互動環境, 可以使用 InteractiveSession 代替 Session 類, 使用 Tensor.eval() 和 Operation.run() 方法代替 Session.run(). 這樣可以避免使用一個變數來持有會話.
# 進入一個互動式 TensorFlow 會話
import tensorflow as tf 
sess = tf.InteractiveSession()

x = tf.Variable([1.0 ,2.0])
a = tf.constant([3.0, 3.0])

# 使用初始化器 initializer op 的 run() 方法初始化 ‘x'
x.initializer.run()

# 增加一個減法 sub op, 從 ‘x' 減去 ’a'. 執行減法 op, 輸出結果
sub = tf.subtract(x,a)
print sub.eval()
# ==> [-2, -1.]
[-2. -1.]

2.2 變數

  • Variables for more details. 變數維護圖執行過程中的狀態資訊. 下面的例子演示瞭如何使用變數實現一個簡單的計數器. 參見 TensorFlow變數 章節瞭解更多細節.
# 建立一個變數,初始化為標量 0.
state = tf.Variable(0,name='counter')

# 建立一個 op, 其作用是使 state 增加 1

one = tf.constant(1)
new_value = tf.add(state, one)
# 通過 tf.assign 函式將變數的 state 的值賦值為 new_value,並且返回一個 op 
update = tf.assign(state, new_value)

# 啟動圖後,變數必須先經過 ‘初始化’ (int) op 初始化
# 首先必須增加一個 ’初始化‘ op 到圖中。
init_op = tf.global_variables_initializer()

# 啟動圖,執行 op 
with tf.Session() as sess:
    # 執行 ’init' op 
    sess.run(init_op)
    # 列印 ‘state' 的初始值
    print sess.run(state)
    # 執行 op, 更新 ‘state', 並重新整理(重新) 列印 ’state' 的新值
    for _ in range(3):
        sess.run(update)
        print sess.run(state)
# 輸出:
# 雖然貌似一個簡單的需求,實現起來略繁瑣,但應用到大資料量的需求時,便很適用
0
1
2
3
  • 程式碼中 assign() 操作是圖所描繪的表示式的一部分, 正如 add() 操作一樣. 所以在呼叫 run() 執行表示式之前, 它並不會真正執行賦值操作.

  • 通常會將一個統計模型中的引數表示為一組變數. 例如, 你可以將一個神經網路的權重作為某個變數儲存在一個 tensor 中. 在訓練過程中, 通過重複執行訓練圖, 更新這個 tensor.

2.3 Fetch (取值)

  • 為了取回操作的輸出內容, 可以在使用 Session 物件的 run() 呼叫 執行圖時, 傳入一些 tensor, 這些 tensor 會幫助你取回結果. 在之前的例子裡, 我們只取回了單個節點 state, 但是你也可以取回多個 tensor:
input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0)
itermad = tf.add(input2,input3)
mul = tf.multiply(input1,itermad)

with tf. Session() as sess:
    # 通過傳入 一個 op 的 list【,,,】給 run 取得多個 tensor
    result = sess.run([mul,itermad])
    print result

    # 一般,我們需要獲取的多個 tensor 值,在 op 的一次執行中一起獲得
    # (而不是逐個去獲取 tensor)。
    # 輸出:
[21.0, 7.0]

2.4 Feed (喂資料)

  • 上述示例在計算圖中引入了 tensor, 以常量或變數的形式儲存. TensorFlow 還提供了 feed 機制, 該機制 可以臨時替代圖中的任意操作中的 tensor 可以對圖中任何操作提交補丁, 直接插入一個 tensor.

  • feed 使用一個 tensor 值臨時替換一個操作的輸出結果. 你可以提供 feed 資料作為 run() 呼叫的引數. feed 只在呼叫它的方法內有效, 方法結束, feed 就會消失. 最常見的用例是將某些特殊的操作指定為 “feed” 操作, 標記的方法是使用 tf.placeholder() 為這些操作建立佔位符.
input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32)
output = tf.multiply(input1,input2)

with tf.Session() as sess:
    print sess.run([output],feed_dict={input1: [7.], input2: [2.]})

# 輸出:
# for a larger-scale example of feeds. 
# 如果沒有正確提供 feed, placeholder() 操作將會產生錯誤.
[array([14.], dtype=float32)]