1. 程式人生 > >Keras入門實戰(1):MNIST手寫數字分類

Keras入門實戰(1):MNIST手寫數字分類

前面的部落格中已經介紹瞭如何在Ubuntu下安裝Keras深度學習框架。

現在我們使用 Keras 庫來學習手寫數字分類。

我們這裡要解決的問題是:將手寫數字的灰度影象(28 畫素×28 畫素)劃分到 10 個類別 中(0~9)。我們將使用 MNIST 資料集,它是機器學習領域的一個經典資料集,其歷史幾乎和這 個領域一樣長,而且已被人們深入研究。這個資料集包含 60 000 張訓練影象和 10 000 張測試圖 像,由美國國家標準與技術研究院(National Institute of Standards and Technology,即 MNIST 中 的 NIST)在 20 世紀 80 年代收集得到。你可以將“解決”MNIST 問題

看作深度學習的“Hello World”。下圖為MNIST影象數字樣本:

1)首先我們載入Keras中的資料集

Keras已經包含了很多資料集,我們本例子中的資料集也包含在其中:

[1]

from keras.datasets import mnist

(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
這裡要多下載幾次才可能下載成功,不需要翻牆。

我們來看一下訓練集資料:

[2]

train_images.shape
(60000, 28, 28)

這裡顯示的是我們有60000個訓練樣本,其中每個樣本時28X28畫素的影象。

[3]

train_labels
array([5, 0, 4, ..., 5, 6, 8], dtype=uint8)

這是訓練集的標籤。

接下來的工作流程如下:

  • 首先,將訓練資料(train_images 和 train_labels)輸入神經網路;
  • 其次,網路學習將影象和標籤關聯在一起;
  • 最後,網路對 test_images 生成預測, 而我們將驗證這些預測與 test_labels 中的標籤是否匹配。

2)網路架構

[4]

from keras import models
from keras import layers

​network = models.Sequential()
network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))
network.add(layers.Dense(10, activation='softmax'))

神經網路的核心元件是層(layer),它是一種資料處理模組,你可以將它看成資料過濾器。 進去一些資料,出來的資料變得更加有用。具體來說,層從輸入資料中提取表示——我們期望這種表示有助於解決手頭的問題。大多數深度學習都是將簡單的層連結起來,從而實現漸進式 的資料蒸餾(data distillation)。深度學習模型就像是資料處理的篩子,包含一系列越來越精細的資料過濾器(即層)。

本例中的網路包含 2 個 Dense 層它們是密集連線(也叫全連線)的神經層第二層(也是最後一層)是一個 10 路 softmax 層,它將返回一個由 10 個概率值(總和為 1)組成的陣列。每個概率值表示當前數字影象屬於 10 個數字類別中某一個的概率。

3)選擇編譯(compile引數

其中用到的主要有以下三個引數:

  • 損失函式(loss function):網路如何衡量在訓練資料上的效能,即網路如何朝著正確的方向前進。

  • 優化器(optimizer):基於訓練資料和損失函式來更新網路的機制。

  • 在訓練和測試過程中需要監控的指標(metric):本例只關心精度,即正確分類的影象所佔的比例。

[5]

network.compile(optimizer='rmsprop',
                loss='categorical_crossentropy',
                metrics=['accuracy'])

4)準備影象資料

在開始訓練之前,我們將對資料進行預處理,將其變換為網路要求的形狀,並縮放到所有值都在 [0, 1] 區間。比如,之前訓練影象儲存在一個 uint8 型別的陣列中,其形狀為 (60000, 28, 28),取值區間為 [0, 255]。我們需要將其變換為一個 float32 陣列,其形狀為 (60000, 28 * 28),取值範圍為 0~1。

[6]

train_images = train_images.reshape((60000, 28 * 28))
train_images = train_images.astype('float32') / 255

​test_images = test_images.reshape((10000, 28 * 28))
test_images = test_images.astype('float32') / 255

我們還需要對標籤進行分類編碼。

[7]

from keras.utils import to_categorical

train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)

5)訓練模型

現在我們準備開始訓練網路,在 Keras 中這一步是通過呼叫網路的 fit 方法來完成 。

[8]

network.fit(train_images, train_labels, epochs=5, batch_size=128)

訓練過程中會顯示兩個數字:一個是網路在訓練資料上的損失(loss),另一個是網路在 訓練資料上的精度(acc)。 現在我們來檢查一下模型在測試集上的效能。

6)測試資料

[9]

test_loss, test_acc = network.evaluate(test_images, test_labels)
print('test_acc:', test_acc)

第一個例子到這裡就結束了。你剛剛看到了如何構建和訓練一個神經網路,用不到 20 行的 Python 程式碼對手寫數字進行分類。接下來我們需要學習張量(輸入網路的資料儲存物件)、張量運算(層的組成要素)和梯度下降(可以讓網路從訓練樣本中進行學習)。