tensorflow學習筆記(第一天)-MNIST機器學習入門
阿新 • • 發佈:2018-11-19
MNIST機器學習入門
這個是關於tensorflow的中文文件:
http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials/mnist_beginners.html
MNIST是一個入門級的計算機視覺資料集,這個就相當於程式語言中的"hello world",是入門級的。
一、首先是資料級:
MNIST資料集 MNIST資料集的官網是http://yann.lecun.com/exdb/mnist/
自動下載的python程式碼為:input_data.py
"""Functions for downloading and reading MNIST data."""
from __future__ import absolute_import
from __future__ import division
from __future__ import print_function
# pylint: disable=unused-import
import gzip
import os
import tempfile import numpy
from six.moves import urllib
from six.moves import xrange # pylint: disable=redefined-builtin
import tensorflow as tf
from tensorflow.contrib.learn.python.learn.datasets.mnist import read_data_sets 二、官方文件上給出的例子, 梯度下降演算法(gradient descent algorithm),這個跑下來的正確率為91%,看文件說使用別的演算法最高可以達到97%的正確率,暫時沒有試驗。
這個是方法對比的網址:http://rodrigob.github.io/are_we_there_yet/build/classification_datasets_results.html
下面給出程式碼:
import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) import tensorflow as tf
#x不是一個特定的值,而是一個佔位符placeholder,
#我們在TensorFlow執行計算時輸入這個值。
#我們希望能夠輸入任意數量的MNIST影象,每一張圖展平成784維的向量。
#我們用2維的浮點數張量來表示這些圖,這個張量的形狀是[None,784 ]。(這裡的None表示此張量的第一個維度可以是任何長度的。)
x=tf.placeholder(tf.float32,[None,784])
#Variable 。 一個Variable代表一個可修改的張量,存在在TensorFlow的用於描述互動性操作的圖中。
#它們可以用於計算輸入值,也可以在計算中被修改。
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
#tf.matmul(X,W)表示x乘以W,
y = tf.nn.softmax(tf.matmul(x,W) + b)
y_ = tf.placeholder("float", [None,10])
#交叉熵是用來衡量我們的預測用於描述真相的低效性。
cross_entropy = -tf.reduce_sum(y_*tf.log(y))
#梯度下降演算法(gradient descent algorithm)以0.01的學習速率最小化交叉熵
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) #初始化我們建立的變數:
init = tf.initialize_all_variables() sess = tf.Session()
sess.run(init)
#模型迴圈訓練1000次!
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
#tf.argmax 是一個非常有用的函式,它能給出某個tensor物件在某一維上的其資料最大值所在的索引值。
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
#為了確定正確預測項的比例,我們可以把布林值轉換成浮點數,然後取平均值。
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) print( sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels})) 跑出的結果為:
from __future__ import absolute_import
from __future__ import division
from __future__ import print_function
import gzip
import os
import tempfile import numpy
from six.moves import urllib
from six.moves import xrange # pylint: disable=redefined-builtin
import tensorflow as tf
from tensorflow.contrib.learn.python.learn.datasets.mnist import read_data_sets 二、官方文件上給出的例子, 梯度下降演算法(gradient descent algorithm),這個跑下來的正確率為91%,看文件說使用別的演算法最高可以達到97%的正確率,暫時沒有試驗。
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) import tensorflow as tf
#x不是一個特定的值,而是一個佔位符placeholder,
#我們在TensorFlow執行計算時輸入這個值。
#我們希望能夠輸入任意數量的MNIST影象,每一張圖展平成784維的向量。
#我們用2維的浮點數張量來表示這些圖,這個張量的形狀是[None,784 ]。(這裡的None表示此張量的第一個維度可以是任何長度的。)
x=tf.placeholder(tf.float32,[None,784])
#Variable 。 一個Variable代表一個可修改的張量,存在在TensorFlow的用於描述互動性操作的圖中。
#它們可以用於計算輸入值,也可以在計算中被修改。
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
#tf.matmul(X,W)表示x乘以W,
y = tf.nn.softmax(tf.matmul(x,W) + b)
#交叉熵是用來衡量我們的預測用於描述真相的低效性。
cross_entropy = -tf.reduce_sum(y_*tf.log(y))
#梯度下降演算法(gradient descent algorithm)以0.01的學習速率最小化交叉熵
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) #初始化我們建立的變數:
init = tf.initialize_all_variables() sess = tf.Session()
sess.run(init)
#模型迴圈訓練1000次!
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
#tf.argmax 是一個非常有用的函式,它能給出某個tensor物件在某一維上的其資料最大值所在的索引值。
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
#為了確定正確預測項的比例,我們可以把布林值轉換成浮點數,然後取平均值。
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) print( sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels})) 跑出的結果為: