1. 程式人生 > >Tensorflow 之線性迴歸

Tensorflow 之線性迴歸

import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt

#get 100 pointer meet y=0.1x+0.3
num_points=100
vectors_set=[]
for i in range(num_points):
    x1=np.random.normal(0.0,0.55)
    y1=x1*0.1+0.3+np.random.normal(0.0,0.03)
    vectors_set.append([x1,y1])
# print vectors_set
#生成一些樣本
x_data=[v[0
] for v in vectors_set]# v[0] 第一維 v[1]第二維 y_data=[v[1] for v in vectors_set] plt.scatter(x_data,y_data,c='b') plt.show()

這裡寫圖片描述

#生成1維的w矩陣,取值是[-1,1]之間的隨機數
W=tf.Variable(tf.random_uniform([1],-1.0,1.0),name='W')#在-1~1之間隨機取一個一維向量
# 生成1維的b矩陣,初始值為0
b=tf.Variable(tf.zeros([1]),name='bx')
#經過計算得出預估值y
y=W*x_data+b

#以預估值和實際值之間的均方誤差作為損失
loss=tf.reduce_mean(tf.square(y-y_data),name='loss')#最小二乘法 #構造優化器,採用梯度下降法來優化引數 optimizer=tf.train.GradientDescentOptimizer(0.5) #採用優化器進行優化,訓練的過程就是最小化這個誤差值 train1=optimizer.minimize(loss,name='train') #不可缺少的初始化操作 sess=tf.Session() init=tf.global_variables_initializer() sess.run(init) # 初始化的W和b print('W='
,sess.run(W),'b=',sess.run(b),' loss=',sess.run(loss)) print #執行20次訓練 for step in range(20): print step sess.run(train1) #輸出訓練好的W和b print('W=',sess.run(W),'b=',sess.run(b),'loss=',sess.run(loss))
('W=', array([0.21605301], dtype=float32), 'b=', array([0.], dtype=float32), ' loss=', 0.09204009)

0
('W=', array([0.18565592], dtype=float32), 'b=', array([0.29582295], dtype=float32), 'loss=', 0.0027480875)
1
('W=', array([0.16101024], dtype=float32), 'b=', array([0.2961868], dtype=float32), 'loss=', 0.0017186044)
2
('W=', array([0.14389431], dtype=float32), 'b=', array([0.29648182], dtype=float32), 'loss=', 0.0012220428)
3
('W=', array([0.13200717], dtype=float32), 'b=', array([0.29668668], dtype=float32), 'loss=', 0.0009825302)
4
('W=', array([0.12375144], dtype=float32), 'b=', array([0.296829], dtype=float32), 'loss=', 0.0008670032)
5
('W=', array([0.11801776], dtype=float32), 'b=', array([0.29692778], dtype=float32), 'loss=', 0.00081127963)
6
('W=', array([0.11403567], dtype=float32), 'b=', array([0.2969964], dtype=float32), 'loss=', 0.0007844019)
7
('W=', array([0.11127008], dtype=float32), 'b=', array([0.2970441], dtype=float32), 'loss=', 0.00077143766)
8
('W=', array([0.10934936], dtype=float32), 'b=', array([0.29707718], dtype=float32), 'loss=', 0.0007651844)
9
('W=', array([0.1080154], dtype=float32), 'b=', array([0.2971002], dtype=float32), 'loss=', 0.0007621682)
10
('W=', array([0.10708895], dtype=float32), 'b=', array([0.29711616], dtype=float32), 'loss=', 0.00076071336)
11
('W=', array([0.10644552], dtype=float32), 'b=', array([0.29712725], dtype=float32), 'loss=', 0.0007600116)
12
('W=', array([0.10599866], dtype=float32), 'b=', array([0.29713494], dtype=float32), 'loss=', 0.0007596732)
13
('W=', array([0.1056883], dtype=float32), 'b=', array([0.2971403], dtype=float32), 'loss=', 0.00075950986)
14
('W=', array([0.10547276], dtype=float32), 'b=', array([0.297144], dtype=float32), 'loss=', 0.00075943116)
15
('W=', array([0.10532306], dtype=float32), 'b=', array([0.2971466], dtype=float32), 'loss=', 0.00075939303)
16
('W=', array([0.1052191], dtype=float32), 'b=', array([0.29714838], dtype=float32), 'loss=', 0.0007593748)
17
('W=', array([0.10514689], dtype=float32), 'b=', array([0.29714963], dtype=float32), 'loss=', 0.0007593659)
18
('W=', array([0.10509674], dtype=float32), 'b=', array([0.2971505], dtype=float32), 'loss=', 0.0007593617)
19
('W=', array([0.10506192], dtype=float32), 'b=', array([0.2971511], dtype=float32), 'loss=', 0.0007593596)

畫出擬合圖線

plt.scatter(x_data,y_data,c='y')
plt.plot(x_data,sess.run(W)*x_data+sess.run(b))
plt.show()

這裡寫圖片描述