1. 程式人生 > >keras執行例項(一):regression迴歸

keras執行例項(一):regression迴歸

小編在自學機器學習過程中,參考莫煩大佬的python教程進行了keras的例項執行,在此記錄一下,以免忘記。

keras在Linux的安裝很簡單,直接   pip install keras   一行命令就可以啦,結果如下:

因為呢我已經安裝過了,所以會提示already satisfied 。另外呢keras的bankend有theano和TensorFlow,可以隨意切換,其中TensorFlow只適用於Linux和mac版本,theano三個版本全部使用(包含Windows) 。

小編一直是使用TensorFlow的,如果想要切換為theano 可以去百度,網上教程很多,小編就略過了。

言歸正傳,這次是使用keras+tensorflow進行迴歸模型的例項,程式碼copy莫煩大佬的,具體如下:


#-*- coding: UTF-8 -*-
"""
To know more or get code samples, please visit my website:
https://morvanzhou.github.io/tutorials/
Or search: 莫煩Python
Thank you for supporting!
"""

# please note, all tutorial code are running under python3.5.
# If you use the version like python2.7, please modify the code accordingly



import numpy as np
np.random.seed(1337)  # for reproducibility
from keras.models import Sequential
from keras.layers import Dense
import matplotlib.pyplot as plt

# create some data   建立散點圖資料
X = np.linspace(-1, 1, 200)
np.random.shuffle(X)    # randomize the data
Y = 0.5 * X + 2 + np.random.normal(0, 0.05, (200, ))
# plot data
plt.scatter(X, Y)
plt.show()

X_train, Y_train = X[:160], Y[:160]     # first 160 data points
X_test, Y_test = X[160:], Y[160:]       # last 40 data points

# build a neural network from the 1st layer to the last layer
model = Sequential()

model.add(Dense(units=1, input_dim=1)) 

# choose loss function and optimizing method
model.compile(loss='mse', optimizer='sgd')

# training
print('Training -----------')
for step in range(301):
    cost = model.train_on_batch(X_train, Y_train)
    if step % 100 == 0:
        print('train cost: ', cost)

# test
print('\nTesting ------------')
cost = model.evaluate(X_test, Y_test, batch_size=40)
print('test cost:', cost)
W, b = model.layers[0].get_weights()
print('Weights=', W, '\nbiases=', b)

# plotting the prediction
Y_pred = model.predict(X_test)
plt.scatter(X_test, Y_test)
plt.plot(X_test, Y_pred)
plt.show()

實際執行效果如下:

首先彈出資料集結構,這是我們建立data的點集,然後plot顯示

這條直線就是我們用迴歸模型擬合出的,效果還不錯。

這是模型的相關資料,可以看到訓練的cost由4不斷減小為0.002,test的cost為0.003也非常小,對於模型的權重為0.49很接近0.5,bias為1.99和接近2,基本和 程式所給出的函式計算式的相關引數一致,雖然model只有一個全連線層(dense),但對於二分類效果是可以的。

參考文章: