1. 程式人生 > >儲存與呼叫keras訓練的模型

儲存與呼叫keras訓練的模型

https://blog.csdn.net/baimafujinji/article/details/42110831

http://keras-cn.readthedocs.io/en/latest/

1

儲存以及訓練好的模型

  1. from keras.models import load_model  
  2. model.save('fei_model.h5')  

2

載入已經儲存好的模型同樣非常簡單。你可以另外開一個新檔案,匯入必要的包和資料(當然無需重新定義和訓練模型),然後使用下面這樣的語句:

  1. from keras.models import load_model  
  2. my_model = load_model('/home/airobot/Desktop/fei_model.h5'
    )  
被載入的模型是否可以使用呢?我們用它來做一下predict,程式碼如下:
  1. pred = my_model.predict(X_test_0[:])  
  2. print('Label of testing sample', np.argmax(y_test_0))  
  3. print('Output of the softmax layer', pred[0])  
  4. print('Network prediction:', np.argmax([pred[0]]))  
如果你有讀之前的文章《》,可知下面的輸出表明,程式準確地預測了手寫數字為7。
('Label of testing sample', 7)
('Output of the softmax layer', array([  1.55717719e-23,   1.71202164e-13,   5.04616253e-14,
         7.39000111e-11,   3.02617696e-22,   3.59160995e-19,
         9.96468490e-34,   1.00000000e+00,   4.57078810e-19,
         2.00005355e-12], dtype=float32))
('Network prediction:', 7)


from keras.models import Sequential

model = Sequential()

將一些網路層通過.add()堆疊起來,就構成了一個模型:

from keras.layers import Dense, Activation

model.add(Dense(units=64, input_dim=100))
model.add(Activation("relu"))
model.add(Dense(units=10))
model.add(Activation("softmax"))

完成模型的搭建後,我們需要使用.compile()方法來編譯模型:

model.compile(loss='categorical_crossentropy'
, optimizer='sgd', metrics=['accuracy'])

相關推薦

儲存呼叫keras訓練模型

https://blog.csdn.net/baimafujinji/article/details/42110831http://keras-cn.readthedocs.io/en/latest/1儲存以及訓練好的模型from keras.models import lo

tensorflow model server 迴歸模型儲存呼叫方法

安裝tensorfow model server: 安裝依賴包, sudo apt-get update && sudo apt-get install -y \ build-essential \ curl \ l

KerasKeras訓練模型的C++呼叫嘗試

最近遇到一個專案中需要使用Keras進行訓練然後還要用C++去呼叫模型.但是Keras沒有C++介面,因此目前是將Keras模型轉換為TensorFlow模型然後再使用TensorFlow的C++介面進行呼叫. 為了快速驗證效果,這裡只使用原來圖片中的2個分類

skflow 儲存呼叫訓練好的模型

使用skflow 進行模型訓練,往往需要很多的時間,特別是資料量增大的時候。 這樣每次預測都重新訓練一次模型是不現實的。 而模型往往需要重複使用,因此將訓練好的模型儲存下來並隨時呼叫時很有必要的。 下面設訓練好的模型是   classifier   用.save屬性將 cl

我的一個配置redux(實現一次儲存呼叫方法)之旅

前言 : 今天呢,就配置一下redux,redux的重要性呢,就叭叭叭一大堆,什麼也沒有帶著配置一次來的重要,因為許多涉及到的屬性和方法,用法是活的,但格式是需要記憶的。 過程中不要嫌我嘮叨,有的地方為了便於理解和記憶,反而會繞一下,配置redux的確比較麻煩,用到我們平時不常用的方法,我們不熟悉他們,所以會

keras訓練好的模型儲存載入

keras中的採用Sequential模式建立DNN並持久化保持、重新載入 def DNN_base_v1(X_train, y_train): model = models.Sequential() model.add(layers.Dense(96,

Keras:自建資料集影象分類的模型訓練儲存恢復

資料擴增 在資料集中的資料不多的情況下,可以使用圖片生成器ImageDataGenerator用來生成一個batch的影象資料,進行資料擴增. 示例: #!/usr/bin/python # coding:utf8 from keras.prepro

tensorflow 訓練模型儲存 讀取已儲存模型進行測試

在實際中,通常需要將經過大量訓練的較好模型引數儲存起來,在實際應用以訓練好的模型進行預測。 TensorFlow中提供了模型儲存的模組 tensorflow.train.Saver() 1. 匯入tensorflow模組        

Keras儲存載入模型(JSON+HDF5)

在Keras中,有時候需要對模型進行序列化與反序列化。進行模型序列化時,會將模型結果與模型權重儲存在不同的檔案中,模型權重通常儲存在HDF5檔案中,模型的結構可以儲存在JSON或者YAML檔案中。後二者方法大同小異,這裡以JSON為例說明一下Keras模型的儲存與載入。 from sklearn

python sklearn svm模型儲存載入呼叫

對於機器學習的一些模型,跑完之後,如果下一次測試又需要重新跑一遍模型是一件很繁瑣的事,這時候我們就需要儲存模型,再載入呼叫。 樓主發現有這些儲存模型的方法,網上有很多錯誤的例子,所以給大家在整理一下。(python3) 1.利用pickle import pickle

keras呼叫自己訓練模型,並去掉全連線層

其實很簡單 from keras.models import load_model base_model = load_model('model_resenet.h5')#載入指定的模型 print(base_model.summary())#輸出網路的結構圖

模型儲存,載入呼叫

模型儲存 BP: model.save(save_dir) SVM: from sklearn.externals import joblib joblib.dump(clf, save_dir) 模型載入 BP: from keras.models im

keras訓練淺層卷積網路並儲存和載入模型

這裡我們使用keras定義簡單的神經網路全連線層訓練MNIST資料集和cifar10資料集: keras_mnist.py from sklearn.preprocessing import LabelBinarizer from sklearn.model_select

[ pytorch ] ——基本使用:(2) 訓練好的模型引數的儲存以及呼叫

1、儲存與呼叫 def modelfunc(nn.Module): # 之前定義好的模型 # 由於pytorch沒有像keras那樣有儲存模型結構的API,因此,每次load之前必須找到模型的結構。 model_object = modelfunc # 匯入模

如何將keras訓練好的模型轉換成tensorflow的.pb的檔案並在TensorFlow serving環境呼叫

首先keras訓練好的模型通過自帶的model.save()儲存下來是 .model (.h5) 格式的檔案 模型載入是通過 my_model = keras . models . load_model( filepath ) 要將該模型轉換為.pb 格式的TensorF

Keras 儲存載入網路模型

遇到問題: keras使用預訓練模型做訓練時遇到的如下程式碼: from keras.utils.data_utils import get_file WEIGHTS_PATH = 'https://github.com/fchollet/deep-lea

Keras框架訓練模型儲存及再載入

實驗資料MNIST 初次訓練模型並儲存 import numpy as np from keras.datasets import mnist from keras.utils import n

tensorflow筆記:模型儲存訓練過程視覺化

儲存與讀取模型 在使用tf來訓練模型的時候,難免會出現中斷的情況。這時候自然就希望能夠將辛辛苦苦得到的中間引數保留下來,不然下次又要重新開始。好在tf官方提供了儲存和讀取模型的方法。 儲存模型的方法: # 之前是各種構建模型graph的操作(矩

Keras框架訓練模型儲存及載入繼續訓練

實驗資料MNIST 初次訓練模型並儲存 import numpy as np from keras.datasets import mnist from keras.utils import np_utils from keras.models import Sequential from keras.l

機器學習-訓練模型儲存恢復(sklearn)

在做模型訓練的時候,尤其是在訓練集上做交叉驗證,通常想要將模型儲存下來,然後放到獨立的測試集上測試,下面介紹的是Python中訓練模型的儲存和再使用。 scikit-learn已經有了模型持久化的操作,匯入joblib即可 from sklearn.ex