1. 程式人生 > >tensorflow筆記-簡單模型訓練,儲存與提取

tensorflow筆記-簡單模型訓練,儲存與提取

訓練模型和儲存模型程式碼

import tensorflow as tf
import numpy as np

x_data = np.random.rand(100)
y_data = x_data*2+1

x = tf.placeholder(tf.float32)
y = tf.placeholder(tf.float32)

w = tf.Variable(0.0)
b = tf.Variable(0.0)
prediction = w*x+b

loss = tf.reduce_mean(tf.square(y-prediction))
train = tf.train.GradientDescentOptimizer
(0.2).minimize(loss) init = tf.global_variables_initializer() with tf.Session() as sess: sess.run(init) for step in range(200): sess.run(train,feed_dict={x:x_data,y:y_data}) if step%20==0: print(sess.run([w,b])) save_path = tf.train.Saver().save(sess,"./3/model.ckpt"
)

模型提取,測試

import tensorflow as tf
import numpy as np

x_data = np.random.rand(3)
y_data = 2*x_data+1

x = tf.placeholder(tf.float32)

w = tf.Variable(0.0)
b = tf.Variable(0.0)
y = x*w+b
init = tf.global_variables_initializer()

with tf.Session() as sess:
    #sess.run(init)
    saver = tf.train.Saver
() saver.restore(sess, "./3/model.ckpt") result = sess.run(y,feed_dict={x:x_data}) print(result,y_data)

模型提取,測試2

import tensorflow as tf
import numpy as np

x_data = np.random.rand(3)
y_data = 2*x_data+1
graph = tf.Graph()
with tf.Session(graph=graph) as sess:
    saver = tf.train.import_meta_graph('./3/model.ckpt.meta')
    saver.restore(sess, tf.train.latest_checkpoint("./3/"))
    input = graph.get_tensor_by_name("x:0")
    result = sess.run(tf.get_default_graph().get_tensor_by_name("add:0"),feed_dict={input:x_data})
    print(result,y_data)

相關推薦

tensorflow筆記-簡單模型訓練儲存提取

訓練模型和儲存模型程式碼 import tensorflow as tf import numpy as np x_data = np.random.rand(100) y_data = x_d

Keras:自建資料集影象分類的模型訓練儲存恢復

資料擴增 在資料集中的資料不多的情況下,可以使用圖片生成器ImageDataGenerator用來生成一個batch的影象資料,進行資料擴增. 示例: #!/usr/bin/python # coding:utf8 from keras.prepro

程世東老師TensorFlow實戰——個性化推薦程式碼學習筆記之②模型訓練測試

個性化推薦第二部分:模型訓練 程式碼來自於知乎:https://zhuanlan.zhihu.com/p/32078473 /程式碼地址https://github.com/chengstone/movie_recommender/blob/master/movie_recommender.

tensorflow筆記模型儲存訓練過程視覺化

儲存與讀取模型 在使用tf來訓練模型的時候,難免會出現中斷的情況。這時候自然就希望能夠將辛辛苦苦得到的中間引數保留下來,不然下次又要重新開始。好在tf官方提供了儲存和讀取模型的方法。 儲存模型的方法: # 之前是各種構建模型graph的操作(矩

TensorFlow實現人臉識別(4)--------對人臉樣本進行訓練儲存人臉識別模型

經過前面幾章的介紹,我們以及可以得到處理好的訓練樣本影象,在本節中將對這些影象進行訓練。主要利用到的是keras。 一、構建Dataset類 1.1 init 完成初始化工作 def __init__(self,path_name):

如何儲存Tensorflow中的Tensor引數儲存訓練中的中間引數儲存卷積層的資料

在自己構建的卷積神經時,我想把卷積層的資料提取出來,但是這些資料是Tensor型別的 網上幾乎找不到怎麼儲存的例子,然後被我發下了一下解決辦法  https://stackoverflow.com/questions/41587689/how-to-save-a-tensor-in-checkp

tensorflow模型資料的儲存讀取

使用tensorflow過程中,訓練結束後我們需要用到模型檔案。有時候,我們可能也需要用到別人訓練好的模型,並在這個基礎上再次訓練。這時候我們需要掌握如何操作這些模型資料。看完本文,相信你一定會有收穫! 1 Tensorflow模型檔案 我們在checkpoint_dir

16、TensorFLow 模型引數的儲存恢復

最簡單的儲存和恢復模型的方法是使用tf.train.Saver()物件,它給 graph 中的所有變數,或是定義在列表裡的變數,新增 save 和 restore ops。tf.train.Saver()物件提供了方法來執行這些 ops,並指定了檢查點檔案

TensorFlow(十三):模型的保存載入

定義 pla () feed variable ble cti 使用 pre 一:保存 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #載入數據集 m

《機器學習》筆記---2 模型的損失函式正則化

損失函式 度量模型一次預測的好壞 L( Y,f(X) ) 常見型別: 期望風險(風險函式) 度量平均意義下的模型預測的好壞,即損失函式的期望。(關於 聯行分佈的期望,未知,無法直接計算) 經驗風險 模型關於訓練

tensorflow 固定部分引數訓練訓練部分引數

def var_filter(var_list, last_layers = [0]): filter_keywords = ['fine_tune', 'layer_11', 'layer_10', 'layer_9', 'layer_8'] for var in va

tensorflow-Inception-v3模型訓練自己的資料程式碼示例

一、宣告   本程式碼非原創,源網址不詳,僅做學習參考。 二、程式碼   1 # -*- coding: utf-8 -*- 2 3 import glob # 返回一個包含有匹配檔案/目錄的陣列 4 import os.path 5 import rand

python學習筆記2(隨機數運算子表示式)

隨機數的常見操作 #隨機數 import random print(random.choice([1,3,5,7,9,aa])) #從1,3,5,7,9,aa中隨機取一個 print(random.choice(range(5))) #range(5)=[0,1,2,3,4] pr

【tensorflow1.0學習筆記006】save-restore儲存讀取

checkpoint檔案儲存了一個錄下多有的模型檔案列表,model.ckpt.meta儲存了TensorFlow計算圖的結構資訊,model.ckpt儲存每個變數的取值,此處檔名的寫入方式會因不同引數的設定而不同,但載入restore時的檔案路徑名是以checkpoint檔案中的“model_checkpo

android學習筆記(一)資料儲存訪問

Android為資料儲存提供了以下幾種方式: 1.檔案儲存方式 2.SharedPreference儲存方式 3.Content Provider 內容提供者 4.網路儲存方式 (一).檔案操作方式(其本質即為輸入輸出流的操作) 實現登入介面賬號、密碼的儲存功能。

寫給程式設計師的機器學習入門 (五) - 遞迴模型 RNNLSTM GRU

## 遞迴模型的應用場景 在前面的文章中我們看到的多層線性模型能處理的輸入數量是固定的,如果一個模型能接收兩個輸入那麼你就不能給它傳一個或者三個。而有時候我們需要根據數量不一定的輸入來預測輸出,例如文字就是數量不一定的輸入,“這部片非常好看” 有 7 個字,“這部片很無聊” 有 6 個字,如果我們想根據文字

C資料儲存提取

      在c語言中,不同型別的資料在記憶體中基本上沒有差異,那麼這些定義的型別的作用是啥呢?這些定義的型別是來改變編譯器對這些資料提取時的方式,下面讓我們來看一些經典例題!!   #include<stdio.h>

pytorch(四):神經網路的儲存提取

將神經網路訓練好之後,如何儲存它呢,儲存它之後有如何提取它呢? 如下圖所示,net1是訓練好的神經網路,有兩種方式儲存它:1.儲存整個訓練好的神經網路,2.儲存神經網路的最終引數 net2是根據第1種方式儲存的。net2是根據第2種方式儲存的 原始碼: # 引入模

tensorflow 訓練模型儲存 讀取已儲存模型進行測試

在實際中,通常需要將經過大量訓練的較好模型引數儲存起來,在實際應用以訓練好的模型進行預測。 TensorFlow中提供了模型儲存的模組 tensorflow.train.Saver() 1. 匯入tensorflow模組        

【學習筆記】Hands-on ML with sklearn&tensorflow [TF] [1]模型訓練儲存和載入

本篇內容:一個簡單的預測模型的建立、訓練、儲存和載入。 匯入必要模組: import numpy as np import pandas as pd import tensorflow as tf import ssl #解決資料來源網站簽名認證失敗的問題 from sklearn.data