深度學習框架tensorflow學習與應用3(非線性迴歸訓練示例)
在瞭解了迴歸演算法中的正向傳播和反向傳播之後, 我們可以用梯度下降法來進行一個非線性迴歸的示例.
此次示例中, 我們設定輸入樣本神經元只有一個, 中間神經元有10個, 輸出神經元1個.
神經圖.jpg
這裡用到了matplotlib.pyplot庫, 用來畫出我們的訓練樣本資料影象和我們訓練得到的迴歸影象.
在看下面程式碼的時候注意, 如果你對迴歸演算法的學習開始於吳恩達先生的深度學習課程, 那麼你要注意下面程式碼中的權重W與樣本資料X的順序與轉置問題(相乘順序與行列轉置正好相反, 得到的結果是一樣的)
結果:
相關推薦
深度學習框架tensorflow學習與應用3(非線性迴歸訓練示例)
在瞭解了迴歸演算法中的正向傳播和反向傳播之後, 我們可以用梯度下降法來進行一個非線性迴歸的示例. 此次示例中, 我們設定輸入樣本神經元只有一個, 中間神經元有10個, 輸出神經元1個. &
深度學習框架Tensorflow學習與應用(5到8)
五. 03-1 迴歸 # coding: utf-8 # In[2]: import tensorflow as tf import numpy as np import matplotlib.pyplot as plt # In[3]: #使用numpy生成200個隨機點 x_
深度學習框架Tensorflow學習與應用(八 儲存和載入模型,使用Google的影象識別網路inception-v3進行影象識別)
一 模型的儲存 [email protected]:~/tensorflow$ cat 8-1saver_save.py # coding: utf-8 # In[1]: import tensorflow as tf from tensorflow.examples.tutorials
深度學習框架tensorflow學習與應用10(MNSIT卷積神經網路實現)
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets('F:/PY/MNIST_data/',
深度學習框架tensorflow學習與應用9(tensorboard視覺化)
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data from tensorflow.contrib.tensorboard.plugins import projector # In
深度學習框架tensorflow學習與應用8(tensorboard網路結構)
#載入資料集 mnist = input_data.read_data_sets("MNIST_data",one_hot=True) #如果沒有就下載,然後以獨熱碼的形式載入,有的話就不下載 #每個批次的大小 batch_size =100 #計算一共有多少個批次 n_batch = mnis
深度學習框架tensorflow學習與應用7(改變模型和優化器提升準確率)
#訓練 train_step = tf.train.AdamOptimizer(lr).minimize(loss) 原來的程式碼: # coding: utf-8 # In[ ]: import tensorflow as tf from tensorflow.examples.tu
深度學習框架tensorflow學習與應用6(優化器SGD、ADAM、Adadelta、Momentum、RMSProp比較)
看到一個圖片,就是那個表情包,大家都知道: Adadelta 》 NAG 》 Momentum》 Remsprop 》Adagrad 》SGD 但是我覺得看情況而定,比如有http://blog.51cto.com/12568470/1898367常見優化演
深度學習框架tensorflow學習與應用6(防止過擬合dropout,keep_prob =tf.placeholder(tf.float32))
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data # In[3]: # 載入資料集 mnist = input_data.read_data_sets("MNIST_data",
深度學習框架tensorflow學習與應用5(softmax函式+交叉熵代價函式和二次代價函式的比較)
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data # In[3]: #載入資料集 mnist = input_data.read_data_sets("MNIST_data",o
深度學習框架tensorflow學習與應用4(MNIST資料集分類的簡單版本示例)
資料集 我們要訓練機器學習, 那麼就要用到訓練資料. 這次我們使用MNIST_data資料集 在程式中要匯入該資料集, 語句:mnist = input_data.read_data_sets("MNIST_data", one_hot=True)one_hot 意思是把資料集變成[
深度學習框架tensorflow學習與應用2(fetch and feed和訓練一元一次方程擬合示例 )
Fetch Fetch操作是指TensorFlow的session可以一次run多個op 語法: 將多個op放入陣列中然後傳給run方法 Feed Feed操作是指首先建立佔位符, 然後把佔位符放入op中. 在run op的時候, 再把要op的值傳進去,
深度學習框架TensorFlow學習與應用(三)——使用交叉熵作為代價函式
二次代價函式(quadratic cost): 其中,C表示代價函式,x表示樣本,y表示實際值,a表示輸出值,n表示樣本的總數。 例如: 假如我們使用梯度下降法(Gradient descent)來調整權值引數的大小,權值w和偏置b的梯
深度學習框架TensorFlow學習與應用(五)——TensorBoard結構與視覺化
一、TensorBoard網路結構 舉例: import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #載入資料集 mnist=input_dat
深度學習框架TensorFlow學習與應用(四)——擬合問題、優化器
一、擬合 1)迴歸問題: 過擬合儘量去通過每一個樣本點,誤差為零。假如有一個新的樣本點: 會發現過擬合的偏差會很大。 2)分類問題: 同樣的當得到新的樣本點後,過擬合的錯誤率可能會提高。 3)防止過擬合: 1.增加資料集 2.正則化方
深度學習框架Tensorflow學習與應用 第2課
2-1:非線性迴歸 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt #使用numpy生成200個隨機點,[:,np.newaxis]增加一個維度 x_data = n
深度學習框架Tensorflow學習--RNN實現識別數字
本文用到的公式基本來自Alex的論文,其中a表示彙集計算的值,b表示經過啟用函式計算的值,w是不同節點之間連線的引數(具體睡誰連誰看下標),帶下標k的是輸出層,帶下標h的是隱藏層相關的,除此之外你看到所有帶括號的的函式都是啟用函式, ϵ 和 δ&nb
深度學習框架Tensorflow學習--CNN實現識別數字
參考連結:https://blog.csdn.net/qq_30159351/article/details/52641644 本例子用到了minst資料庫,通過訓練CNN網路,實現手寫數字的預測。 首先先把資料集讀取到程式中: mnist = input_data
深度學習框架Tensorflow學習筆記(二)
交叉熵 權值和偏置值的調整與 無關,另外,梯度公式中的 表示輸出值與實 際值的誤差。所以當誤差越大時,梯度就越大,引數w和b的調整就越快,訓練的速度也就越快。 如果輸出神經元是線性的,那麼二次代價函式就是一種合適的選擇。如果輸出神經元是S型函式, 那麼比較適合用交叉熵代價函
深度學習框架Tensorflow學習筆記(一)
1.需要在會話中完成op 2.初始化操作 init = tf.global_variables_initializer() 3.fetch run多個op print(sess.run([mul,add])) 4.placeholder + feed_dict