1. 程式人生 > >keras線性迴歸擬合直線

keras線性迴歸擬合直線

# -*- coding: utf-8 -*-
"""
Created on Sat Aug 26 18:25:28 2017
線性迴歸擬合直線
@author: Han
"""
from keras.models import Sequential
from keras.layers import Dense
import numpy as np
import matplotlib.pyplot as plt


# 建立一個等差數列
trX = np.linspace(-1 , 1 , 100)
trY = 3 * trX + np.random.randn(*trX.shape) * 0.33

# 繪製資料
plt.scatter(trX , trY) plt.show() # 分訓練集和測試集 X_train , y_train = trX[:80] , trY[:80] X_test , y_test = trX[80:] , trY[80:] model = Sequential() model.add(Dense(input_dim = 1 , output_dim = 1 , init = 'uniform' , activation='linear')) # 選擇損失函式和優化方法 model.compile(optimizer='sgd' , loss='mse') model.fit(X_train , y_train , epochs=200
, verbose=1) # 獲取引數 W , b = model.layers[0].get_weights() print('Linear regression model is initialized with weights w: %.2f, b: %.2f' % (W, b)) # 測試 Y_pred = model.predict(X_test) plt.scatter(X_test , y_test) plt.plot(X_test , Y_pred) plt.show() # 儲存權重 model.save_weights('my_model.h5') model.load_weights('my_model.h5'
)

相關推薦

keras線性迴歸直線

# -*- coding: utf-8 -*- """ Created on Sat Aug 26 18:25:28 2017 線性迴歸擬合直線 @author: Han """ from keras.

scikit-learn 線性迴歸正弦函式,預測房價

隨書程式碼,閱讀筆記。 線性迴歸擬合正弦函式 %matplotlib inline import matplotlib.pyplot as plt import numpy as np n_dots = 200 X = np.linspace(-2 * np.pi

用 sklearn 線性迴歸 房價與房屋尺寸關係

線性迴歸:  線性迴歸(Linear Regression)是利用數理統計中迴歸分析, 來確定兩種或兩種以上變數間相互依賴的定量關係的一種統計分 析方法。  線性迴歸利用稱為線性迴歸方程的最小平方函式對一個或多個自 變數和因變數之間關係進行建模。這種函式

迴歸:最佳直線與區域性線性迴歸

迴歸是用來做什麼的?       迴歸可以做任何事,例如銷售量預測或者製造缺陷預測。什麼是迴歸?       迴歸有線性迴歸和非線性迴歸,本篇文章主要討論線性迴歸。迴歸的目的是預測數值型的目標值。最直接的辦法是依據輸入寫出一個目標值的計算公式,即所謂的迴歸方程,可表示為: 

Halcon直線

nbsp lec end save [] cross use color rect read_image(Image,'C:/Users/研發/Pictures/Saved Pictures/qq.bmp')dev_set_draw ('margin

Java練習 SDUT-2728_最佳直線

最佳擬合直線 Time Limit: 1000 ms Memory Limit: 65536 KiB Problem Description 在很多情況下,天文觀測得到的資料是一組包含很大數量的序列點圖象,每一點用x值和y值定義。這就可能需要畫一條通過這些點的最佳擬合曲線。 為了避免只對個別資料分析,

[TensorFlowJS只如初見]實戰二·使用TensorFlowJS直線

[TensorFlowJS只如初見]實戰二·使用TensorFlowJS擬合直線 問題描述 擬合直線 y =(2x -1) + 0.1(-1到1的隨機值) 給定x範圍(0,3) 可以使用學習框架 建議使用 y = w * x + b 網路模型 程式碼 1、通過操作(ops)

[深度學習入門]實戰二·使用TensorFlow直線

[深度學習入門]實戰二·使用TensorFlow擬合直線 問題描述 擬合直線 y =(2x -1) + 0.1(-1到1的隨機值) 給定x範圍(0,3) 可以使用學習框架 建議使用 y = w * x + b 網路模型 生成資料 import nu

最小二乘法直線方程

Code(python) x = [] y = [] n = input(); n = int(n) sumx = 0 sumx2 = 0 sumy = 0 sumxy = 0 for i in range(n): v = input() v = float

halcon之最小二乘直線

如果不瞭解最小二乘演算法 請先閱讀: Least squares的演算法細節原理https://en.wikipedia.org/wiki/Least_squares 通常在halcon中擬合直線會用houghline或者 fitline。本文提供一種新的選擇,用halcon的矩陣操作

最小二乘法直線c++程式碼

最近公司的一個專案需要計算TVDI(Temperature Vegetation Dryness Index ,溫度植被幹旱指數) ,TVDI的計算公式如下(具體原理自行百度): 其中,為任意像元的地表溫度;為某一NDVI對應的最小地表溫度,對應的是溼邊;為某一NDVI對應的最大地表

Java面對物件 -- 最佳直線

最佳擬合直線 問題:輸出有問題,演算法目前無問題 package kl; import java.util.Scanner; class Sum{//此類無用,在迴圈中無法輸入資料 int x,y; double a,b;//輸入資料需改進 double f(d

機器學習(二)分類器及迴歸

在機器學習中,分類器作用是在標記好類別的訓練資料基礎上判斷一個新的觀察樣本所屬的類別。分類器依據學習的方式可以分為非監督學習和監督學習。非監督學習顧名思義指的是給予分類器學習的樣本但沒有相對應類別標籤,主要是尋找未標記資料中的隱藏結構。,監督學習通過標記的訓練資

手寫:邏輯迴歸二維資料(tensorflow)

tensorflow開發的基本步驟 1、定義tensorflow輸入節點【3種方法】 2、定義學習引數的變數【2種方法】 3、定義運算 4、選擇優化函式,優化目標 5、初始化所有變數 6、迭代更新引數到最優解 7、測試模型 8、使用模型 下面就挑前幾個比較重要

sklearn實戰:使用knn進行迴歸

%matplotlib inline import matplotlib.pyplot as plt import numpy as np # 生成訓練樣本 n_dots = 40 X = 5 * np.random.rand(n_dots, 1) y

曲線的最小二乘法(基於OpenCV實現)的,影象中離散點的直線

   今天使用擬合的最小二乘法,求出了給定的一組座標系上的點對最接近的直線的。  其具體理論如下:    在科學實驗資料處理中,往往要根據一組給定的實驗資料,求出自變數x與因變數y的函式關係,這是為待定引數,由於觀測資料總有誤差,且待定引數ai的數量比給定資料點的數量少(

opencv學習——最小二乘法直線

 最小二乘法擬合直線概念:最小二乘法多項式直線擬合,根據給定的點,求出它的函式y=f(x),當然求得準確的函式是不太可能的,但是我們能求出它的近似曲線y=φ(x)原理假設有點

深度學習之TensorFlow 第三章基本開發步驟--以邏輯迴歸二維資料為例

深度學習有四個步驟: 準備資料  搭建模型   迭代訓練   使用模型  import tensorflow as tf import numpy as np #陣列 import matplotlib.pyplot as plt # matplotlib.pyplot

霍夫變換提取圓心座標,並直線

<span style="font-family:Microsoft YaHei;font-size:14px;">#include <cmath> #include <opencv2/opencv.hpp> using namespac

最小二乘法直線--C++/Opencv

1.原理 在現實中經常遇到這樣的問題,一個函式並不是以某個數學表示式的形式給出,而是以一些自變數與因變數的對應表給出,老師講課的時候舉的個例子是犯罪人的身高和留下的腳印長,可以測出一些人的資料然後得到一張表,它反應的是一個函式,迴歸的意思就是將它還原成數學表示式,這個