1. 程式人生 > >【資料極客】Week2_邏輯迴歸_Tensorflow基礎介紹

【資料極客】Week2_邏輯迴歸_Tensorflow基礎介紹

本文目錄

1. 推薦內容學習

【資料極客】任務總結_Week2

## **1.0 線性迴歸Linear Regression** fw,b(x)=iwixi+b 各個feature的 `Xi` 對應的權重 `Wi` 相乘並求和, 再最後加上b, 不通過Sigmod函式計算, 輸出值是任意範圍的值。 - **誤差估計** ŷ n: 代表資料真實值 , f(xn) 代表預測值, 12ni=1(ii)2 使用均方誤差用來衡量, 有著很好地幾何特性,和二範數一樣。 前面乘上的1/2是為了在求導的時候,這個係數就不見了。 ## **1.1 邏輯迴歸 Logistic Regression** - 線性 z
=iwixi+b
通過 Sigmod 函式 σ(z) 轉為非線性 logistic迴歸本質上是線性迴歸,只是在特徵到結果的對映中加入了一層函式對映,即先把特徵線性求和,然後使用函式 σ(z) 將最為假設函式來預測。σ(z) 可以將連續值對映到0和1上。 fw,b(x)=σiwixi+b 上面公式線上性迴歸的基礎上, 將線性迴歸的結果帶入Sigmod函式中, 得到的結果介於 0 到 1 之間。 Pw,b(C1|x)=σ(z),σ(z)=11+exp(z),z=wx+b=iwixi+bz帶入Sigmod函式——> σ(z) 得到概率大小。 fw,b(
x)=Pw,b(C1|x)
表示在Sigmod函式的對映下 , C1的概率大小。 從該式可以看出, 最後fw,b(x)的結果受到 wb 兩個引數的控制, 可以選擇不同的 wb 得到不同的Function,計算出C1的概率。 - **損失函式** 誤差公式: L(w,b)=fw,b(x1)fw,b(x2)fw,b(xn) 每個xi 對應的概率 fw,b=(xi) 連續相乘, 其中 Wb 就是能夠是的 L(w,b)最大化的一組值。 w,b=argmaxw,bL(w,b)=w,b=argminlnL(w,b) 等式右邊的 loge 為底的對數形式的好處就是相乘變成現在相加 即:
lnL(w,b)=lnfw,b(x1)