1. 程式人生 > >西瓜書《機器學習》課後答案——chapter5_5.5

西瓜書《機器學習》課後答案——chapter5_5.5

網路結構

這裡採用簡單的單隱層神經網路:輸入層有2個神經元;隱層有4個神經元;輸出層有2個神經元。隱層採用sigmoid啟用函式,輸出層採用softmax啟用函式。

z1=W1x+b1 h=sigmoid(z1) z2=W2h+b2 y^=softmax(z2)
softmax輸出可以看成預測為每個類別的概率。

梯度

訓練目標為最小化負對數似然函式:

J(Θ)=k=1NlogP(y^k)
其中P(y^k)表示第k個訓練樣本真實標記對應的預測概率。可以想象,每個樣本真實標記對應的預測概率越大,模型越好。

我們現在只考察一個樣本,求出在該樣本上的梯度。

Jkz2=(
y^y)
(1)

其中,y表示標記的one-hot向量表示,只有標記對應的位置上值為1,其餘位置為0的向量。

JkW2=Jkz2z2W2=Jkz2hT Jkb2=Jkz2z2b2=Jkz2 Jkh=z2hJkz2=WT2Jkz2 Jkz1=Jkhhz1=Jkh(h(1h)) JkW1=Jkz1z1W1=Jkz1xT Jk

相關推薦

西瓜機器學習課後答案——chapter5_5.5

網路結構 這裡採用簡單的單隱層神經網路:輸入層有2個神經元;隱層有4個神經元;輸出層有2個神經元。隱層採用sigmoid啟用函式,輸出層採用softmax啟用函式。 z1=W1x+b1 h=sigmoid(z1) z2=W2h+b2 y^=softma

西瓜機器學習總結(一)

1.基本概念 1.資料集,特徵屬性,屬性值,訓練集,樣本,標記,獨立同分布的假設balabala….簡單易懂 2.歸納學習與歸納偏好: 廣義從樣例學習,狹義是學習概念。西瓜模型的學習可以理解為從假設空間中搜索匹配,剔除不符合,最終會有多個模型,這個

西瓜機器學習課後答案——Chapter3_3.5

程式設計實現線性判別分析,並給出西瓜資料集3.0alpha上的結果。 """ Author: Victoria Created on: 2017.9.15 11:45 """ import xlr

機器學習西瓜)第三章 3.5

我真傻,真的。程式碼連結: 和3.3一樣都可以用一個二維圖形來表示。橫軸表示一個屬性,縱軸表示另一個屬性。另求的的線性式子 = 0。這條線就是劃分線。因為這個線性式子只有x,沒有y。所以根本不用考慮三維,直接當做二維處理即可。 1.np.mean np.mean(a

機器學習西瓜學習筆記——第七章_貝葉斯分類器_樸素貝葉斯分類器

樸素:特徵條件獨立;貝葉斯:基於貝葉斯定理。 樸素貝葉斯是經典的機器學習演算法之一,也基於概率論的分類演算法,屬於監督學習的生成模型。樸素貝葉斯原理簡單,也很容易實現,多用於文字分類,比如垃圾郵件過濾。 1.演算法思想——基於概率的預測 貝葉斯決策論是概率框架下

機器學習西瓜學習筆記(一)---------模型評估與選擇

1、經驗誤差與過擬合 經驗誤差:一般的,我們把學習器的實際預測輸出與樣本的真實輸出之間的差異稱為“誤差”,學習器在訓練集上的誤差稱為“訓練誤差”或“經驗誤差”,在新樣本上的誤差稱為“泛化誤差”;         通常我們想要的一個學習器是能夠通過訓練樣本的學習後能較準確的

機器學習西瓜學習筆記(四)---------神經網路

1. 神經元模型 神經網路/人工神經網路:由具有適應性的簡單單元組成的廣泛並行互連的網路。 神經網路學習:機器學習和神經網路兩個學科交叉的部分。 Neural Networks中的基本單元:神經元。 從電腦科學的角度,NN就是一個包含了大量引數的數學模型,該模型由若干個函式相互代入而

機器學習西瓜學習筆記(三)---------決策樹

1、基本流程       決策樹通常從一個最基本的問題出發,通過這個判定問題來對某個“屬性”進行“測試”,根據測試的結果來決定匯出結論還是匯出進一步的判定問題,當然,這個判定範圍是在上次決策結果的限定範圍之內的。       出發點

機器學習西瓜學習筆記(二)---------線性模型

1、基本形式           對含有d個特徵的資料x,線性模型試圖學得一個通過特徵的線性組合來進行預測的函式:                  

機器學習基石筆記-Lecture 5-7 VC dimension

func contain containe attach 一個數 實的 man 分享 alt 為了引出VC維做了很長的鋪墊。。VC維:用來描述假設空間的表達能力。 第四節講到對有限的假設空間,只要N足夠大,不管A如何選g,訓練數據如何選取,g的訓練錯誤率和真實的錯誤率都

機器學習實戰》第5章邏輯斯蒂迴歸數學推導

在《機器學習實戰》一書的第5章邏輯斯蒂迴歸的程式碼介紹中,p79中開頭有一句,“此處略去了一個簡單的數學推導”,那麼到底略去了哪一個簡單的數學推導呢?本著要將這個演算法徹底搞明白的態度,筆者在百度上搜了好多資料,終於找到了相關的資料,以供參考。 從上圖中按照邏輯斯蒂迴歸演算法,利用梯

學習筆記 | 機器學習-周志華 | 5

第二章 模型評估與選擇 2.1 經驗誤差與過擬合 "錯誤率" (error rate) ,即如果在 m 個樣本中有 α 個樣本分類錯誤,則錯誤率 E= α/m; 1 一 α/m 稱為**“精度” (accuracy)** ,即"精度 =1 - 錯誤率" 更一般地,

《web安全之機器學習入門》第5章K近鄰演算法讀書筆記【下】

Rootkit是一種特殊的惡意軟體,它的功能是在安裝目標上隱藏自身及指定的檔案、程序和網路連線等資訊。待分析資料集:KDD-99資料集,連結:http://kdd.ics.uci.edu/databases/kddcup99/kddcup99.html該資料集是從一個模擬的美

《web安全之機器學習入門》第5章K近鄰演算法讀書筆記【上】

K近鄰演算法的思路:如果一個樣本在空間上最近的K鄰居大多數都屬於M類,則該樣本屬於M類。在本章中,使用K近鄰演算法識別使用者操作序列中的異常命令。分析資料集url:http://www.schonlau.net/資料集說明:50個使用者的linux操作日誌以User開頭的檔案

今天開始學模式識別與機器學習(PRML),章節5.1,Neural Networks神經網路-前向網路。

今天開始學模式識別與機器學習Pattern Recognition and Machine Learning (PRML),章節5.1,Neural Networks神經網路-前向網路。 話說上一次寫這個筆記是13年的事情了···那時候忙著實習,找工作,畢業什麼的就沒寫下去

林軒田--機器學習技法--SVM筆記5--核邏輯迴歸(Kernel+Logistic+Regression)

核邏輯迴歸 這一章節主要敘述的內容是如何使用SVM來做像logistics regression那樣的soft binary classification(輸出正類的概率值),如何在此基礎上加上核方法。 1. 把SVM看成一種regularization

機器學習數學原理(5)——廣泛拉格朗日乘子法

機器學習數學原理(5)——廣泛拉格朗日乘子法 這一篇部落格針對的是有約束的凸優化問題,主要是為後面的最優間隔分類器以及其演化的SVM(支援向量機,Support Vector Machine)演算法作鋪墊。Andrew Ng在講解最優間隔分類器時運用了廣泛拉格朗日乘子法但並沒有講的十

斯坦福大學(吳恩達) 機器學習課後習題詳解 第七週程式設計題 SVM

作業下載地址:https://download.csdn.net/download/wwangfabei1989/103046171. 高斯核函式gaussianKernelfunction sim = gaussianKernel(x1, x2, sigma)%RBFKER

機器學習實踐系列之5

       提到 目標跟蹤(Object Tracking),很多專業人士都不陌生,它是計算機視覺裡面 用於視訊分析的一個很大的分類,就像目標檢測一樣,是視訊分析演算法的底層支撐。        目標跟蹤的演算法有很多,像 Mean-Shift、光流法、粒子濾波、卡爾曼濾

機器學習與Tensorflow(5)——迴圈神經網路、長短時記憶網路

  1.迴圈神經網路的標準模型 前饋神經網路能夠用來建立資料之間的對映關係,但是不能用來分析過去訊號的時間依賴關係,而且要求輸入樣本的長度固定 迴圈神經網路是一種在前饋神經網路中增加了分虧連結的神經網路,能夠產生對過去資料的記憶狀態,所以可以用於對序列資料的處理,並建立不同時段資料之間