1. 程式人生 > >Coursera Machine Learning 第九周 quiz Recommender Systems

Coursera Machine Learning 第九周 quiz Recommender Systems



1
point 1. 

Suppose you run a bookstore, and have ratings (1 to 5 stars)

of books. Your collaborative filtering algorithm has learned

a parameter vector θ(j) for user j, and a feature

vector x(i) for each book. You would like to compute the

"training error", meaning the average squared error of your

system's predictions on all the ratings that you have gotten

from your users. Which of these are correct ways of doing so (check all that apply)?

For this problem, let m be the total number of ratings you

have gotten from your users. (Another way of saying this is

that m=nmi=1nuj

=1r(i,j)). [Hint: Two of the four options below are correct.]

答案AC

1mnmi=1j:r(i,j)=1(nk=1(θ(j))kx(i)ky(i,j))2

1mnuj=1i:r(i,j)=1(nk=1(θ(k))jx(k)

相關推薦

Coursera Machine Learning quiz Recommender Systems

1 point 1.  Suppose you run a bookstore, and have ratings (1 to 5 stars)

Coursera Machine Learning quiz Anomaly Detection

1 point 1.  For which of the following problems would anomaly detection be a

coursera Machine Learning 測驗quiz2答案解析 Recommender Systems

1.選擇:BD 解析:A的k沒看懂是什麼,前面求和積的明明是j,i,故錯誤。C為什麼要減去r,所以錯誤。 2.選擇:AD 解析:協同過濾最適合做相似度、推薦等情形,但是不能預測銷售數量,故除了BC都對 3.選擇:B 解析:應該先進行均值歸一化然後

Coursera-吳恩達-機器學習--測驗-Recommender Systems

本片文章內容: Coursera吳恩達機器學習課程,第九周Recommender Systems部分的測驗,題目及答案截圖。   注:區分迴歸的預測和collaborative filtering預測的區別,後者涉及到一些分類。 注:可以結合不同的trai

coursera Machine Learning 十週 測驗quiz答案解析Large Scale Machine Learning

1.選擇:D 解析:由於代價函式上升了,所以應該減少學習速率,選擇D 2.選擇:BC 解析:A並不需要代價函式總是減少,可能會降低故錯誤。B在執行隨機梯度下降演算法前最好將樣本打亂隨機化,正確。C也就隨機的優點正確。D並行可不是隨機的優點,是對映約減的優點,故錯

Machine Learning講【推薦系統】-- (二)協同過濾

一、Collaborative Filtering(協同過濾) 協同過濾能夠自行學習所需要使用的特徵。 來看下面的例子: 在之前講的基於內容的推薦系統中,我們需要事先建立特徵並知道特徵值,這是比較困難的。 假設我們某一使用者的喜好,即假如Alice、Bob喜歡romance的電影,carol

Machine Learning講【推薦系統】--(一)基於內容的推薦系統

符號介紹: 對於每一個使用者j,假設我們已經通過學習找到引數,則使用者j對電影i的評分預測值為:。   對於上面的例子:                   

Machine Learning講【異常檢測】-- (三)多元高斯分佈

一、Multivariate Gaussian Distribution(多元高斯分佈) 資料中心例子:   因為上面的原因,會帶來一些誤差,因此我們引入了改良版的演算法: 我們不再單獨地將p(x1),p(x2),p(x3)訓練模型,而是將這些引數都放在一個模型裡,

Machine Learning講【異常檢測】-- (二)建立一個異常檢測系統

一、Developing and Evaluating an Anomaly Detection System(異常檢測系統的衡量指標) 對於某一演算法,我們可以通過藉助某些數字指標來衡量演算法的好壞,仍舊以飛機引擎的例子來說: 假設有10000個正常的引擎,20個有瑕疵的引擎(異常)

Machine Learning講【異常檢測】--(一)密度估計

一、Problem Motivation(問題引入) 異常檢測一般應用在非監督學習的問題上,如圖,我們可以通過已知的資料集,訓練模型 根據此模型進行異常檢測: 在使用這些資料訓練的過程中,我們假設這些資料是正常的。 我們可以把異常檢測應用在網站欺詐預測上,比如可以根據使用者平時

[Coursera C++程式設計] 作業

程式設計題#1 來源: POJ (Coursera宣告:在POJ上完成的習題將不會計入Coursera的最後成績。) 注意: 總時間限制: 1000ms 記憶體限制: 65536kB 描述 下面的程式用列舉法解決如下問題,請填空。 平面上的一個矩形,如果其邊平行於座

(異常發現+推薦系統)-【機器學習-Coursera Machine Learning-吳恩達】

目錄     異常檢測     多元高斯分佈的異常檢測     推薦系統 1 異常檢測 1)正態分佈或高斯分佈: 2)異常檢測演算法: 3)異常檢

Coursera-吳恩達-機器學習--程式設計作業-Anomaly Detection and Recommender Systems

本次文章內容: Coursera吳恩達機器學習課程,第九周程式設計作業。程式語言是Matlab。 本文只是從程式碼結構上做的小筆記。   Anomaly Detection  part 0 Initialization Part 1: Load Example

Machine Learning十一筆記:photo OCR

添加 tor ref border 彩色 amp rip nec lock 博客已經遷移至Marcovaldo’s blog (http://marcovaldong.github.io/) 剛剛完畢了Cousera上Machine Learning的

十週(大規模機器學習)-【機器學習-Coursera Machine Learning-吳恩達】

目錄 處理大資料集:     隨機的梯度下降     對映化簡 1 隨機的梯度下降  - 隨機梯度下降演算法 對於每一次迭代,只需要對一個樣本擬合好就可以了。 它只需要一次關注一個樣本

八週(無監督學習)-【機器學習-Coursera Machine Learning-吳恩達】

目錄     K-means演算法     PCA(主成分分析) 1 K-means 1)演算法原理:     a 選擇聚類中心

七週(SVM)-【機器學習-Coursera Machine Learning-吳恩達】

前言:說實話SVM,看了視訊我確實還是不太理解,所以這裡就之記一些重要的概念吧。 看到一個好的文章:[機器學習] Coursera筆記 - Support Vector Machines 支援向量機又叫做 大間距分類器。複雜SVM,處理非線性分類。 代價函式: 核函式——&g

六週(機器學習應用建議)-【機器學習-Coursera Machine Learning-吳恩達】

目錄     評估學習演算法:     方差和偏差     學習曲線     機器學習系統設計 1 評估假設,選擇多項

五週(反向神經網路)-【機器學習-Coursera Machine Learning-吳恩達】

目錄     代價函式     反向傳播     神經網路總結 1 代價函式 2 反向傳播演算法——讓代價函式最小化的演算法讓代價函式最小化,利用ma