1. 程式人生 > >機器學習(吳恩達)-筆記整理、問題提出-(1-19)

機器學習(吳恩達)-筆記整理、問題提出-(1-19)

這個課講得很不錯的,把數學部分省略了不少,雖然這是一件危險的事(在危險的邊緣瘋狂試探。誤)。 目前看到19,更新到19的筆記。筆記我採用的是英文的,方便和文件接軌。

詞彙:

Field:

1.non-spam Email Help computer to learn without being explicitly 2.program let robot watch you demonstrate the task how human brain works:many scientist think the best way to make progress on this is through learning algorithm called neural network ,which mimic how the human brain works. 3. autonomous robotics(自主機器人) 4.computational biology 5.Database mining :web click data ,medical records ,biology ,engineer

computational biology:gene sequences ,DNA sequences

6.autonomous helicopter e.g:handwriting recognition ,most of natural language processing (NLP),computer vision (cv),self customizing progress (like Amazon ,netflix product recommendations )

What is the machine learning ?

learning practitioners isn’t a well accepted definition of what is.

1959 Arthur Samuel :field of study that gives computers the ability to learn without being explicitly programmed. 1995 Tom Mitchell :a well posed learning problem as follow ,a computer program is said to learn from experience E,with respect to some task T,and some performance measure P,if its performance on T as measured by P improves with experience E.

For checker playing example : E----------tens of thousands of games T----------playing checker P----------probability

Machine learning algorithm

unsupervised learning:learn by itself supervised learning:Teach computer how to do other:reinforcement learning ,recommender systems (以後會講到)

在這裡插入圖片描述

後面的內容,有空再補充,一個是代價函式cost function,一個是假設函式hypothesis

問題收集:

1.梯度下降得到的結果不是區域性最小?

SGD基本是local minmal,對於convex optimization可以收斂到到全域性最小,但實際問題往往不是強凸問題,但是可通過幾個區域性最優取平均結果。或者用cycle learning迭代,但是NN很難收斂到全域性最優。

這裡資訊量有點大的,第一個需要解決的是什麼是SGD,然後是強凸問題,和最後對於結果的處理,取平均這種做法。 SGD 強凸問題 取平均的處理

2.對於多元極值,我第一想到的是拉格朗日乘法來做,是否合理 由於ML問題local miminal並不是只有有限個,求解全域性最優可能是一個NP問題,無法一個個比較。 .

3.代價函式cost function、假設函式HypothesisLMS演算法,SGD梯度下降之間的關係。

代價函式採用的是線性擬合,這裡是一個多元線性擬合。LMS演算法是最小均方演算法,最小二乘是它的cost function即代價,梯度下降是它的解法。 Hypothesis:不一定是線性,可以非線性,隨機森林,神經網路。梯度提升樹等。 cost function:不一定是LMS,可以是RMSE、MAE、MSPE、HingeLoss,也可以自己定義更復雜的函式 求解:不一定是SGD,可以用到二階梯度LBGFS或者SAG,除了SGD還有GD、PGD等等,只不過SGD的優勢在於時間和空間的複雜度都很低。

一般來說不需要關注與優化到最優,更重要的是特徵、資料量 一般選用預設的優化方式即可。 本質來說,機器學習就是一個優化求解引數:L(w)+Gamma(W),

L是損失函式,例如最小二乘等,Gamma是約束懲罰項。

總結

總的來說,就19課之前,大概是這麼幾件事

1.機器學習的應用,列舉計算生物學,自主機器人,基因工程等。 2.什麼是機器學習的問題。 3.怎麼實現機器學習。

有監督學習、無監督學習、強化學習等等

4.對有監督學習的展開

4.1什麼是有監督學習 4.2介紹假設函式和代價函式 4.3梯度下降 需要注意的是區分他們之間的關係

以上 2018.10.18----總結