1. 程式人生 > >【機器學習】Machine Learning by Andrew Ng

【機器學習】Machine Learning by Andrew Ng

時間:2014.6.30 ~2014.9月初

備註:因為大二下,一時興趣,在學習德語空隙開始學習機器學習,之前在網上學了些支離破碎的東西,跟著老師可能要學的好些

          筆記有部分是用筆記的,一部分用evernote 記的現在重新整理後,傳至部落格上大家學習,歡迎斧正。

教學大綱:

1.介紹機器學習。單元線性迴歸(選做:複習線性代數

2.多元線性迴歸。實際運用。(Octave or matlab)

3.邏輯迴歸。 One-vs-all 類,正則化

4.神經網路

5.機器學習演算法實用性建議:如何建立,debug,模型建立,建立實驗框架。

6.支援向量機(Support Vector Machines) 

7.無監督學習:聚類和降維

8.異常檢測

9.推薦系統

10.大規模的機器學習。一個機器學習的例項

Syllabus

The following is a tentative syllabus for the class:

  1. Introduction to Machine Learning. Univariate linear regression. (Optional: Linear algebra review.)
  2. Multivariate linear regression. Practical aspects of implementation. Octave tutorial.
  3. Logistic regression, One-vs-all classification, Regularization.
  4. Neural Networks.
  5. Practical advice for applying learning algorithms: How to develop, debugging, feature/model design, setting up experiment structure.
  6. Support Vector Machines (SVMs) and the intuition behind them.
  7. Unsupervised learning: clustering and dimensionality reduction.
  8. Anomaly detection.
  9. Recommender systems.
  10. Large-scale machine learning. An example of an application of machine learning.

相關推薦

機器學習Machine Learning by Andrew Ng

時間:2014.6.30 ~2014.9月初 備註:因為大二下,一時興趣,在學習德語空隙開始學習機器學習,之前在網上學了些支離破碎的東西,跟著老師可能要學的好些           筆記有部分是用筆記的,一部分用evernote 記的現在重新整理後,傳至部落格上大家學

第十週(大規模機器學習)-機器學習-Coursera Machine Learning-吳恩達

目錄 處理大資料集:     隨機的梯度下降     對映化簡 1 隨機的梯度下降  - 隨機梯度下降演算法 對於每一次迭代,只需要對一個樣本擬合好就可以了。 它只需要一次關注一個樣本

第九周(異常發現+推薦系統)-機器學習-Coursera Machine Learning-吳恩達

目錄     異常檢測     多元高斯分佈的異常檢測     推薦系統 1 異常檢測 1)正態分佈或高斯分佈: 2)異常檢測演算法: 3)異常檢

第八週(無監督學習)-機器學習-Coursera Machine Learning-吳恩達

目錄     K-means演算法     PCA(主成分分析) 1 K-means 1)演算法原理:     a 選擇聚類中心

第七週(SVM)-機器學習-Coursera Machine Learning-吳恩達

前言:說實話SVM,看了視訊我確實還是不太理解,所以這裡就之記一些重要的概念吧。 看到一個好的文章:[機器學習] Coursera筆記 - Support Vector Machines 支援向量機又叫做 大間距分類器。複雜SVM,處理非線性分類。 代價函式: 核函式——&g

第六週(機器學習應用建議)-機器學習-Coursera Machine Learning-吳恩達

目錄     評估學習演算法:     方差和偏差     學習曲線     機器學習系統設計 1 評估假設,選擇多項

第五週(反向神經網路)-機器學習-Coursera Machine Learning-吳恩達

目錄     代價函式     反向傳播     神經網路總結 1 代價函式 2 反向傳播演算法——讓代價函式最小化的演算法讓代價函式最小化,利用ma

Machine Learning —— By Andrew Ng機器學習 聽後自己做的筆記 記錄重點內容)

MachineLearning ——byAndrew Ng , Stanford 第一講:機器學習的動機與應用 一、監督學習: 1、  迴歸問題: 房價預測 2、  分類問題:腫瘤為良性還是惡性

第二週(多變數線性迴歸 +Matlab使用)-機器學習-Coursera Machine Learning-吳恩達

目錄:    多變數線性迴歸(模型、梯度下降技巧)    特徵選擇和多項式迴歸    正規方程    Matlab學習1 多變數線性迴歸1)模型- 假設函式:- 引數:全部的 theta- 代價函式:和單變量回歸一樣- 梯度下降:2)梯度下降演算法的實用技巧    - 特徵縮

學習筆記之Machine Learning by Andrew Ng | Coursera

Machine Learning | Coursera https://www.coursera.org/learn/machine-learning Machine learning is the science of getting computers to act without being

[Checked (vid only)] Cousera - Machine Learning by Andrew Ng

ati all rst which got hms sta rms aspect Just finished watching all videos of this course - thank you Andrew for elaborating all basic ML

機器學習轉導推理——Transductive Learning

在統計學習中,轉導推理(Transductive Inference)是一種通過觀察特定的訓練樣本,進而預測特定的測試樣本的方法。另一方面,歸納推理(Induction Inference)先從訓練樣本中學習得到通過的規則,再利用規則判斷測試樣本。然而有些轉導推理的預測無法由

機器學習Selecting good features – Part IV: stability selection, RFE and everything side by side

Selecting good features – Part IV: stability selection, RFE and everything side by side 在我以前的文章中,我研究了單變數方法、線性模型和正則化以及隨機森林的特徵選擇。 在本文中,我將研究另外兩種方法:

機器學習Deep Residual Learning

Deep Residual Learning 深度神經網路在訓練過程中容易產生梯度消失,梯度爆炸的問題。在Batch Normalization中,我們將輸入資料由啟用函式的收斂區調整到梯度較大的區域,在一定程度上能緩解這種問題。但是,當網路層數急劇增加,BP演算法中導

機器學習隨機森林 Random Forest 得到模型後,評估參數重要性

img eas 一個 increase 裏的 sum 示例 增加 機器 在得出random forest 模型後,評估參數重要性 importance() 示例如下 特征重要性評價標準 %IncMSE 是 increase in MSE。就是對每一個變量 比如 X1

機器學習主成分分析PCA(Principal components analysis)

大小 限制 總結 情況 pca 空間 會有 ges nal 1. 問題 真實的訓練數據總是存在各種各樣的問題:  1、 比如拿到一個汽車的樣本,裏面既有以“千米/每小時”度量的最大速度特征,也有“英裏/小時”的最大速度特征,

機器學習1 監督學習應用與梯度下降

例如 tla ges 機器 fprintf lns 找到 輸入 style 監督學習 簡單來說監督學習模型如圖所示 其中 x是輸入變量 又叫特征向量 y是輸出變量 又叫目標向量 通常的我們用(x,y)表示一個樣本 而第i個樣本 用(x(i),y(i))表示 h是輸出函

機器學習EM的算法

log mea www 優化 問題 get href ive 路線 EM的算法流程: 初始化分布參數θ; 重復以下步驟直到收斂: E步驟:根據參數初始值或上一次叠代的模型參數來計算出隱性變量的後驗概率,其實就是隱性變量的期望。作為隱藏變量的

機器學習DBSCAN Algorithms基於密度的聚類算法

多次 使用 缺點 有效 結束 基於 需要 att 共享 一、算法思想: DBSCAN(Density-Based Spatial Clustering of Applications with Noise)是一個比較有代表性的基於密度的聚

機器學習數據預處理之將類別數據轉換為數值

行數據 pri and slab form ces nbsp 遍歷 encode 在進行python數據分析的時候,首先要進行數據預處理。 有時候不得不處理一些非數值類別的數據,嗯, 今天要說的就是面對這些數據該如何處理。 目前了解到的大概有三種方法: 1,通過LabelE