【時間之外】機器學習與優化-1
正在讀《機器學習與優化》,涉及了不少人工智慧的概念,做一個筆記,供自己和需要的朋友們學習和理解,如果需要詳細瞭解,請購買正版圖書。
最近鄰方法
由於自然界不允許跳躍,感覺有點神學的味道了。這裡舉了一個例子,撿蘑菇,你能明白嗎?上個圖吧
不同型別的誤差
以下幾個率值得記住,畢竟,如果你把毒蘑菇當成食用的,那麼你死定了,如果你把食用蘑菇當成毒蘑菇,只是浪費了時間而已。所以“真的正類”就是食用蘑菇,“假的負類”僅僅是浪費了時間,之前我也搞不清楚,看到這個圖,終於明白了,聰明的你,能看出下面幾個率的區別嗎?
重點關注精確率和召回率,精確率回答了一個問題:有多少標記為正類的案例是正確的?召回率回答了另外一個問題:有多少正類的案例被正確的檢索為正類了?那麼送給大家一個問題,撿蘑菇的時候,你希望那個率更高一些???(我的答案在後面)
決策樹
決策樹是為了能夠自動生成規則而被使用的,而且決策樹可以避免衝突的規則,下圖可以說明這個問題:
今天就寫到這裡,下一篇開始瀏覽“神經網路”
最後,附上本人的答案,撿蘑菇的時候,我選擇召回率高一些,你呢?
相關推薦
【時間之外】機器學習與優化-1
正在讀《機器學習與優化》,涉及了不少人工智慧的概念,做一個筆記,供自己和需要的朋友們學習和理解,如果需要詳細瞭解,請購買正版圖書。 最近鄰方法 由於自然界不允許跳躍,感覺有點神學的味道了。這裡舉了一個例子,撿蘑菇,你能明白嗎?上個圖吧 不同型別的誤差 以下幾個率值得記住,畢
【Mark Schmidt課件】機器學習與資料探勘——數值優化與梯度下降
本課件主要包括以下內容: 優化簡介 上次課程回顧:線性迴歸 大規模最小二乘 尋找區域性最小值的梯度下降法 二維梯度下降 存在奇異點的最小二乘 魯棒迴歸 基於L1-範數的迴歸 L1-範數的平滑近似
【Mark Schmidt課件】機器學習與資料探勘——特徵選擇
本課件的主要內容如下: 上次課程回顧:尋找“真實”模型 資訊準則 貝葉斯資訊準則 關於食物過敏 特徵選擇 全基因組關聯分析 “迴歸權重”方法 搜尋評分法 評分函式的選擇 “特徵數量”懲罰
【Mark Schmidt課件】機器學習與資料探勘——非線性迴歸
本課件主要內容包括: 魯棒迴歸 體育運動中的非線性級數 自適應計數/距離法 線性模型的侷限性 非線性特徵變換 一般多項式特徵(d = 1) 英文原文課件下載地址: http://page5.dfpan
【Mark Schmidt課件】機器學習與資料探勘——正規方程組
本課件的主要內容包括: d維資料的梯度和臨界點 最小二乘偏導數 矩陣代數回顧 線性最小二乘 線性和二次梯度 正規方程組 最小二乘問題的不正確解 最小二乘解的非唯一性 凸函式 如何判斷函式的
【Mark Schmidt課件】機器學習與資料探勘——普通最小二乘
本課件主要內容包括: 有監督學習:迴歸 示例:依賴與解釋變數 數字標籤的處理 一維線性迴歸 最小二乘目標 微分函式最小化 最小二乘解 二維最小二乘 d維最小二乘 偏微分
【Mark Schmidt課件】機器學習與資料探勘——進一步討論線性分類器
本課件主要內容包括: 上次課程回顧:基於迴歸的分類方法 Hinge損失 Logistic損失 Logistic迴歸與SVMs “黑盒”分類器比較 最大餘量分類器 支援向量機 魯棒性與凸近似 非凸0-
【Mark Schmidt課件】機器學習與資料探勘——線性分類器
本課件主要內容包括: 上次課程回顧:L1正則化 組合特徵選擇 線性模型與最小二乘 梯度下降與誤差函式 正則化 辨識重要郵件 基於迴歸的二元分類? 一維判決邊界 二維判決邊界 感知器演算法
【Mark Schmidt課件】機器學習與資料探勘——多元分類
本課件主要內容: 上次課程回顧:隨機梯度 無限資料的隨機梯度 詞性標註POS POS特徵 多元線性分類 題外話:多標籤分類 多元SVMs 多元Logistic迴歸 題外話:Frobenius範數
【Mark Schmidt課件】機器學習與資料探勘——MLE與MAP
本課件的主要內容包括: 上次課程回顧:多元線性分類器 決策邊界形狀 識別重要電子郵件 Sigmoid函式 最大似然估計MLE 最小化負對數似然NLL 樸素貝葉斯的MLE 有監督學習的MLE Logi
【Mark Schmidt課件】機器學習與資料探勘——主元分析PCA
本課件主要內容包括: 上次課程回顧:MAP估計 人類 vs. 機器感知 隱因子模型 向量量化 向量量化 vs. PCA 主元分析PCA的應用 PCA目標函式 英文原文課件下載地址: h
【Mark Schmidt課件】機器學習與資料探勘——進一步討論PCA
本課件的主要內容包括: 機器學習工程師需要精通的10種演算法 上次課程回顧:隱因子模型 上次課程回顧:主元分析 上次課程回顧:PCA幾何描述 題外話:資料凝聚 PCA計算:交替最小化 PCA計算:預測 PCA
【Mark Schmidt課件】機器學習與資料探勘——稀疏矩陣分解
本課件主要內容包括: 上次課程回顧:基於正交/序貫基的PCA 人眼的顏色對立 顏色對立表示法 應用:人臉檢測 特徵臉 VQ vs. PCA vs. NMF 面部表示 非負最小二乘法 稀疏性與非負最小
【Mark Schmidt課件】機器學習與資料探勘——推薦系統
本課件主要內容: 上次課程回顧:隱因子模型 魯棒PCA 隱因子模型的變化形式 Netflix獎 協同過濾問題 協同過濾的矩陣分解 基於內容的濾波 vs. 協同濾波 混合方法 SVD特徵的隨機梯度
【Mark Schmidt課件】機器學習與資料探勘——深度學習
本課件的主要內容為: 有監督訓練路線圖 關於神經網路 線性-線性模型 非線性簡介 為什麼使用Sigmoid函式? 為什麼使用神經網路? 大腦中的深層結構 深度學習 ML與深度學習的歷史 ImageNet挑戰 人工神經網
【論文閱讀】深度學習與多種機器學習方法在不同的藥物發現數據集進行對比
論文來源: Comparison of Deep Learning With Multiple Machine Learning Methods and Metrics Using Diverse Drug Discovery Data Sets 機器學習方法在醫藥研究
【Andrew Ng】 機器學習Exercise1——Linear Regression
1、單變數線性迴歸 在本部分練習中,您將使用一個變數實現線性迴歸,以預測食品卡車的利潤。假設你是一家連鎖餐廳的執行長,正在考慮在不同的城市開設一家新分店。這個連鎖店已經在不同的城市有了卡車,你可以從城市得到利潤和人口的資料。 您希望使用這些資料來幫助您選擇下一個要擴充套件到的城市。
【線上直播】機器學習中的建模問題
2017,人工智慧喧囂的一年;2018,人工智慧落地的一年;2019-2022,人工智慧註定飛騰!作為IT人,如何乘著人工智慧的風潮,持續學習,本期講座將為你答疑解惑關於機器學習中的建模問題。 直播時間:2018年12月5日 19:40 報名連結:【線上直播】機器學習中的建模問題 講座嘉
【AI測試】機器學習專案的測試,演算法測試
開場白 大家好,今天分享的主題是AI演算法專案的測試探索。 首先介紹人工智慧的一些基本概念,接著說明人工智慧和機器學習的關係,然後再敘述機器學習相關的基本概念,包括監督學習,無監督學習,會重點說監督學習。再介紹機器學習演算法專案的測試。最後會介紹演算法專案測
【時間之外】單位裡商務膝上型電腦選購指南
今天休息,順便在京東上瀏覽了一下商務膝上型電腦,有點心得,分享給大家。 首先,如果大家對品牌要求較高,希望別人從筆記本牌子上就能看出你的身份,那麼選購Thinkpad和蘋果是自然而然的事情。蘋果不在本文的討論範圍,買蘋果的人,本人看來就是“只買貴的不賣好的”之類的人。畢竟大多數情況下,我們還