【轉】吳恩達的視訊課程做成了文字版 ~~~
ML
機器學習課程地址: https://www.coursera.org/course/ml 筆記地址: http://www.ai-start.com/ml2014/
DL
深度學習課程地址: https://mooc.study.163.com/university/deeplearning_ai#/c 筆記地址: http://www.ai-start.com/dl2017/
參考
1.CSDN大神;
完
相關推薦
【轉】吳恩達的視訊課程做成了文字版 ~~~
ML 機器學習課程地址: https://www.coursera.org/course/ml 筆記地址: http://www.ai-start.com/ml2014/ DL 深度學習課程地址: https://mooc.study.163.com/univer
【轉】吳恩達新書《Machine Learning Yearning》翻譯連載_1
轉載 微信公眾號 “頂級程式設計師” 1. 為什麼要學習機器學習策略? 機器學習眾多重要應用的基礎,包括搜尋引擎、垃圾郵件過濾、語音識別、商品推薦等。假設你或者你的團隊正在做機器學習應用專案,同時你想獲得快速進步。你可以從這本書中找到滿意的答案。 示例:建立一個識
感動!有人將吳恩達的視訊課程做成了文字版
整理 | 阿司匹林 機器學習和深度學習如何入門?相信很多人都會推薦吳恩達的線上課程。 不過,這種視訊線上課程也有其弊端,就跟很多人不喜歡微信語音一樣,想要在視訊中查詢和回顧相關的知識點並不方便。 於是,以黃海廣博士為首的一群機器學習愛好者發起了一個
【Coursera】吳恩達 deeplearning.ai 05.序列模型 第一週 迴圈序列模型 課程筆記
迴圈序列模型 為什麼選擇序列模型 在語音識別、音樂生成、情感分類、DNA序列分析、機器翻譯、視訊識別、命名實體識別等任務中,共同特點是輸入X和/或輸出Y都是序列。 數學符號 例如,對於命名實體識別的問題: 對於輸入序列,用 x&l
【Coursera】吳恩達 deeplearning.ai 04.卷積神經網路 第二週 深度卷積神經網路 課程筆記
深度卷積神經網路 2.1 為什麼要進行例項化 實際上,在計算機視覺任務中表現良好的神經網路框架,往往也適用於其他任務。 2.2 經典網路 LeNet-5 AlexNet VGG LeNet-5 主要針對灰度影象 隨著神經網路的加深
機器學習筆記(八)-吳恩達視訊課程(支援向量機SVM)
1.支援向量機的優化目標 以下是新建的 SVM 的影象,左邊為y=1時,右邊為y=0時 然後進行轉換 2.SVM 被看做大邊界分類器(大間距)的情況 在y=1時, >= 1 代價函式為0 在y=0時, <=-
機器學習筆記(六)-吳恩達視訊課程(神經網路學習 二)
1.代價函式 神經網路層數L,表示L層(最後一層)神經元個數,表示每層的輸出神經元數 二類分類:=1 輸出層有一個神經元,輸出的y是一個實數 y = 0 or 1 表示類別 多類別分類:一共有K類,則=K,輸出層有K個神經元,&nbs
【機器學習 吳恩達】CS229課程筆記notes1翻譯-Part I線性迴歸
CS229課程筆記 吳恩達 監督學習 讓我們開始談論一些監督學習的例子。假定我們有一個數據集,給出俄勒岡州波特蘭地區47套房屋的居住面積和價格: 我們可以在圖上畫出這些點: 根據這些資料,我們怎麼學習預測波特蘭地區其他房屋的價格,看
【機器學習 吳恩達】CS229課程筆記notes4翻譯-Part VI學習理論
CS229課程筆記 吳恩達 Part VI 學習理論 1 偏差/方差權衡 當我們談論線性迴歸,我們討論它是否擬合一個簡單的模型,比如線性模型“y=θ0+θ1x”,或者更復雜的模型,比如多項式模型“y=θ0+θ1x+θ2x2+θ3x3+θ
【機器學習 吳恩達】CS229課程筆記notes1翻譯-Part II分類和logistic迴歸
CS229 課程筆記 吳恩達 Part II 分類和logistic迴歸 我們現在談論分類問題。分類問題與迴歸問題類似,區別是在分類問題中,我們現在想要預測的y值只取少量的離散值。現在,我們聚焦於二值分類問題,y只取兩個值,0和1。(我們在這裡說的大多數
【深度學習】吳恩達網易公開課練習(class2 week1 task2 task3)
公開課 網易公開課 blog 校驗 過擬合 limit 函數 its cos 正則化 定義:正則化就是在計算損失函數時,在損失函數後添加權重相關的正則項。 作用:減少過擬合現象 正則化有多種,有L1範式,L2範式等。一種常用的正則化公式 \[J_{regularized}
【學習筆記】吳恩達老師第一週程式設計大作業總結
Logistic Regression with a Neural Network mindset 用神經網路的思想來實現Logistic迴歸 學習目標 構建深度學習演算法的基本結構,包括: 初始化引數 &
【學習筆記】吳恩達老師《深度學習工程師》五
第五課 導數 這一節,吳老師用很好理解的方式介紹了導數,對於中國學生來說導數沒有問題,老師講解的方式很新穎。 首先假設f(a)=3a,當a取2,f(a)=6,;這時稍微增大一下a的值,比如取2.001,此時f(a)=6.003,可見a增大0.001,f(a)增大0.003,是a增量的3倍,這
【學習筆記】吳恩達老師《深度學習工程師》四
第三課 logistic迴歸損失函式 我們想使用sigmoid函式,將我們的輸出結果介於0~1之間,那麼我們就需要一個引數w,乘以我們的輸入x,然後累加,從而實現我們的想法。 如果我們某次的輸出結果為,預期的輸出結果為,自然得我們渴望得到,那麼構建一個損失函式L,來衡量輸出結果即可。  
【學習筆記】吳恩達老師《深度學習工程師》三
二週目課程 第一課 二分分類 二分類問題,說白了就是結果只有兩種可能。老師以識別影象中是否為貓作為舉例,首先講解了神經網路中常用的符號規定。 當給我們一幅圖: 我們需要得到的結果是,圖片中是否是貓呢?顯然結果僅有兩種:是(1)和不是(0)。 那麼神經網路是如何處理圖片呢?圖片
【學習筆記1】吳恩達_卷積神經網路_第一週卷積神經網路(1)
一、卷積神經網路 1.邊緣檢測 不同的語言中表示卷積的函式不同,在Python中為在tensorflow裡為 濾波器:垂直、水平邊緣檢測。 Sobel filter:其優點在於增加了中間一行元素的權重,即影象中間的畫素點提高,會使結果的魯棒(robust)性提高。
【學習日記】吳恩達深度學習工程師微專業第一課:神經網路和深度學習
以下內容是我聽吳恩達深度學習微專業第一課做的學習筆記,主要是按自己的理解回答一些問題,並非全部出自課程內容。1. 什麼是神經網路?神經網路是諸多機器學習方法中的一種,受人類大腦工作方式的啟發而發明的。人類大腦的一個神經元通過多個樹突來接收來自不同神經元的訊號,接著細胞核處理訊
【轉】: 塞爾達組在GDC2017演講的文字翻譯:技術的智慧
ogre 遊戲 style 標準 檢驗 復制 bce 好用 很多 大家好,我是堂田卓宏,在《荒野之息》的制作中我擔任技術總監的職位。我在2003年加入任天堂,並且作為程序員參與了許多不同遊戲的制作。在本次的制作的過程中,我們的程序員團隊也需要打破許多遊戲內技術的常規。從
【轉】: 塞爾達組在GDC2017演講的文字翻譯:顯示的力量
受限 聯想 例子 content awl load 樣式 決定 時也 塞爾達系列推出新作的時候,美術風格都有明顯變化。本作的風格比起寫實,筆觸輕快變化幅度大是其特征。2011年公開的技術演示中,畫面風格要更加寫實。最終版則更接近於卡通。5年裏到底發生了什麽呢