斯坦福大學-李菲菲,深度學習1到9講聽課筆記
計算機視覺歷史回顧與介紹
第一課時:
深度神經網路:卷積神經網路
計算機視覺是跨學科的領域
NLP 自然語言處理
生物進化出眼睛
相機的出現
基礎視覺皮層(處理視覺)
第二課時:
通過實驗發現,視覺處理的第一步是對簡單的形狀結構處理
簡單的邊緣結構,邊緣決定了結構
(論文)block world
CVPR,ICCV
分層的模型
感知分組
人臉檢測,富士山相機的人臉檢測-2006年
第三課時:
ImageNet(5000萬張,2萬個分類)
ImageNet 挑戰賽(針對ImageNet的計算機視覺競賽)
2012年卷積神經網路的運用,贏得了ImageNet挑戰賽
特徵加支援向量機的結構
MSRA(殘差神經網路)
對深度學習起了很大的推動作用(GPU,Big Data)
資料驅動的影象分類方式
第四課時:
線性分類器
對不同場景具有魯棒性
分類問題的複雜性
進鄰演算法分類器
k鄰近,k變大影象分類變平滑,效果變好。
歐式距離,曼哈頓距離
分類器的泛化驗證
第五課時:
輸入一張影象,輸出與10個類相對應的數值。
線性分類器,就是得到最合適的W和B(W是係數,B是獨立的權重引數)
改變每一張圖的大小,使他們變成同等大小,就可以轉化成長度相同的列向量
最先進的方法是使用的方形圖片
對權重矩陣W的理解,類似模式匹配
分類器對圖片做了混合變成單個模型,所以會出現雙頭馬,不同角度的汽車重合。
損失函式,對於一個確定的分類器W,在我們的測試中得到的結果有多壞。
對於汽車顏色細節識別,引入了神經網路。
線性分類器損失函式與最優化
第六課時:
多類SVN損失,SVN(向量機)
SVN損失函式的計算公式:$L_i=\sum_{j!=y_j}max(0,s_j-s_y_j+1)$,這裡的1叫做安全係數
$L = 1/N\sum_{i=1}^{N}L_i$
正則化,正則化是權衡你的訓練損失和你用於測試集的泛化損失
L2正則化考慮了X要素中的大部分東西,儘可能的展開w的權重
SVN和softmax分類器,softmax又叫邏輯斯蒂迴歸
softMax:$L_i=-log(\frac{e^{s_y_i}}{\sum_{j}e^{s_j}})$
第七課時:
SoftMax會考慮每一個樣例點,SVN對離邊界點近的樣例點敏感,對離邊界點遠的樣例點不敏感
線性分類損失視覺化:http://vision.stanford.edu/teaching/cs231n-demos/linear-classify/
多維度的梯度
步長和權重的正則化引數lambda是需要關注的兩個關鍵點。
mini-batch,取和GPU或者CPU記憶體匹配的大小的batch的資料來估測梯度。
SGD
while True:
data_batch = sample_training_data(data, 256) #sample 256 examples
weights_grad = evaluate_gradient(loss_fun,data_batch,weights)
weights += -step_size*weights_grad #perform prameter update
不同的學習速率導致了最終學習結果的好壞(想象成尋找大盆地的最低點)
反向傳播與神經網路初步
第八課時:
計算圖,反向傳播演算法
鏈式法則,將區域性梯度和最後輸出結果的梯度相乘
前向和反向花的時間基本上是一樣的,通常反向慢一些。
BP的拆分力度,S門
對於最大值門,Max(x,y),反向傳播時較小的梯度為0,較大的梯度是傳播過來的梯度
乘法門的實現
class MultiplyGate(object):
def forward(x,y):
z = x*y;
self.x = x #must keep these around!
self.y = y
return z;
def backward(dz)
dx = self.y * dz;#[dz/dx*dL/dx]
dy = self.x * dz;#[dz/dy*dL/dz]
return [dx, dy]
第九課時:
本地梯度原本是標量現在是雅克比矩陣:表示X中每個元素對Z中每個元素的影響。
並不需要計算雅克比矩陣,層和層之間的交流是通過向量,除非是輸出多重才用雅克比矩陣,我們最終輸出是一個數
神經網路,汽車模型,隱藏層。
import numpy as np # sigmoid function def nonlin(x,deriv=False): if(deriv==True): return x*(1-x) return 1/(1+np.exp(-x)) # input dataset X = np.array([ [0,0,1], [0,1,1], [1,0,1], [1,1,1] ]) # output dataset y = np.array([[0,0,1,1]]).T # seed random numbers to make calculation # deterministic (just a good practice) np.random.seed(1) # initialize weights randomly with mean 0 syn0 = 2*np.random.random((3,1)) - 1 for iter in xrange(10000): # forward propagation l0 = X l1 = nonlin(np.dot(l0,syn0)) # how much did we miss? l1_error = y - l1 # multiply how much we missed by the # slope of the sigmoid at the values in l1 l1_delta = l1_error * nonlin(l1,True) # update weights syn0 += np.dot(l0.T,l1_delta) print "Output After Training:" print l1 http://python.jobbole.com/82758/
想要課件的可以把郵箱留下。不方便公開。
相關推薦
斯坦福大學-自然語言處理與深度學習(CS224n) 筆記 第三課 詞向量(2)
一、word2vec 1、回顧:skip-grams word2vec的主要步驟是遍歷整個語料庫,利用每個視窗的中心詞來預測上下文的單詞,然後對每個這樣的視窗利用SGD來進行引數的更新。 對於每一個視窗而言,我們只有2m+1個單詞(其中m表示視窗的半徑),因此我們計算出來的梯度向量是
斯坦福大學-自然語言處理與深度學習(CS224n) 筆記 第二課 詞向量(word vector)
課程概要 1、單詞含義 2、word2vec介紹 3、word2vec目標函式的梯度推導 4、目標函式優化:梯度下降法 一、單詞含義 含義(meaning)指的是由單詞表達的觀點。我們一般使用單詞含義的方法是,使用像WordNet那樣的分類詞典,給每個單詞對應的上下義關係以及同義
斯坦福大學-自然語言處理與深度學習(CS224n)筆記 第八課 迴圈神經網路
課程概要 1、傳統語言模型 2、迴圈神經網路 3、例項(python) 4、RNN處理的一些技巧 5、針對其他任務的序列模型 6、總結 一、傳統語言模型 語言模型可以計算一些系列的單詞的概率P(w1,…,wT) 可以用來進行機器翻譯 單詞順序:p(the
斯坦福大學-自然語言處理與深度學習(CS224n)筆記 第十課 神經機器翻譯(neural machine translation)與attention模型
本課概要 1、機器翻譯(MT) 2、帶attention的序列模型 3、序列模型解碼器(decoder) 一、機器翻譯(MT) 機器翻譯是一個十分經典的語言理解的測試,涉及語言分析(language analysis)與語言生成(language generat
斯坦福大學-自然語言處理與深度學習(CS224n) 筆記 第六課 依存句法分析
課程概要 1、句法結構:成分句法、依存句法 2、依存語法 3、 Transition-based依存句法分析 4、神經網路的依存句法分析 一、句法結構:成分句法、依存句法 二、依存語法 三、Transition-based依存句法分析 四、神經網路的依存句
斯坦福大學-李菲菲,深度學習1到9講聽課筆記
CS231n 計算機視覺歷史回顧與介紹 第一課時: 深度神經網路:卷積神經網路 計算機視覺是跨學科的領域 NLP 自然語言處理 生物進化出眼睛 相機的出現 基礎視覺皮層(處理視覺) 第二課時: 通過實驗發現,視覺處理的第一步是對簡單的形狀結構處理
華為李航 NLP 有 5 個基本問題,深度學習有4個做得很好
分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!  
深度學習,周志華,機器學習,西瓜書,TensorFlow,Google,吳軍,數學之美,李航,統計學習方法,吳恩達,深度學習筆記,pdf下載
1. 機器學習入門經典,李航《統計學習方法》 2. 周志華的《機器學習》pdf 3.《數學之美》吳軍博士著pdf 4. Tensorflow 實戰Google深度學習框架.pdf 5.《TensorFlow實戰》黃文堅 高清完整PDF 6. 復旦大
斯坦福CS231n 2017最新課程:李飛飛詳解深度學習的框架實現與對比
斯坦福大學的課程 CS231n (Convolutional Neural Networks for Visual Recognition) 作為深度學習和計算機視覺方面的重要基礎課程,在學界廣受推崇。今年 4 月,CS231n 再度開課,全新的 CS231n Spring 2017 仍舊由李飛飛帶頭,帶來
李沐老師在伯克利開新課了,深度學習教材已經開源,視訊也會有的
轉自:https://mp.weixin.qq.com/s/Vrbd_AYw7hgHWc5HJmzt6Q 李沐老師的新課,這個月就要在伯克利開講了。 這是一門深度學習基礎課,一週兩節;每節課後,都會有課堂視訊放出。 課程內容,大致是按照李沐老師的開源新書《動手學深度學習》來安排的
人工智能,深度學習
代碼 語言 機器學習 數據處理 核心 learn caffe lib scikit 1.人工智能的核心 --》 機器學習 --》 深度學習 --》 神經網絡 2.深度學習的工作流程: a。訓練樣本 b。特征抽取 c。學習函數 d。預測 3.人工智能的運用範圍: 自然
中國地質大學(北京)Linux深度學習服務器終端校園網關賬號密碼登錄問題——以ubuntu14.04server版本為例
lib mac地址 raw_input urllib 步驟 ifconf init ifconfig col 學院於2017年12月29日采購一臺深度學習服務器,操作系統為ubuntu14.04server,配置過程遇到各種坑,現就服務器終端命令行網絡配置過程心得分享如下:
七牛雲李朝光:深度學習平臺助力億級別內容審核系統
社交 檢測 精確 圖像 智能機 人工 資源 學習 雲服務 2018 年 10 月 18 日-20 日,由極客邦科技與 InfoQ 中國主辦的 QCon 全球軟件開發大會在上海寶華萬豪酒店舉行。? 在人工智能與深度學習實踐專場(解決方案專場)中,七牛雲深度學習平臺研發負責人
人工智慧,機器學習,神經網路,深度學習的關係
目錄 機器學習 有監督學習和無監督學習 神經網路 剛剛接觸人工智慧的內容時,經常性的會看到人工智慧,機器學習,深度學習還有神經網路的不同的術語,一個個都很高冷,以致於傻傻分不清到底它們之間是什麼樣的關係,很多時候都認為是一個東西的不同表達而已,看了一些具體的介紹後才漸漸有了一個大
38套大資料,雲端計算,架構,資料分析師,Hadoop,Spark,Storm,Kafka,人工智慧,機器學習,深度學習,專案實戰視訊教程
38套大資料,雲端計算,架構,資料分析師,Hadoop,Spark,Storm,Kafka,人工智慧,機器學習,深度學習,專案實戰視訊教程 視訊課程包含: 38套大資料和人工智慧高階課包含:大資料,雲端計算,架構,資料探勘實戰,實時推薦系統實戰,電視收視率專案實戰,實時流統計專案實戰,離線電
更快更強,深度學習新庫fastai“落戶”PyTorch
幾天前,有人統計了歷年ICLR論文錄用者使用的深度學習框架,發現雖然TensorFlow還高居榜首,但PyTorch近一年來的使用資料已經翻了3倍,可以和TF比肩。這是個令人驚訝的訊息,也讓不少從業者開始正視這一發展趨勢,籌備“雙修”事宜。在下文中,論智給讀者帶來的是fast.ai釋出的一個簡便、好用的P
Java,大資料,機器學習,深度學習,學習資源
Java,大資料,機器學習,深度學習,學習資源 Java 基礎 Java 程式設計思想 Java Web 和大資料 Spark 中文文件 Storm 中文文件 Kafka 中文文件 Flink 中文文件 Beam 中
人工智慧,深度學習,計算機視覺,自然語言處理,機器學習,百度網盤視訊教程
人工智慧,深度學習,計算機視覺,自然語言處理,機器學習視訊教程下載: 1. CS224D 2. NLP到Word2vec 3. Opencv3影象處理 4. Tensorflow 5. 機器學習 6. 人工智慧課程 7. 聊天機器人視訊教程 8. 自然語言處理 獲取檔案下載連結
人工智能,神經網絡算法,機器學習,深度學習三者關系
per mach sed 效果 gist 集成 支持向量機 事先 clas 對於很多初入學習人工智能的學習者來說,對人工智能、機器學習、深度學習的概念和區別還不是很了解,有可能你每天都能聽到這個概念,也經常提這個概念,但是你真的懂它們之間的關系嗎?那麽接下來就給大家從概念和
人工智慧,神經網路演算法,機器學習,深度學習三者關係
對於很多初入學習人工智慧的學習者來說,對人工智慧、機器學習、深度學習的概念和區別還不是很瞭解,有可能你每天都能聽到這個概念,也經常提這個概念,但是你真的懂它們之間的關係嗎?那麼接下來就給大家從概念和特點上進行闡述。先看下三者的關係。 人工智慧包括了機器學習和深度學習,機器學習包括了