1. 程式人生 > >機器學習/深度學習 問題總結及解答

機器學習/深度學習 問題總結及解答

oos 情況 boost target rnn load 解答 兩種 blank

作者:原果

鏈接:https://www.nowcoder.com/discuss/71482

來源:牛客網

問題總結及資料鏈接

(1)機器學習部分

1 邏輯回歸部分
常問,推導要會

推導:https://zhuanlan.zhihu.com/p/34325602

2 SVM部分
常問,推導要會,精簡版看下面鏈接,但是寫的不是很詳細,最好把cs229講義好好看看

推導:https://www.zhihu.com/question/21094489 @靠靠靠譜 的回答

3 集成學習
常問,推導要會

bagging方法:看周誌華教授的西瓜書
boosting方法:看李航的藍書,特別的對於GBDT,這篇文章寫的很清晰,推導相對簡單 這裏註意一下,GBDT有兩種,一種是殘差學習,一種是負梯度代替殘差的版本(所以有個G啊),為啥用負梯度近似殘差也是常問的,其實這個說法就不對,殘差只是在loss用最小二乘時候的一個特例,對技術分享圖片求梯度剛好就是技術分享圖片,換成其他loss function就不對了,所以應該反過來說,殘差學習只是一個特例,負梯度才是通用的
stacking方法:沒有特別好的講解,都看看吧,這篇還行
決策樹:cart樹是最常問的,詳見李航藍書,從推導到剪枝都要會

4 softmax

這個相對簡單,這篇足夠了

5 牛頓法和梯度下降

推導以及優劣比較,相對簡單,直接看cs229講義

6 交叉驗證

相對簡單,看這篇

7 正則方法

正則是一大塊,原理方法都要懂,可以參考這些文章 :1 2

8 歸一化方法

基礎問題,隨便那本書都有

9 SVD分解 PCA ICA 白化
這部分我沒有被問到,但是應該會問,畢竟是重點,看cs229講義

(2)深度學習部分

1 過擬合的起因,怎麽解決

這個沒啥好說的,任何講深度學習的書和課程都有,看哪個都行

2 batch normalization

這個問題下的回答很有價值

3 cnn rnn本質

這篇文章總結的很好

4 梯度彌散/爆炸

沒有太好的文章,看看這篇講resnet的吧

5 激活函數,比較

sigmod tanh relu maxout... 好多,這個隨便一搜就一堆,放一個不太切題的文章吧,我偶像何之源奆佬的回答,手動滑稽

6 梯度下降優化

這就很多了,lan大神的花書講的就很好,博客也可以看這個

7 各種網絡結構

這個就太多了,cnn的 rnn的,細分還有很多,多看多熟悉吧

(3)傳統算法

很奇怪,反而這塊很不重視,考的題都很簡單
1 阿裏在線編程測試
給一個圓,切成n個扇形,塗m種顏色,要求任意兩個相鄰扇形顏色不同
思路:首先不考慮首尾位置的扇形是否顏色相同,那麽總共是 技術分享圖片

此時兩種情況:1)首尾位置扇形顏色相同 2)首尾位置扇形顏色不同,第二種滿足題意,不管,第一種可以把首尾顏色相同的扇形合成一個扇形,這樣就成了一個相同要求但是規模是技術分享圖片的問題,這樣遞推公式就是 技術分享圖片

2 騰訊二面 面試官隨手問的一個問題
是分水嶺算法的一部分,問題可以如下描述:假設有一個單通道圖片,背景像素點值為0,中間的物體像素點值為1,求出所有物體像素點到背景的最短距離
思路:dp思想,查看鄰點,如果有一個是0,那麽距離為1,否則該點的距離是鄰點中最短的距離+1,先掃描行,只關心行的不關心列,算出最短距離,再掃描列,只關心列不關心行,更新上一步掃描行後的結果,就是EDT算法,如果是歐式距離還要掃描斜邊



3 騰訊二三面之間的筆試題

有n堆石子,第i堆石子的重量是w[i],每次合並兩堆石子,並計算分數,比如,兩堆石子是x,y,合並後是x+y 分數是xy,一直合並下去,直到只剩一堆石子,求最大累積分數
思路: 一眼看到合並就是哈夫曼樹唄,區別就是哈夫曼樹分數是x+y,這個是x 一眼看到合並就是哈夫曼樹唄,區別就是哈夫曼樹分數是x+y,這個是x*y,那麽每次取兩個最大就行了,優先隊列,彈出兩個最大的相加計算乘積分數,然後結果扔進隊列,直到隊列只剩一個元素


(4)數字圖像處理和模式識別

這部分只被問了這一個問題


1 Sobel、canny 算子 邊緣檢測算子看這個

(5)信息論

信息熵、條件熵、互信息、信息增益 等等的計算,騰訊現場筆試考的,具體的題忘了。。。

(6)概率論

1 概率分布的相關計算


2 假設檢驗
這部分看看本科的課本吧,都有的,概率論的題考的比較活

機器學習/深度學習 問題總結及解答