1. 程式人生 > >大資料演算法崗位面試題

大資料演算法崗位面試題

神經網路
1、簡述反向傳播原理 (阿里),面試官微信發了一道反向傳播的算數題,要求算出結果並解釋 (要能計算的) 
2、sigmoid和ReLU的優劣 
3、梯度消失問題和損失函式有關嗎? 
4、Dropout為什麼能防止過擬合? 
5、Batch Normalization有什麼好處? 
6、講講Adam優化演算法

7、能想到哪些衡量兩個向量之間距離的方法(L1, L2, cosine,或者深度學習裡訓練MLP作為距離函式,注意normalization) 
8、衡量兩個字串之間距離的方法?(樓主答了edit distance和Jaccard distance,不知道還有沒有其他常用的) 
9、LSTM相比普通RNN有哪些優勢?為什麼能解決梯度消失? 
10、LSTM和GRU用哪個好?(樓主表示兩個之間沒有絕對的優劣..面試官表示認同,說實際應用裡確實會因為計算速度而選擇GRU) 
11、梯度消失梯度爆炸怎麼解決 
12、RNN容易梯度消失,怎麼解決(LSTM) 
13、LSTM跟RNN有啥區別 
14、KMeans講講,KMeans有什麼缺點,K怎麼確定 
15、卷積層和池化層有什麼區別 
16、防止過擬合有哪些方法 
17、闡述SVM原理,為何使用對偶性以及對偶性原理,SVM如何解決多分類,SVM與LR對比。 
18、闡述GBDT、xgboost、lightGBM的異同,xgb的優勢,lgb的優勢,二者的並行如何實現。 
19、闡述word2vec的原理,為何使用哈弗曼樹,如何構建哈夫曼,負取樣的原理。 
20、對於一個取值較多的類別變數在不能進行onehot的情況下如何使用?

1、給定一個query和一個doc,能想到哪些衡量相關性的方法(答了bag of words, LSTM encode, CNN encode, bi-directional attention等等);面試官最後提到一種match-CNN說樓主可以面試完研究一下

3、LSTM、GRU、RNN的原理以及差別

4、梯度消失與梯度爆炸的產生原因,如何避免?

5、CNN的原理,卷積為何有效?1*1卷積的作用?

6、HMM與CRF的原理,差別,是全域性最優還是區域性最優以及為什麼。

7、講一下其中的LR、SVM,以及區別和聯絡
 

獲取更多相關大資料技術資料可以掃描下方微信二維碼: