面試百度的機器學習演算法,也不過如此
本文已經收錄至我的GitHub,歡迎大家踴躍star 和 issues。
https://github.com/midou-tech/articles
機器學習整體難度還是有點,不過這個崗位真的是很香,錢多,發展空間足未來可期啊。
本篇文章面經是三位大佬面試百度機器學習崗位的面試題,其中兩位已經拿到offer,趕緊複習起來,下一個offer就是我。
更多的面經和內推資訊,請微信搜尋 龍躍十二 即可獲取。
一面
- 詢問簡歷上做過的專案,以及專案細節
- 演算法題:
- 二叉樹中序遍歷(要非遞迴解法)
- 兩個有序連結串列的歸併。
- 快排
- lstm 詳細講講解
- attetion 機制
- 混淆矩陣,F1等計算
- n個人進餐館,都把帽子掛在門口,走的時候隨手拿一頂,問拿到帽子恰好是自己的人數的期望
- ML 與 DL比較
- 實習的一些問題
二面
演算法題:返回二叉樹中路徑和為某一值的所有路徑、反轉句子中單詞順序
區塊鏈比賽和專利
我驚了個呆,大佬竟然還了解區塊鏈,準確指出了我的區塊鏈專案和專利的不靠譜處(我也知道啊,所以我轉ML了啊)
專案
這個就隨便聊了聊
AUC計算
很奇怪,我面試後看了看發現給出的是正確方法,但是面試官說不對。。。
程序和執行緒是為什麼被提出的
執行緒間如何通訊
快排複雜度的證明
特徵篩選方法
三面
- 基礎資料結構和演算法有哪些
- 是的你沒猜錯,我把課本羅列了一下,順序表 連結串列 雜湊表 樹系列 圖系列,選擇插入冒泡希爾堆快速基數外部排序,就過了。。。
- 推薦類演算法比較
- 機器學習演算法比較
- 聊了聊區塊鏈
已經拿到offer
這是下一位同學的面經
一面
聊專案,聊的非常細,我的專案就是比賽,面試官甚至問了我提分的過程,一開始多少分,做了哪些工作之後升到了多少分之類的;
跟過擬合有關的一些問題,詳細的內容已經記不清了;
聊xgboost;
聊deepFM;
專案中用到了LSTM,為什麼可以用LSTM,它的主要用處是什麼,以及LSTM的梯度消失問題;
演算法題:二叉樹中的最長路徑;
演算法題:x的平方根。
二面:
聊專案;
聊GBDT;
演算法題:二分查詢;
演算法題:最大堆的插入;
聊deepFM;
不定長文字資料如何輸入deepFM,如果不截斷補齊又該如何輸入;
專案中為什麼使用LSTM;
專案中整個過程中都做過哪些優化。
三面:
n個數中等概率抽取m個數。
三面就問了一道概率題,剩下的基本上是聊天。 總的來說面試難度不高,感覺也是我運氣好吧。
這是下一位同學的面經
一面
- 給一個數組,陣列的數字代表股票價格,求一次買賣的最大股票收益
- 1-n的全排列
- lstm是什麼的升級?解決了什麼問題?
- 講一講各種啟用函式
- attetion 機制
- embedding的深層含義是什麼
- c 的const欄位有什麼意義
- RF和GBDT的區別
- 為什麼GBDT可以提高準確率
- 矩陣分解
二面
- 自我介紹
- 講區塊鏈
- 區塊鏈中51%攻擊的經濟學原理
- 求樹兩個節點的最低公共祖先
- 講kaggle比賽
- xgboost比gbdt的優化都有哪些
- 為什麼xgboost要求二階導數
- 泰勒展開逼近殘差,二階比一階精度高
- 通用性,所有二階可導的loss function都可以用
- 有些函式梯度在一階上變化小,二階變化大,參考牛頓法
- 為什麼gbdt沒有正則
- 講專案
- 計算一下專案中DNN的引數個數
- gbdt與lr區別
- 整合為什麼會提高效果
- l1 l2正則
- xgb lgb調參怎麼選引數
- 貪婪搜尋唄?面試官覺得不行?難道是貝葉斯引數優化?
- 怎麼樣在沒有得到未來資料的情況下提高模型對未來預測的效果
- 講道理我覺得這個問的非常扯淡,不就是泛化性,然後我說了一些降低方差的方法,面試官說是對未來預測的準確性,沒有get到他的點,最後被說對演算法的追求不夠。。。。
更多的面經和內推資訊,請微信搜尋 龍躍十二 即可獲取。