1. 程式人生 > >面試百度的機器學習演算法,也不過如此

面試百度的機器學習演算法,也不過如此

本文已經收錄至我的GitHub,歡迎大家踴躍star 和 issues。

https://github.com/midou-tech/articles

機器學習整體難度還是有點,不過這個崗位真的是很香,錢多,發展空間足未來可期啊。

本篇文章面經是三位大佬面試百度機器學習崗位的面試題,其中兩位已經拿到offer,趕緊複習起來,下一個offer就是我。

更多的面經和內推資訊,請微信搜尋 龍躍十二 即可獲取。


一面

  • 詢問簡歷上做過的專案,以及專案細節
  • 演算法題:
  • 二叉樹中序遍歷(要非遞迴解法)
  • 兩個有序連結串列的歸併。
  • 快排
  • lstm 詳細講講解
  • attetion 機制
  • 混淆矩陣,F1等計算
  • n個人進餐館,都把帽子掛在門口,走的時候隨手拿一頂,問拿到帽子恰好是自己的人數的期望
  • ML 與 DL比較
  • 實習的一些問題

二面

  • 演算法題:返回二叉樹中路徑和為某一值的所有路徑、反轉句子中單詞順序

  • 區塊鏈比賽和專利

  • 我驚了個呆,大佬竟然還了解區塊鏈,準確指出了我的區塊鏈專案和專利的不靠譜處(我也知道啊,所以我轉ML了啊)

  • 專案

  • 這個就隨便聊了聊

  • AUC計算

  • 很奇怪,我面試後看了看發現給出的是正確方法,但是面試官說不對。。。

  • 程序和執行緒是為什麼被提出的

  • 執行緒間如何通訊

  • 快排複雜度的證明

  • 特徵篩選方法

三面

  • 基礎資料結構和演算法有哪些
  • 是的你沒猜錯,我把課本羅列了一下,順序表 連結串列 雜湊表 樹系列 圖系列,選擇插入冒泡希爾堆快速基數外部排序,就過了。。。
  • 推薦類演算法比較
  • 機器學習演算法比較
  • 聊了聊區塊鏈

已經拿到offer

這是下一位同學的面經

一面

  • 聊專案,聊的非常細,我的專案就是比賽,面試官甚至問了我提分的過程,一開始多少分,做了哪些工作之後升到了多少分之類的;

  • 跟過擬合有關的一些問題,詳細的內容已經記不清了;

  • 聊xgboost;

  • 聊deepFM;

  • 專案中用到了LSTM,為什麼可以用LSTM,它的主要用處是什麼,以及LSTM的梯度消失問題;

  • 演算法題:二叉樹中的最長路徑;

  • 演算法題:x的平方根。

    二面:

  • 聊專案;

  • 聊GBDT;

  • 演算法題:二分查詢;

  • 演算法題:最大堆的插入;

  • 聊deepFM;

  • 不定長文字資料如何輸入deepFM,如果不截斷補齊又該如何輸入;

  • 專案中為什麼使用LSTM;

  • 專案中整個過程中都做過哪些優化。

    三面:

  • n個數中等概率抽取m個數。

    三面就問了一道概率題,剩下的基本上是聊天。 總的來說面試難度不高,感覺也是我運氣好吧。


這是下一位同學的面經

一面

  • 給一個數組,陣列的數字代表股票價格,求一次買賣的最大股票收益
  • 1-n的全排列
  • lstm是什麼的升級?解決了什麼問題?
  • 講一講各種啟用函式
  • attetion 機制
  • embedding的深層含義是什麼
  • c 的const欄位有什麼意義
  • RF和GBDT的區別
  • 為什麼GBDT可以提高準確率
  • 矩陣分解

二面

  • 自我介紹
  • 講區塊鏈
  • 區塊鏈中51%攻擊的經濟學原理
  • 求樹兩個節點的最低公共祖先
  • 講kaggle比賽
  • xgboost比gbdt的優化都有哪些
  • 為什麼xgboost要求二階導數
  • 泰勒展開逼近殘差,二階比一階精度高
  • 通用性,所有二階可導的loss function都可以用
  • 有些函式梯度在一階上變化小,二階變化大,參考牛頓法
  • 為什麼gbdt沒有正則
  • 講專案
  • 計算一下專案中DNN的引數個數
  • gbdt與lr區別
  • 整合為什麼會提高效果
  • l1 l2正則
  • xgb lgb調參怎麼選引數
  • 貪婪搜尋唄?面試官覺得不行?難道是貝葉斯引數優化?
  • 怎麼樣在沒有得到未來資料的情況下提高模型對未來預測的效果
  • 講道理我覺得這個問的非常扯淡,不就是泛化性,然後我說了一些降低方差的方法,面試官說是對未來預測的準確性,沒有get到他的點,最後被說對演算法的追求不夠。。。。

更多的面經和內推資訊,請微信搜尋 龍躍十二 即可獲取。